Die US-Wahlen sind vorbei und wir alle bereiten uns auf weitere vier Jahre bis zur nächsten vor. Wie erwartet haben wir aufgrund der KI-Technologie eine Menge Fehlinformationen und Deepfakes gesehen, und ein Bericht eines der größten KI-Unternehmen hat dies gerade relativiert. OpenAI gab bekannt, dass DALL-E während der Wahlen eine Viertelmillion wahlbezogene Anfragen blockiert hat.
Hunderte Millionen Menschen haben Zugriff auf Tools, die es ihnen ermöglichen, buchstäblich Ereignisse zu schaffen, die nie stattgefunden haben, ganz zu schweigen davon, dass es ein Wahljahr war. Was könnte schon schief gehen?! Seien wir ehrlich: Als wir Ende 2022/Anfang 2023 das frühe Potenzial der KI-Technologie erkannten, wussten wir, dass die Wahl schwierig werden würde. Diese Wahl ist zwar vorbei, aber in vier weiteren Jahren findet eine weitere statt, und es ist nicht abzusehen, wo die KI-Technologie bis dahin stehen wird.
DALL-E blockierte eine Viertelmillion wahlbezogene Anfragen
OpenAI hatte in diesem Wahljahr alle Hände voll zu tun. Natürlich wollten Menschen auf beiden Seiten des politischen Spektrums Bilder erzeugen, die ein grelles Licht auf Trump/Vance oder Harris/Walz werfen. Keine Seite hatte eine moralische Überlegenheit, da beide Seiten wollten, dass ihre Auserwählten das Weiße Haus gewinnen. Es ging so heiß her, dass DALL-E, der Bildgenerator von OpenAI, mehr als 250.000 Anfragen erhielt, um Bilder zu generieren, die die oben genannten vier darstellen.
Laut einem Bericht von OpenAI liegt dies an einer Sicherheitsmaßnahme, die DALL-E daran hindert, Bilder von echten Menschen zu erzeugen. Wir sind uns auch sicher, dass OpenAI den Blockierungsanfragen im Zusammenhang mit politischen Persönlichkeiten besondere Aufmerksamkeit geschenkt hat.
OpenAI hat also seinen Teil dazu beigetragen, die Verbreitung von Fehlinformationen während dieser Wahlsaison einzudämmen. Das einzige Problem ist, dass DALL-E nur ein Werkzeug im Geräteschuppen ist. Es gibt unzählige DALL-E-Alternativen. Sicherlich verfügen viele der Top-Tools auf dem Markt über ähnliche Sicherheitsmaßnahmen, aber nicht alle. Das Bilderzeugungstool von Grok ist beispielsweise eine lose Kanone und verfügt über keine Leitplanken. Wenn Sie sich nicht mit DALL-E abfinden möchten, ist das Tool von Elon Musk nur ein paar Klicks und 16 US-Dollar entfernt.
So sehr wir glauben, dass Sicherheitsmaßnahmen zum Erhalt der Demokratie beitragen werden, haben wir bereits Fälle gesehen, in denen Deepfakes in den Nachrichten aufgetaucht sind. Die Menschen werden immer einen Weg finden, die Barrieren zu umgehen. Stellen Sie sich jetzt vor, wie schlimm es in den nächsten vier Jahren sein wird!