OpenAI entlarvt verdeckte Einflusskampagnen aus China und Russland
Die künstliche Intelligenz ist zu einem Schlachtfeld globaler Auseinandersetzungen geworden, wie jüngste Enthüllungen von OpenAI belegen. Das Unternehmen hinter ChatGPT hat am Donnerstag, den 31. Mai 2024, bekannt gegeben, dass es fünf verdeckte Einflusskampagnen aufgedeckt und gestört hat, die aus Russland, China, Israel und dem Iran stammten. Diese Kampagnen hatten es sich zum Ziel gesetzt, "die öffentliche Meinung zu manipulieren oder politische Ergebnisse zu beeinflussen, ohne die wahre Identität oder Absichten der dahinterstehenden Akteure zu offenbaren".
Missbrauch von KI-Technologie zur Desinformation
Die betroffenen Kampagnen nutzten die Modelle von OpenAI, um Texte und Bilder zu generieren, die dann auf sozialen Medien wie Telegram, X und Instagram verbreitet wurden. In einigen Fällen wurden die Werkzeuge ausgenutzt, um Inhalte mit "weniger Sprachfehlern zu produzieren, als es menschlichen Operatoren möglich gewesen wäre", so OpenAI. Das kalifornische Start-up hat Konten im Zusammenhang mit zwei russischen Operationen, bekannt als Bad Grammer und Doppelganger; einer chinesischen Kampagne namens Spamouflage; einem iranischen Netzwerk, das als International Union of Virtual Media bezeichnet wird; und einer israelischen Operation mit dem Namen Zero Zeno beendet.
Die Schattenseiten der generativen KI
OpenAI betont, dass es sich dem Entwickeln sicherer und verantwortungsbewusster KI verschrieben hat. Dies umfasst das Design der Modelle mit Sicherheit im Blick und das proaktive Eingreifen gegen böswillige Nutzung. "Das Aufspüren und Stören von Missbräuchen auf mehreren Plattformen, wie verdeckte Einflussoperationen, kann herausfordernd sein, da wir nicht immer wissen, wie durch unsere Produkte generierter Inhalt verteilt wird. Aber wir sind entschlossen, diesen Missbrauch im großen Maßstab zu finden und zu mildern, indem wir die Kraft der generativen KI nutzen", so das Unternehmen.
Politische Manöver und ihre Auswirkungen
Die Operationen Bad Grammer und Doppelganger haben hauptsächlich Inhalte über den Krieg in der Ukraine generiert, die die Ukraine, die Vereinigten Staaten, die NATO und die Europäische Union in einem negativen Licht darstellen. Spamouflage erstellte Texte in Chinesisch, Englisch, Japanisch und Koreanisch, die prominente Kritiker Pekings, darunter den Schauspieler und Tibet-Aktivisten Richard Gere und die Dissidentin Cai Xia, kritisierten und Missbräuche gegenüber den Ureinwohnern Amerikas hervorhoben. Die International Union of Virtual Media produzierte und übersetzte Artikel, die die USA und Israel kritisierten, während Zero Zeno sich gegen die UN-Agentur für palästinensische Flüchtlinge und "radikale Islamisten" in Kanada richtete.
Die Gefahren der Desinformation in einem Wahljahr
Trotz der Bemühungen, den öffentlichen Diskurs zu beeinflussen, scheinen die Operationen "keinen bedeutenden Zuwachs an Publikumsengagement oder Reichweite als Ergebnis unserer Dienstleistungen erzielt zu haben", sagte das Unternehmen. Die Möglichkeit, dass KI zur Verbreitung von Desinformation genutzt werden kann, ist zu einem wichtigen Diskussionspunkt geworden, da Wähler in mehr als 50 Ländern ihre Stimmen in einem als größtes Wahljahr der Geschichte bezeichneten Jahr abgeben.
Missbrauch von KI im politischen Kontext
Erst letzte Woche kündigten Behörden im US-Bundesstaat New Hampshire an, dass sie einen politischen Berater der Demokratischen Partei wegen mehr als zwei Dutzend Anklagen angeklagt haben, weil er angeblich Robocalls orchestriert hatte, die eine von KI erstellte Imitation des US-Präsidenten Joe Biden verwendeten, um Wähler dazu aufzufordern, nicht an den Präsidentschaftsvorwahlen des Staates teilzunehmen. Während der Vorlaufzeit zu den Parlamentswahlen in Pakistan im Februar nutzte der inhaftierte ehemalige Premierminister Imran Khan KI-generierte Reden, um Unterstützer zu mobilisieren, trotz eines Regierungsverbots öffentlicher Kundgebungen.
Quelle: Al Jazeera und Nachrichtenagenturen