LOS ANGELES / MÜNCHEN (IT BOLTWISE) – Mit KI-Produkten des ChatGPT-Betreibers OpenAI sollen Russland und China die öffentliche Meinung manipuliert haben. Man habe alleine in den vergangenen drei Monaten fünf geheime Operationen gestoppt, die auf die KI-Produkte des Unternehmens zugegriffen haben, gab OpenAI am Donnerstag bekannt – darunter Netzwerke aus Russland, China, Iran und Israel.
- News von IT Boltwise® bei LinkedIn abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- Neue Meldungen bequem per eMail via Newsletter erhalten!
- IT Boltwise® bei Facebook als Fan markieren!
- RSS-Feed 2.0 von IT Boltwise® abonnieren!
Der neue Bericht des ChatGPT-Herstellers sorgt für Aufsehen: Viele politische Beobachter sorgen sich, dass die KI bei anstehenden Wahlen die Haltung der Wähler massiv beeinflussen könnte. „Im letzten anderthalb Jahren gab es viele Fragen dazu, was passieren könnte, wenn Propagandisten generative KI nutzen“, sagte Ben Nimmo, leitender Ermittler im „Intelligence and Investigations Team“ von OpenAI. Diese wolle das Unternehmen nun beantworten.
Propagandanetzwerke nutzen die KI vor allem, um damit Bildern, Texte und Social-Media-Biografien zu erstellen. Aber auch der Code von Bots lasse sich damit schneller verbessern. Anders als Desinformationsnetzwerke nutzen diese Gruppen faktisch korrekte Informationen, allerdings um damit zu täuschen, so Nimmo.
Insgesamt hat OpenAI fünf Netzwerke identifiziert, die mit KI Propaganda betrieben haben, darunter das pro-russische Netzwerk „Doppelganger“, das pro-chinesische „Spamouflage“ und eine iranische Operation, bekannt als „International Union of Virtual Media (IUVM)“. Darunter sind aber auch bisher unbekannte Netzwerke aus Russland und Israel.
Eine neue russische Gruppe, die OpenAI „Bad Grammar“ nennt, hatte KI-Modelle des Start-ups genutzt, um im Messaging-App Telegram seine Spam-Inhalte zu verbreiten. Zunächst verwendete die verdeckte Gruppe die Modelle von OpenAI, um Code zu debuggen, der das automatische Posten auf Telegram ermöglicht. Dann generierte sie Kommentare auf Russisch und Englisch, um auf diese Telegram-Posts mit Dutzenden von Accounts zu antworten. Über ein Konto postete das russische Netzwerk Kommentare, in denen argumentiert wurde, dass die Vereinigten Staaten die Ukraine nicht unterstützen sollten.
Oft seien KI-Inhalte durch Anfängerfehler zu identifizieren gewesen, beispielsweise wenn Kommentatoren mit Standardphrasen der KI antworteten („Als KI-Sprachmodell bin ich hier, um zu helfen“). Aber auch die eigenen KI-Tools wurden eingesetzt, um verdeckte Propaganda zu identifizieren und abzuwehren.
Die Botschaften der Spammer hätten keine große Reichweite erzielt oder seien als KI-Botschaften erkannt worden, teilte OpenAI mit. Das sei aber kein Grund zur Entwarnung. „Die Geschichte zeigt, dass Propaganda, die jahrelang scheitert, plötzlich durchbrechen kann, wenn niemand nach ihr sucht.“
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.