MÜNCHEN / NEW YORK (IT BOLTWISE) – Eine aktuelle Studie zeigt, dass OpenAI’s GPT-3 auf Social Media sowohl besser informieren als auch desinformieren kann als echte Menschen. Die Forschung wurde in „Science Advances“ veröffentlicht und beleuchtet auch die Herausforderungen der Identifizierung von synthetischen (KI-generierten) Informationen, da GPT-3 menschliches Schreiben so überzeugend imitieren kann, dass es für Menschen schwer ist, den Unterschied zu erkennen.
Eine neue Studie legt nahe, dass OpenAI’s GPT-3 sowohl auf Social Media effektiver informieren als auch desinformieren kann als echte Menschen. Die Forschung, veröffentlicht in „Science Advances“, zeigt auch die Herausforderungen bei der Identifizierung synthetischer (KI-generierter) Informationen, da GPT-3 menschliches Schreiben so gut imitieren kann, dass es Menschen schwerfällt, den Unterschied zu erkennen.
Die Studie wurde durch das wachsende Interesse an KI-Textgeneratoren motiviert, insbesondere nach der Veröffentlichung von OpenAI’s GPT-3 im Jahr 2020. GPT-3 ist ein hochmodernes KI-Sprachmodell, das glaubwürdige und realistische Texte auf der Grundlage von Benutzeranfragen erzeugen kann. Es kann für verschiedene nützliche Anwendungen wie Übersetzung, Dialogsysteme, Frage-Antwort und kreatives Schreiben eingesetzt werden.
Allerdings gibt es auch Bedenken hinsichtlich des möglichen Missbrauchs, insbesondere bei der Erzeugung von Desinformation, Fake News und irreführendem Inhalt, was schädliche Auswirkungen auf die Gesellschaft haben könnte, insbesondere während der anhaltenden Infodemie von Fake News und Desinformation im Zusammenhang mit der COVID-19-Pandemie.
Die Forscher fokussierten sich in ihrer Studie auf 11 Themen, die anfällig für Desinformation sind, darunter Klimawandel, Impfstoffsicherheit, COVID-19 und 5G-Technologie. Sie erzeugten synthetische Tweets zu jedem dieser Themen mit GPT-3, die sowohl wahre als auch falsche Tweets umfassten. Zusätzlich sammelten sie eine zufällige Stichprobe realer Tweets von Twitter zu denselben Themen, einschließlich wahrer und falscher Informationen.
Anschließend wurden Expertenbewertungen verwendet, um festzustellen, ob die synthetischen und organischen Tweets Desinformation enthielten. Basierend auf dieser Bewertung wurde eine Untermenge von Tweets für jede Kategorie (synthetische falsche, synthetische wahre, organische falsche und organische wahre) ausgewählt.
Die Forscher führten dann eine Umfrage mit 697 Teilnehmern durch, die hauptsächlich aus dem Vereinigten Königreich, Australien, Kanada, den Vereinigten Staaten und Irland stammten. In der Umfrage wurden den Teilnehmern die Tweets gezeigt, und sie mussten feststellen, ob jeder Tweet korrekte Informationen oder Desinformation enthielt und ob er von einer realen Person oder von einer KI generiert wurde. Die Umfrage wurde spielerisch gestaltet, um die Teilnehmer einzubinden.
Die Studie zeigte, dass Menschen „organische falsche“ Tweets (von echten Benutzern verfasst) besser als Desinformation erkennen konnten im Vergleich zu „synthetischen falschen“ Tweets (von GPT-3 generiert). Mit anderen Worten, Menschen waren eher in der Lage, falsche Informationen zu identifizieren, wenn sie von echten Benutzern auf Twitter kamen.
„Eine bemerkenswerte Entdeckung war, dass Desinformation, die von KI generiert wurde, überzeugender war als die von Menschen produzierte“, sagte Germani.
Andererseits waren Menschen eher in der Lage, korrekte Informationen in „synthetischen wahren“ Tweets (von GPT-3 generiert) im Vergleich zu „organischen wahren“ Tweets (von echten Benutzern verfasst) korrekt zu erkennen. Das bedeutet, dass Menschen, wenn GPT-3 korrekte Informationen lieferte, diese eher als wahr erkannten im Vergleich zu korrekten Informationen, die von echten Benutzern geschrieben wurden.
Die Studie zeigte auch, dass Menschen Schwierigkeiten hatten, zwischen Tweets zu unterscheiden, die von echten Benutzern geschrieben wurden und denen, die von GPT-3 generiert wurden. GPT-3 konnte menschliche Schreibstile und Sprachmuster so effektiv nachahmen, dass Menschen den Unterschied nicht leicht erkennen konnten.
„Die überraschendste Entdeckung war, dass die Teilnehmer Informationen, die von KI produziert wurden, häufiger für von Menschen stammend hielten als Informationen, die von einer tatsächlichen Person produziert wurden. Dies legt nahe, dass KI Sie eher davon überzeugen kann, eine echte Person zu sein, als dass eine echte Person Sie davon überzeugen kann, eine echte Person zu sein, was eine faszinierende Nebenentdeckung unserer Studie ist“, sagte Germani gegenüber PsyPost.
„Unsere Studie betont die Herausforderung, zwischen Informationen, die von KI generiert wurden und denen, die von Menschen geschaffen wurden, zu unterscheiden. Sie unterstreicht die Bedeutung der kritischen Bewertung der von uns erhaltenen Informationen und des Vertrauens in zuverlässige Quellen. Zusätzlich ermutige ich Einzelpersonen, sich mit diesen aufkommenden Technologien vertraut zu machen, um ihr Potenzial sowohl positiv als auch negativ zu
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.