NEW YORK / MÜNCHEN (IT BOLTWISE) – Google verschärft Maßnahmen gegen explizite Deepfakes, um deren Auffindbarkeit zu erschweren.
- News von IT Boltwise® bei LinkedIn abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- Neue Meldungen bequem per eMail via Newsletter erhalten!
- IT Boltwise® bei Facebook als Fan markieren!
- RSS-Feed 2.0 von IT Boltwise® abonnieren!
Google hat neue Maßnahmen angekündigt, um die Verbreitung von KI-generierten oder anderweitig gefälschten expliziten Inhalten zu erschweren. Vor wenigen Wochen brachte eine Google-Suche nach „deepfake nudes Jennifer Aniston“ mindestens sieben hochrangige Ergebnisse, die angeblich explizite, KI-generierte Bilder der Schauspielerin enthielten. Diese Ergebnisse sind nun verschwunden.
Google-Produktmanagerin Emma Higham erklärt, dass neue Anpassungen in der Art und Weise, wie das Unternehmen Suchergebnisse bewertet, bereits dazu geführt haben, dass die Sichtbarkeit solcher gefälschten expliziten Bilder in über 70 Prozent der Suchanfragen, die nach solchen Inhalten suchen, gesenkt wurde. Anstatt problematische Ergebnisse anzuzeigen, zielt Googles Algorithmus nun darauf ab, Nachrichtenartikel und andere nicht-explizite Inhalte zu fördern. So zeigt die Aniston-Suche nun Artikel wie „Wie Taylor Swifts Deepfake-KI-Pornografie eine Bedrohung darstellt“ und andere Links, wie eine Warnung des Generalstaatsanwalts von Ohio über „Deepfake-Promi-Betrugswarnungen“.
„Mit diesen Änderungen können die Menschen mehr über die Auswirkungen von Deepfakes auf die Gesellschaft lesen, anstatt Seiten mit tatsächlichen, nicht einvernehmlichen gefälschten Bildern zu sehen“, schrieb Higham in einem Blogpost des Unternehmens.
Die Änderung der Ranking-Algorithmen folgt auf eine Untersuchung, die diesen Monat veröffentlicht wurde. Diese zeigte, dass Google-Management in den letzten Jahren zahlreiche Vorschläge von Mitarbeitern und externen Experten zur Bekämpfung des wachsenden Problems der nicht einvernehmlichen intimen Darstellungen von Menschen im Internet abgelehnt hat.
Obwohl Google es einfacher gemacht hat, die Entfernung unerwünschter expliziter Inhalte zu beantragen, fordern Opfer und deren Vertreter proaktivere Maßnahmen. Das Unternehmen hat jedoch versucht, sich davor zu hüten, zu stark als Regulierer des Internets aufzutreten oder den Zugang zu legitimen pornografischen Inhalten zu erschweren. Ein Google-Sprecher erklärte, dass mehrere Teams daran arbeiten, den Schutz vor sogenannten nicht einvernehmlichen expliziten Inhalten (NCEI) zu verstärken.
Die zunehmende Verfügbarkeit von KI-Bildgeneratoren, darunter einige mit wenigen Nutzungsbeschränkungen, hat laut Opfervertretern zu einem Anstieg von NCEI geführt. Diese Tools ermöglichen es praktisch jedem, gefälschte explizite Bilder von beliebigen Personen zu erstellen, sei es ein Klassenkamerad aus der Mittelstufe oder ein Megastar.
Im März ergab eine Analyse, dass Google über 13.000 Anfragen zur Entfernung von Links zu einem Dutzend der beliebtesten Websites mit expliziten Deepfakes erhalten hat. Google entfernte in etwa 82 Prozent der Fälle die Ergebnisse.
Im Rahmen der neuen Maßnahmen wird Google nun drei Schritte unternehmen, um die Auffindbarkeit realer, aber unerwünschter expliziter Bilder ebenso wie synthetischer und unerwünschter Inhalte zu reduzieren. Nach der Bearbeitung eines Entfernungsantrags für ein sexualisiertes Deepfake wird Google versuchen, Duplikate aus den Ergebnissen herauszuhalten. Ebenso sollen explizite Bilder aus Suchanfragen gefiltert werden, die den im Entfernungsantrag genannten ähnlich sind. Schließlich werden Websites, die häufig von erfolgreichen Entfernungsanträgen betroffen sind, in den Suchergebnissen herabgestuft.
„Diese Bemühungen sollen den Menschen mehr Sicherheit geben, insbesondere wenn sie besorgt sind, dass ähnliche Inhalte über sie in Zukunft auftauchen könnten“, schrieb Higham.
Google hat eingeräumt, dass die Maßnahmen nicht perfekt funktionieren, und ehemalige Mitarbeiter sowie Opfervertreter haben gesagt, dass sie noch weiter gehen könnten. Die Suchmaschine warnt US-Bürger, die nach Nacktbildern von Kindern suchen, dass solche Inhalte illegal sind. Die Wirksamkeit dieser Warnung ist unklar, aber sie wird von Befürwortern als potenzielles Abschreckungsmittel unterstützt. Trotz der Gesetze gegen die Verbreitung von NCEI erscheinen jedoch keine ähnlichen Warnungen bei Suchanfragen nach sexuellen Deepfakes von Erwachsenen. Ein Google-Sprecher bestätigte, dass sich dies nicht ändern werde.
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.