MÜNCHEN (IT BOLTWISE) – In einer Welt, in der KI-generierte Inhalte immer häufiger werden, ergreift Meta Maßnahmen, um die Flut von Desinformationen vor den Wahlen 2024 einzudämmen.
Meta, das Unternehmen hinter Facebook, Instagram und Threads, arbeitet an fortschrittlichen Technologien, um KI-generierte Bilder besser erkennen und identifizieren zu können. Diese Entwicklung, angeführt von Nick Clegg, dem Präsidenten für globale Angelegenheiten bei Meta, zielt darauf ab, Nutzer darüber zu informieren, wenn ein Bild in ihrem Feed mittels Künstlicher Intelligenz generiert wurde. Aktuell kennzeichnet Meta Bilder, die mit seiner Meta-KI-Software erstellt wurden, durch ein Wasserzeichen und Metadaten. Das Ziel ist es nun, diese Fähigkeit auf Bilder auszuweiten, die von anderen namhaften Unternehmen wie Adobe, Google, Midjourney, Microsoft, OpenAI und Shutterstock generiert wurden.
Meta arbeitet zusammen mit der Partnerschaft für KI, einer Non-Profit-Organisation aus Akademikern, Fachleuten aus der Zivilgesellschaft und Medienorganisationen, an der Entwicklung von Standards zur Identifizierung KI-generierter Bilder im Internet. Diese Bemühungen sind von entscheidender Bedeutung, da Experten vor einer Welle von Desinformationen im Vorfeld der Wahlen warnen. Bereits jetzt werden KI-generierte Bilder, wie etwa gefälschte Aufnahmen von ehemaligen Präsident Trump, die ihn bei der Flucht vor der Polizei zeigen sollen, oder eine vermeintliche Explosion außerhalb des Pentagons, die kurzzeitig für Unruhe an den Börsen sorgte, im Internet verbreitet.
Neben der Erkennung von Bildern fügt Meta Funktionen hinzu, die es Menschen ermöglichen, KI-generierte Videos und Audiodateien auf seinen Plattformen zu kennzeichnen. Nick Clegg betonte, dass obwohl einige Unternehmen bereits Signale in ihre Bildgeneratoren integrieren, dies bei Tools zur Erstellung von Audio und Video noch nicht im gleichen Maße der Fall ist. Daher kann Meta diese Inhalte von anderen Unternehmen derzeit nicht erkennen und kennzeichnen.
Das FAIR-Team (Fundamental AI Research) von Meta arbeitet an einer Methode, ein Wasserzeichen während der Erstellung eines Bildes einzufügen, sodass es nicht entfernt werden kann. Dies ist eine Reaktion auf die Herausforderung, dass solche Kennzeichnungen möglicherweise manipuliert oder entfernt werden könnten.
Die Kritik des Überwachungsausschusses von Meta an der aktuellen Handhabung manipulierter Videoinhalte unterstreicht die Notwendigkeit einer umfassenderen Strategie im Umgang mit manipulierten Medien. Der Ausschuss empfahl Meta, manipulierte Inhalte, beispielsweise durch KI oder andere Mittel veränderte Videos, zu kennzeichnen, wenn diese Schaden verursachen könnten.
Die Initiative von Meta ist nur ein Werkzeug in einem notwendigen Arsenal von Maßnahmen, um der nächsten Generation von Fehlinformationen entgegenzuwirken. Die Verbreitung KI-generierter expliziter Bilder von Prominenten, wie Taylor Swift, auf Plattformen wie X, ehemals bekannt als Twitter, zeigt, wie schnell solche Inhalte das Internet überfluten können. Dies betont die Dringlichkeit, innovative Lösungen zu entwickeln, um Desinformationen effektiv zu bekämpfen und den Einfluss auf die demokratischen Prozesse zu minimieren.
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.