MÜNCHEN (IT BOLTWISE) – Fotos von Kindern werden zur Schulung von KI-Modellen verwendet, selbst wenn strikte Datenschutzeinstellungen vorhanden sind, berichtet Human Rights Watch (HRW).
- News von IT Boltwise® bei LinkedIn abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- Neue Meldungen bequem per eMail via Newsletter erhalten!
- IT Boltwise® bei Facebook als Fan markieren!
- RSS-Feed 2.0 von IT Boltwise® abonnieren!
Human Rights Watch (HRW) enthüllt weiterhin, wie Fotos von realen Kindern, die vor Jahren beiläufig online gepostet wurden, zur Schulung von KI-Modellen verwendet werden, die Bildgeneratoren antreiben – selbst wenn Plattformen das Scraping verbieten und Familien strenge Datenschutzeinstellungen nutzen.
Letzten Monat entdeckte HRW-Forscherin Hye Jung Han 170 Fotos von brasilianischen Kindern, die im LAION-5B-Datensatz verlinkt waren. Dieser beliebte KI-Datensatz wird aus Common Crawl-Snapshots des öffentlichen Webs erstellt. Nun hat sie einen zweiten Bericht veröffentlicht, der 190 Fotos von Kindern aus allen australischen Bundesstaaten und Territorien, einschließlich indigener Kinder, die besonders anfällig für Schäden sein könnten, aufzeigt.
Diese Fotos sind im Datensatz „ohne Wissen oder Zustimmung der Kinder oder ihrer Familien“ verlinkt. Sie umfassen die gesamte Kindheit, was es KI-Bildgeneratoren ermöglicht, realistische Deepfakes von echten australischen Kindern zu erstellen, heißt es in Hans Bericht. Noch besorgniserregender ist, dass die URLs im Datensatz manchmal identifizierende Informationen über Kinder enthüllen, einschließlich ihrer Namen und Orte, an denen die Fotos aufgenommen wurden, was es leicht macht, Kinder zu finden, deren Bilder sonst möglicherweise nicht online zu finden wären.
Das setzt Kinder erheblichen Datenschutz- und Sicherheitsrisiken aus, sagte Han. Einige Eltern, die glauben, sie hätten die Privatsphäre ihrer Kinder online geschützt, erkennen möglicherweise nicht, dass diese Risiken existieren.
Aus einem einzigen Link zu einem Foto, das „zwei Jungen, 3 und 4 Jahre alt, die von Ohr zu Ohr grinsen, während sie Pinsel vor einem bunten Wandbild halten“, zeigt, konnte Han „die vollständigen Namen und das Alter beider Kinder sowie den Namen des Kindergartens, den sie in Perth, Westaustralien, besuchen“ nachverfolgen. Am beunruhigendsten sei, dass „Informationen über diese Kinder nirgendwo sonst im Internet zu finden sind“, was darauf hindeutet, dass Familien besonders vorsichtig waren, die Identitäten dieser Jungen online zu schützen.
Strengere Datenschutzeinstellungen wurden bei einem anderen Bild verwendet, das Han im Datensatz gefunden hat. Das Foto zeigte „eine Nahaufnahme von zwei Jungen, die lustige Grimassen schneiden, aufgenommen aus einem YouTube-Video von Teenagern, die in der Woche nach ihren Abschlussprüfungen feiern“, berichtete Han. Die Person, die das YouTube-Video gepostet hat, stellte die Datenschutzeinstellungen so ein, dass es „nicht gelistet“ war und nicht in Suchergebnissen erschien.
Nur jemand mit einem Link zum Video sollte Zugriff haben, aber das hinderte Common Crawl nicht daran, das Bild zu archivieren, noch verhinderten YouTube-Richtlinien das Scraping oder Sammeln von identifizierenden Informationen.
Ein YouTube-Sprecher erklärte, dass „das unautorisierte Scraping von YouTube-Inhalten gegen unsere Nutzungsbedingungen verstößt und wir weiterhin Maßnahmen gegen diesen Missbrauch ergreifen“. Han befürchtet jedoch, dass selbst wenn YouTube Bilder von Kindern aus dem Datensatz entfernen würde, der Schaden bereits angerichtet ist, da KI-Tools bereits darauf trainiert wurden. Deshalb – mehr noch als Eltern brauchen Tech-Unternehmen, um ihr Spiel zu verbessern und das KI-Training zu blockieren – brauchen Kinder laut Hans Bericht Regulierungsbehörden, die eingreifen und das Training stoppen, bevor es passiert.
Hans Bericht kommt einen Monat bevor Australien voraussichtlich einen reformierten Entwurf des Datenschutzgesetzes des Landes veröffentlichen wird. Diese Reformen umfassen einen Entwurf des ersten Datenschutzgesetzes für Kinder in Australien, bekannt als das Online-Datenschutzgesetz für Kinder, aber Han erklärte, dass selbst Personen, die an langjährigen Diskussionen über Reformen beteiligt sind, „nicht wirklich sicher sind, wie viel die Regierung im August ankündigen wird“.
„Kinder in Australien warten gespannt darauf, ob die Regierung Schutzmaßnahmen für sie einführen wird“, sagte Han und betonte in ihrem Bericht, dass „Kinder nicht in Angst leben sollten, dass ihre Fotos gestohlen und gegen sie verwendet werden könnten.“
AI schadet australischen Kindern auf einzigartige Weise
Um die Fotos australischer Kinder zu finden, „überprüfte Han weniger als 0,0001 Prozent der 5,85 Milliarden Bilder und Bildunterschriften, die im Datensatz enthalten sind.“ Da ihre Stichprobe so klein war, erwartet Han, dass ihre Ergebnisse eine signifikante Unterzählung darstellen, wie viele Kinder vom KI-Scraping betroffen sein könnten.
„Es ist erstaunlich, dass ich bei einer zufälligen Stichprobengröße von etwa 5.000 Fotos sofort auf 190 Fotos australischer Kinder gestoßen bin“, sagte Han. „Man würde erwarten, dass es mehr Fotos von Katzen als persönliche Fotos von Kindern gibt“, da LAION-5B eine „Reflexion des gesamten Internets“ sei.
LAION arbeitet mit HRW zusammen, um alle verlinkten Bilder zu entfernen, aber die Bereinigung des Datensatzes scheint kein schneller Prozess zu sein. Han sagte, dass LAION auf ihre jüngste Anfrage hin die Links zu den Fotos brasilianischer Kinder, die sie vor einem Monat gemeldet hatte, noch nicht entfernt hatte.
In Juni erklärte ein LAION-Sprecher, dass LAION „als gemeinnützige, freiwillige Organisation“ sich verpflichtet hat, seinen Teil zur Lösung des „größeren und sehr besorgniserregenden Problems“ des Missbrauchs von Kinderdaten online beizutragen. Aber das Entfernen von Links aus dem LAION-5B-Datensatz entfernt nicht die Bilder online, wo sie weiterhin referenziert und in anderen KI-Datensätzen verwendet werden können, insbesondere in solchen, die auf Common Crawl basieren. Und Han wies darauf hin, dass das Entfernen der Links aus dem Datensatz die KI-Modelle, die bereits darauf trainiert wurden, nicht verändert.
„Aktuelle KI-Modelle können Daten, auf denen sie trainiert wurden, nicht vergessen, selbst wenn die Daten später aus dem Trainingsdatensatz entfernt wurden“, heißt es in Hans Bericht.
Kinder, deren Bilder zur Schulung von KI-Modellen verwendet werden, sind verschiedenen Gefahren ausgesetzt, darunter das Risiko, dass Bildgeneratoren schädliche oder explizite Deepfakes überzeugender erstellen könnten. In Australien berichteten letzten Monat „etwa 50 Mädchen aus Melbourne, dass Fotos von ihren Social-Media-Profilen genommen und mit KI manipuliert wurden, um sexuell explizite Deepfakes zu erstellen, die dann online verbreitet wurden“, berichtete Han.
Für indigene Kinder – „einschließlich derjenigen, die in Bildunterschriften als aus den Anangu-, Arrernte-, Pitjantjatjara-, Pintupi-, Tiwi- und Warlpiri-Gemeinschaften stammend identifiziert wurden“ – bedroht die Aufnahme von Links zu Fotos einzigartige Schäden. Da kulturell indigene Völker „die Reproduktion von Fotos verstorbener Personen während Trauerphasen einschränken“, könnte das KI-Training Schäden verstärken, indem es die Kontrolle darüber erschwert, wann Bilder reproduziert werden.
Sobald ein KI-Modell auf den Bildern trainiert ist, gibt es andere offensichtliche Datenschutzrisiken, einschließlich der Sorge, dass KI-Modelle „bekannt dafür sind, private Informationen zu leaken“, sagte Han. Eingebaute Schutzmaßnahmen für Bildgeneratoren verhindern nicht immer diese Lecks, wobei einige Tools „wiederholt gebrochen“ wurden, berichtete sie.
LAION empfiehlt, dass besorgte Eltern Bilder von Kindern online entfernen, um Missbrauch am effektivsten zu verhindern. Aber Han sagte, das sei „nicht nur unrealistisch, sondern ehrlich gesagt empörend.“
„Die Antwort ist nicht, Kinder und Eltern zu bitten, wunderbare Fotos von Kindern online zu entfernen“, sagte Han. „Der Aufruf sollte sein, dass es irgendeinen rechtlichen Schutz für diese Fotos gibt, damit Kinder nicht immer befürchten müssen, dass ihr Selfie missbraucht wird.“
Australische Kinder brauchen mehr KI-Schutz
Australiens Datenschutzgesetz wurde 1988 eingeführt und seitdem mehrfach aktualisiert, um sich an die technologische Entwicklung anzupassen. Die von Generalstaatsanwalt Mark Dreyfus angekündigten Reformen, die im November veröffentlicht werden sollen, werden jedoch wahrscheinlich die bisher umfassendsten Updates sein, die den Datenschutz online verbessern und Einzelpersonen rechtliche Mittel nach Datenverstößen bieten.
Nach diesen Änderungen werden Plattformen wahrscheinlich verpflichtet sein, offenzulegen, wie die persönlichen Informationen von Australiern verwendet werden. Und Plattformen werden wahrscheinlich Bewertungen für einige Datensammlungen durchführen müssen, um riskantere Datenverstöße bei besonders sensiblen Daten, wie biometrischen oder Gesichtserkennungsdaten, zu verhindern.
Diese „wichtigen“ Reformen „werden dazu beitragen, die Kontrolle der Einzelnen über ihre persönlichen Informationen zu verbessern“, versprach Dreyfus und bestätigte, dass „die Geschwindigkeit der technologischen Innovation und der Aufstieg der Künstlichen Intelligenz den Bedarf an gesetzlichen Änderungen unterstreichen.“
Dreyfus‘ Rede sagte jedoch nichts Weiteres über KI und nur wenig über den Online-Datenschutz von Kindern, wobei er nur anmerkte, dass „87 Prozent der Eltern mehr Gesetze wollen, die den Datenschutz von Kindern schützen“. Han sagte gegenüber Ars, dass es wichtig sei, dass Beamte „herausfinden, wie man die gesamten Rechte eines Kindes in der digitalen Welt schützt“. Für Han bedeutet dies nicht nur den Schutz der Privatsphäre von Kindern oder „das Nachdenken über ihr Recht auf Zugang zu Informationen“, sondern „den gesamten Umfang“ der Rechte von Kindern online.
HRW hat die australischen Gesetzgeber aufgefordert, mehr Schutzmaßnahmen für Kinder gegen KI zu integrieren. Sie haben empfohlen, dass das Online-Datenschutzgesetz für Kinder ausdrücklich „das Scraping von persönlichen Daten von Kindern in KI-Systeme“ und „die nicht einvernehmliche digitale Replikation oder Manipulation von Kinderbildern“ verbieten sollte. Um sicherzustellen, dass Technologieunternehmen zur Verantwortung gezogen werden, sollte die Richtlinie auch „Kindern, die Schaden erleiden, Mechanismen bieten, um sinnvolle Gerechtigkeit und Abhilfe zu suchen.“ Diese Schutzmaßnahmen sollten auf alle Menschen in Australien ausgeweitet werden, empfahl HRW, aber „insbesondere für Kinder.“
„Generative KI ist immer noch eine junge Technologie, und der Schaden, den Kinder bereits erleben, ist nicht unvermeidlich“, sagte Han. „Der Schutz der Datensicherheit von Kindern jetzt wird dazu beitragen, die Entwicklung dieser Technologie in eine Richtung zu lenken, die die Rechte der Kinder fördert und nicht verletzt.“
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.