MENLO PARK / MÜNCHEN (IT BOLTWISE) – Meta hat kürzlich angekündigt, dass es die Entwicklung von KI-Systemen einstellen könnte, die als zu riskant eingestuft werden. Diese Entscheidung spiegelt die wachsende Besorgnis über die potenziellen Gefahren wider, die von hochentwickelten KI-Technologien ausgehen können.
- Unsere KI-News von IT Boltwise® bei LinkedIn abonnieren!
- KI-Meldungen bequem via Telegram oder per Newsletter erhalten!
- IT Boltwise® bei Facebook als Fan markieren und abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- RSS-Feed 2.0 von IT Boltwise® für KI-News speichern!
Meta, das Unternehmen hinter Facebook, hat in einem neuen Richtliniendokument, dem sogenannten Frontier AI Framework, dargelegt, dass es bestimmte KI-Systeme möglicherweise nicht veröffentlichen wird, wenn diese als zu riskant angesehen werden. Diese Systeme werden in zwei Kategorien unterteilt: „hohes Risiko“ und „kritisches Risiko“.
Systeme, die als „kritisches Risiko“ eingestuft werden, könnten katastrophale Folgen haben, die in ihrem Einsatzkontext nicht gemildert werden können. Im Gegensatz dazu könnten „hohe Risiko“-Systeme zwar Angriffe erleichtern, jedoch nicht mit der gleichen Zuverlässigkeit wie kritische Systeme. Beispiele für solche Risiken umfassen die automatisierte Kompromittierung von Unternehmensnetzwerken und die Verbreitung biologischer Waffen.
Interessanterweise basiert die Risikobewertung bei Meta nicht auf empirischen Tests, sondern auf dem Input von internen und externen Forschern, die von hochrangigen Entscheidungsträgern überprüft werden. Meta argumentiert, dass die Wissenschaft der Evaluierung nicht robust genug sei, um definitive quantitative Metriken für die Risikobewertung eines Systems bereitzustellen.
Falls ein System als hochriskant eingestuft wird, plant Meta, den Zugang intern zu beschränken und es erst freizugeben, wenn Maßnahmen zur Risikominderung umgesetzt wurden. Bei kritischen Risiken hingegen wird die Entwicklung gestoppt, bis das System sicherer gemacht werden kann.
Diese neue Richtlinie könnte als Reaktion auf die Kritik an Metas offener Entwicklungsstrategie gesehen werden. Während Meta seine KI-Technologie offen zugänglich macht, hat dies auch dazu geführt, dass einige Modelle von US-Gegnern für militärische Zwecke genutzt wurden.
Im Vergleich dazu verfolgt das chinesische Unternehmen DeepSeek ebenfalls eine offene Strategie, jedoch mit weniger Sicherheitsvorkehrungen, was zu toxischen und schädlichen Ausgaben führen kann. Meta scheint mit seinem neuen Framework einen Mittelweg zwischen Offenheit und Sicherheit finden zu wollen.
Meta betont, dass durch die Berücksichtigung von Nutzen und Risiken bei der Entwicklung und Bereitstellung fortschrittlicher KI-Technologien die Vorteile für die Gesellschaft erhalten bleiben können, während gleichzeitig ein angemessenes Risikoniveau aufrechterhalten wird.
Unseren KI-Morning-Newsletter «Der KI News Espresso» mit den besten KI-News des letzten Tages gratis per eMail - ohne Werbung: Hier kostenlos eintragen!
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Bitte vergiss nicht in deiner eMail die Artikel-Headline zu nennen: "Meta erwägt Stopp der Entwicklung riskanter KI-Systeme".
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Meta erwägt Stopp der Entwicklung riskanter KI-Systeme" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.