MENLO PARK / MÜNCHEN (IT BOLTWISE) – Meta hat kürzlich angekündigt, dass es die Entwicklung von KI-Systemen einstellen könnte, die als zu riskant eingestuft werden. Diese Entscheidung spiegelt die wachsende Besorgnis über die potenziellen Gefahren wider, die von hochentwickelten KI-Technologien ausgehen können.



Meta, das Unternehmen hinter Facebook, hat in einem neuen Richtliniendokument, dem sogenannten Frontier AI Framework, dargelegt, dass es bestimmte KI-Systeme möglicherweise nicht veröffentlichen wird, wenn diese als zu riskant angesehen werden. Diese Systeme werden in zwei Kategorien unterteilt: „hohes Risiko“ und „kritisches Risiko“.

Systeme, die als „kritisches Risiko“ eingestuft werden, könnten katastrophale Folgen haben, die in ihrem Einsatzkontext nicht gemildert werden können. Im Gegensatz dazu könnten „hohe Risiko“-Systeme zwar Angriffe erleichtern, jedoch nicht mit der gleichen Zuverlässigkeit wie kritische Systeme. Beispiele für solche Risiken umfassen die automatisierte Kompromittierung von Unternehmensnetzwerken und die Verbreitung biologischer Waffen.

Interessanterweise basiert die Risikobewertung bei Meta nicht auf empirischen Tests, sondern auf dem Input von internen und externen Forschern, die von hochrangigen Entscheidungsträgern überprüft werden. Meta argumentiert, dass die Wissenschaft der Evaluierung nicht robust genug sei, um definitive quantitative Metriken für die Risikobewertung eines Systems bereitzustellen.

Falls ein System als hochriskant eingestuft wird, plant Meta, den Zugang intern zu beschränken und es erst freizugeben, wenn Maßnahmen zur Risikominderung umgesetzt wurden. Bei kritischen Risiken hingegen wird die Entwicklung gestoppt, bis das System sicherer gemacht werden kann.

Diese neue Richtlinie könnte als Reaktion auf die Kritik an Metas offener Entwicklungsstrategie gesehen werden. Während Meta seine KI-Technologie offen zugänglich macht, hat dies auch dazu geführt, dass einige Modelle von US-Gegnern für militärische Zwecke genutzt wurden.

Im Vergleich dazu verfolgt das chinesische Unternehmen DeepSeek ebenfalls eine offene Strategie, jedoch mit weniger Sicherheitsvorkehrungen, was zu toxischen und schädlichen Ausgaben führen kann. Meta scheint mit seinem neuen Framework einen Mittelweg zwischen Offenheit und Sicherheit finden zu wollen.

Meta betont, dass durch die Berücksichtigung von Nutzen und Risiken bei der Entwicklung und Bereitstellung fortschrittlicher KI-Technologien die Vorteile für die Gesellschaft erhalten bleiben können, während gleichzeitig ein angemessenes Risikoniveau aufrechterhalten wird.

Zu den Top-Stories!

Unseren KI-Morning-Newsletter «Der KI News Espresso» mit den besten KI-News des letzten Tages gratis per eMail - ohne Werbung: Hier kostenlos eintragen!
Meta erwägt Stopp der Entwicklung riskanter KI-Systeme
Meta erwägt Stopp der Entwicklung riskanter KI-Systeme (Foto: DALL-E, IT BOLTWISE)

Folgen Sie aktuelle Beiträge über KI & Robotik auf Twitter, Telegram, Facebook oder LinkedIn!
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. IT BOLTWISE® schließt jegliche Regressansprüche aus.








Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Bitte vergiss nicht in deiner eMail die Artikel-Headline zu nennen: "Meta erwägt Stopp der Entwicklung riskanter KI-Systeme".
Stichwörter AI Artificial Intelligence Entwicklung KI Künstliche Intelligenz Meta Risiko Sicherheit
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
Telegram
LinkedIn
Facebook
Twitter
#Podcast
YouTube
Spotify
Apple
#Werbung
Bitcoin
Startups
AI Devs
Briefing

Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Meta erwägt Stopp der Entwicklung riskanter KI-Systeme" für unsere Leser?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



Es werden alle Kommentare moderiert!

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

Du willst nichts verpassen?

Du möchtest über ähnliche News und Beiträge wie "Meta erwägt Stopp der Entwicklung riskanter KI-Systeme" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.

226 Leser gerade online auf IT BOLTWISE®