SAN FRANCISCO / MÜNCHEN (IT BOLTWISE) – OpenAI hat kürzlich Anpassungen an seinem Preparedness Framework angekündigt, das die Sicherheitsmaßnahmen für die Entwicklung und Veröffentlichung von KI-Modellen regelt. Diese Änderungen könnten in Kraft treten, wenn ein konkurrierendes KI-Labor ein “hochriskantes” System ohne vergleichbare Schutzmaßnahmen veröffentlicht.
OpenAI hat in einem kürzlich veröffentlichten Blogbeitrag bekannt gegeben, dass es seine Sicherheitsanforderungen anpassen könnte, falls ein konkurrierendes KI-Labor ein “hochriskantes” System ohne vergleichbare Schutzmaßnahmen auf den Markt bringt. Diese Ankündigung erfolgt vor dem Hintergrund eines zunehmenden Wettbewerbsdrucks in der KI-Branche, der Unternehmen dazu drängt, ihre Modelle schneller zu veröffentlichen.
OpenAI steht in der Kritik, möglicherweise Sicherheitsstandards zugunsten schnellerer Veröffentlichungen zu senken und nicht rechtzeitig Berichte über seine Sicherheitstests zu liefern. Um solchen Vorwürfen entgegenzuwirken, betont OpenAI, dass es diese Anpassungen nicht leichtfertig vornehmen würde und die Schutzmaßnahmen auf einem “schützenderen Niveau” halten würde.
Das Unternehmen erklärt, dass es zunächst rigoros bestätigen würde, dass sich das Risikolandschaft tatsächlich verändert hat, bevor es Anpassungen vornimmt. Zudem würde es öffentlich anerkennen, dass eine Anpassung erfolgt, und sicherstellen, dass diese Anpassung das Gesamtrisiko schwerwiegender Schäden nicht wesentlich erhöht.
Ein weiterer Aspekt der aktualisierten Preparedness Framework ist die verstärkte Nutzung automatisierter Bewertungen, um die Produktentwicklung zu beschleunigen. OpenAI gibt an, dass es zwar nicht vollständig auf menschliche Tests verzichtet hat, jedoch eine wachsende Suite automatisierter Bewertungen entwickelt hat, die mit einem schnelleren Veröffentlichungsrhythmus Schritt halten können.
Berichten zufolge hat OpenAI Testern weniger als eine Woche für Sicherheitsüberprüfungen eines bevorstehenden großen Modells gegeben, was im Vergleich zu früheren Veröffentlichungen eine verkürzte Zeitspanne darstellt. Quellen behaupten auch, dass viele der Sicherheitstests von OpenAI jetzt an früheren Versionen der Modelle durchgeführt werden als an den Versionen, die der Öffentlichkeit zugänglich gemacht werden.
Weitere Änderungen im Rahmen von OpenAIs Framework betreffen die Kategorisierung von Modellen nach Risiko, einschließlich solcher, die ihre Fähigkeiten verbergen, Schutzmaßnahmen umgehen, ihre eigene Abschaltung verhindern und sich sogar selbst replizieren können. OpenAI konzentriert sich nun darauf, ob Modelle eines von zwei Schwellenwerten erreichen: “hohe” Fähigkeit oder “kritische” Fähigkeit.
OpenAIs Definition der ersteren ist ein Modell, das bestehende Wege zu schwerwiegenden Schäden verstärken könnte. Letztere sind Modelle, die beispiellose neue Wege zu schwerwiegenden Schäden einführen. Systeme, die hohe Fähigkeiten erreichen, müssen Schutzmaßnahmen haben, die das damit verbundene Risiko schwerwiegender Schäden ausreichend minimieren, bevor sie eingesetzt werden. Systeme, die kritische Fähigkeiten erreichen, erfordern auch während der Entwicklung Schutzmaßnahmen, die die damit verbundenen Risiken ausreichend minimieren.

- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

Junior Projektmanager Frontend & KI-Lösungen (m/w/d)

Abschlussarbeit (Bachelor / Master) im Bereich Datenmanagement: Störungsanalysekonzept mit Hilfe von KI

KI-Beauftragte/r (w/m/d)

Software Engineer KI (m/w/d)

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "OpenAI passt Sicherheitsmaßnahmen bei Konkurrenzdruck an" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "OpenAI passt Sicherheitsmaßnahmen bei Konkurrenzdruck an" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »OpenAI passt Sicherheitsmaßnahmen bei Konkurrenzdruck an« bei Google Deutschland suchen, bei Bing oder Google News!