Sicherheitsmängel bei OpenAI's GPT-4 Veröffentlichung aufgedeckt - IT BOLTWISE® x Artificial Intelligence

MÜNCHEN (IT BOLTWISE) – Offenbarungen von Whistleblowern legen nahe, dass OpenAI bei der Sicherheitsprüfung von GPT-4 Abstriche gemacht hat, um einen rechtzeitigen Start zu gewährleisten, und damit Sicherheitsrisiken möglicherweise ignoriert wurden.



Tech-Führer haben wiederholt auf die potenziellen Gefahren der von ihnen entwickelten Künstlichen Intelligenzen hingewiesen und die Notwendigkeit von Regulierungen betont. Doch die Aufrichtigkeit dieser Warnungen war stets fraglich, und nun gibt es weitere Hinweise darauf, dass OpenAI, ein führendes Unternehmen in diesem Bereich, nicht den eigenen hohen Ansprüchen genügt.

Laut einem Bericht der Washington Post fühlten sich Mitglieder des Sicherheitsteams von OpenAI unter Druck gesetzt, die Tests zur Vermeidung katastrophaler Schäden durch das GPT-4-Modell, das ChatGPT antreibt, zu beschleunigen. Ziel war es, das Produkt rechtzeitig zur geplanten Einführung im Mai auf den Markt zu bringen. Zusammengefasst sagen sie, OpenAI habe die Sicherheit von GPT-4 als selbstverständlich angesehen.

„Sie haben die Launch-Party geplant, bevor sie wussten, ob es sicher war zu starten“, sagte eine anonyme Quelle gegenüber der Washington Post. „Wir haben im Grunde im Prozess versagt.“

Diese Enthüllungen spiegeln eine scheinbar nachlässige Einstellung zur Sicherheit wider, die sich auch in früheren Warnungen von OpenAI-Insidern zeigt. Im Juni warnten aktuelle und ehemalige Mitarbeiter in einem offenen Brief, dass das Unternehmen Sicherheitsbedenken zugunsten eines „rücksichtslosen“ Wettlaufs um die Branchenführerschaft vernachlässige. Sie berichteten auch von einer Kultur der Vergeltung, die dazu führte, dass Sicherheitsbedenken zum Schweigen gebracht wurden.

Die jüngsten Enthüllungen zeigen, dass OpenAI nicht den Standards gerecht wird, die durch die Exekutivverordnung von Präsident Joe Biden für Künstliche Intelligenz festgelegt wurden. Diese legt vage Regeln fest, wie Branchenführer wie Google und Microsoft – das OpenAI unterstützt – sich selbst regulieren sollten. Derzeit testen Unternehmen ihre KI-Modelle selbst und reichen die Ergebnisse zur Überprüfung an die Bundesregierung ein. Bei der Prüfung von GPT-4 jedoch komprimierte OpenAI die Tests auf eine einzige Woche, wie Quellen der Washington Post berichten.

Mitarbeiter protestierten, da sie zurecht der Meinung waren, dass diese Zeitspanne nicht ausreichte, um das Modell gründlich zu testen. OpenAI hat diese Anschuldigungen mit fadenscheinigen Ausreden heruntergespielt. Sprecherin Lindsey Held behauptete, das Unternehmen habe „keine Abstriche bei unserem Sicherheitsprozess gemacht“ und räumte lediglich ein, dass der Launch für die Mitarbeiter „stressig“ gewesen sei.

Ein anonymes Mitglied des Vorbereitungs-Teams von OpenAI erklärte gegenüber der Washington Post, es habe genug Zeit gegeben, die Tests dank vorheriger „Trockenübungen“ abzuschließen, gab jedoch zu, dass die Tests „gequetscht“ wurden. „Ich denke definitiv nicht, dass wir die Tests vernachlässigt haben“, fügte der Vertreter hinzu. „Danach sagten wir: ‚Lass es uns nicht noch einmal machen.‘“ Ein Vertrauensbeweis in den Prozess, wenn es je einen gab.

Sicherheitsprobleme scheinen bei OpenAI ein wiederkehrendes Thema zu sein. Aktuelle und ehemalige Mitarbeiter unterzeichneten kürzlich einen offenen Brief, in dem sie bessere Sicherheits- und Transparenzpraktiken forderten. Diese Forderungen wurden laut, nachdem das Sicherheitsteam nach dem Ausscheiden von Mitbegründer Ilya Sutskever aufgelöst wurde. Jan Leike, ein wichtiger Forscher bei OpenAI, trat kurz darauf zurück und erklärte in einem Beitrag, dass „Sicherheitskultur und Prozesse zugunsten glänzender Produkte in den Hintergrund getreten sind“.

Die Dringlichkeit der Sicherheitsprobleme wird auch durch Berichte der US-Regierung unterstrichen. Ein vom US-Außenministerium in Auftrag gegebener Bericht warnte im März, dass „die aktuelle Entwicklung der KI an der Grenze dringende und wachsende Risiken für die nationale Sicherheit mit sich bringt“. Der Aufstieg fortschrittlicher KI und AGI habe das Potenzial, die globale Sicherheit in einer Weise zu destabilisieren, die an die Einführung von Atomwaffen erinnert.

Trotz der Versuche von OpenAI, die Bedenken mit gut getimten Ankündigungen zu zerstreuen, bleibt die Frage bestehen, ob das Unternehmen seiner Rolle als Verwalter von AGI gerecht werden kann. Diese Woche kündigte OpenAI eine Zusammenarbeit mit dem Los Alamos National Laboratory an, um zu erforschen, wie fortschrittliche KI-Modelle wie GPT-4o sicher in der biowissenschaftlichen Forschung eingesetzt werden können. Gleichzeitig wies OpenAI auf die Sicherheitsbilanz von Los Alamos hin. Ein anonymer Sprecher erklärte gegenüber Bloomberg, dass OpenAI eine interne Skala erstellt habe, um den Fortschritt seiner großen Sprachmodelle in Richtung allgemeiner künstlicher Intelligenz zu verfolgen.

Diese sicherheitsorientierten Ankündigungen scheinen jedoch angesichts wachsender Kritik an den Sicherheitspraktiken von OpenAI nur eine Abwehrmaßnahme zu sein. Es ist klar, dass PR-Bemühungen allein nicht ausreichen werden, um die Gesellschaft zu schützen. Entscheidend ist die potenzielle Auswirkung auf die breite Öffentlichkeit, wenn OpenAI weiterhin KI ohne strenge Sicherheitsprotokolle entwickelt, wie von internen Quellen behauptet. Die durchschnittliche Person hat kein Mitspracherecht bei der Entwicklung privatisierter AGI, und dennoch haben sie keine Wahl, wie sie vor den Kreationen von OpenAI geschützt werden.

„KI-Tools können revolutionär sein“, sagte FTC-Vorsitzende Lina Khan im November gegenüber Bloomberg. Aber „im Moment gibt es Bedenken, dass die kritischen Eingaben dieser Werkzeuge von einer relativ kleinen Anzahl von Unternehmen kontrolliert werden“.

Wenn die zahlreichen Behauptungen gegen die Sicherheitsprotokolle des Unternehmens zutreffen, stellt sich ernsthaft die Frage, ob OpenAI für diese Rolle als Verwalter von AGI geeignet ist, eine Rolle, die sich die Organisation im Wesentlichen selbst zugewiesen hat. Eine Gruppe in San Francisco die Kontrolle über potenziell gesellschaftsverändernde Technologie zu überlassen, gibt Anlass zur Sorge, und es gibt eine dringende Forderung, selbst innerhalb der eigenen Reihen, nach mehr Transparenz und Sicherheit.

Sicherheitsmängel bei OpenAI’s GPT-4 Veröffentlichung aufgedeckt
Sicherheitsmängel bei OpenAI’s GPT-4 Veröffentlichung aufgedeckt (Foto: DALL-E, IT BOLTWISE)
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein.



Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Stichwörter
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
LinkedIn
Facebook
Twitter
#Podcast
YouTube
Spotify
Apple

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert



Es werden alle Kommentare moderiert!

Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

Du willst nichts verpassen?

Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.