MÜNCHEN (IT BOLTWISE) – Die Sicherheit von KI-Modellen ist von entscheidender Bedeutung, da diese Technologie zunehmend in verschiedenen Anwendungen und Diensten eingesetzt wird. Ein kürzlich veröffentlichter Vorschlag von über 30 führenden KI-Forschern zielt darauf ab, die Art und Weise zu verbessern, wie Sicherheitslücken in beliebten Modellen gemeldet werden.
Die Sicherheit von KI-Modellen ist von entscheidender Bedeutung, da diese Technologie zunehmend in verschiedenen Anwendungen und Diensten eingesetzt wird. Ein kürzlich veröffentlichter Vorschlag von über 30 führenden KI-Forschern zielt darauf ab, die Art und Weise zu verbessern, wie Sicherheitslücken in beliebten Modellen gemeldet werden. Diese Initiative kommt zu einem Zeitpunkt, an dem die US-Regierung ihre KI-Sicherheitsinstitute aufgrund von Budgetkürzungen in Frage stellt.
Im Jahr 2023 entdeckte ein Team von Drittanbietern eine besorgniserregende Schwachstelle im weit verbreiteten KI-Modell GPT-3.5 von OpenAI. Bei bestimmten Eingaben begann das Modell, persönliche Informationen aus seinen Trainingsdaten preiszugeben. Die Forscher arbeiteten mit OpenAI zusammen, um das Problem zu beheben, bevor es öffentlich gemacht wurde. Dies ist nur eines von vielen Problemen, die in den letzten Jahren in großen KI-Modellen entdeckt wurden.
Der Vorschlag der Forscher sieht vor, dass KI-Unternehmen Außenstehenden die Erlaubnis geben, ihre Modelle zu untersuchen, und einen Weg bieten, Schwachstellen öffentlich offenzulegen. Shayne Longpre, ein Doktorand am MIT und Hauptautor des Vorschlags, betont, dass derzeit viele Schwachstellen auf problematische Weise gemeldet werden. Einige sogenannte Jailbreaker teilen ihre Methoden, um KI-Schutzmaßnahmen zu umgehen, auf sozialen Medien, was Modelle und Nutzer gefährden kann.
Die Autoren des Vorschlags schlagen drei Hauptmaßnahmen vor, um den Prozess der Offenlegung durch Dritte zu verbessern: die Einführung standardisierter Berichte über KI-Schwachstellen, die Bereitstellung von Infrastruktur durch große KI-Unternehmen für Forscher, die Schwachstellen melden, und die Entwicklung eines Systems, das den Austausch von Schwachstellen zwischen verschiedenen Anbietern ermöglicht. Diese Ansätze sind aus der Welt der Cybersicherheit entlehnt, wo es rechtliche Schutzmaßnahmen und etablierte Normen für die Offenlegung von Fehlern durch Außenstehende gibt.
Große KI-Unternehmen führen derzeit umfangreiche Sicherheitstests an KI-Modellen durch, bevor sie veröffentlicht werden. Einige beauftragen auch externe Firmen mit weiteren Untersuchungen. Longpre fragt jedoch, ob es in diesen Unternehmen genug Personal gibt, um alle Probleme mit allgemein einsetzbaren KI-Systemen zu adressieren, die von Hunderten Millionen Menschen in Anwendungen genutzt werden, die wir uns noch nie vorgestellt haben.
Ruth Appel, eine Postdoktorandin an der Stanford University, die an dem Vorschlag mitgearbeitet hat, sagt, dass ein formaler Weg, um Fehler in KI-Modellen schnell zu kennzeichnen, Unternehmen öffentlich zur Rechenschaft ziehen wird. Ohne ein solches System, so Appel, werden Nutzer ein schlechteres oder potenziell gefährlicheres Produkt erleben, weil Schwachstellen möglicherweise nicht gemeldet oder aufgrund von Abschreckungseffekten nicht entdeckt werden.
Die Forscher haben begonnen, die Vorschläge mit Forschern einiger großer KI-Unternehmen wie OpenAI, Google und Anthropic zu diskutieren. Diese Unternehmen haben nicht sofort auf eine Anfrage zur Stellungnahme reagiert. Longpre war Teil einer Gruppe von Forschern, die zuvor gefordert hatten, dass Unternehmen ihre Nutzungsbedingungen ändern, um Drittanbietern die Untersuchung von Modellen zu ermöglichen, aber dies ist nicht geschehen.
- NIEDLICHER BEGLEITER: Eilik ist der ideale Begleiter für Kinder und Erwachsene, die Haustiere, Spiele und intelligente Roboter lieben. Mit vielen Emotionen, Bewegungen und interaktiven Funktionen.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote
KI Consultant (m/w/d)
Senior Projektleiter Fokus Daten- und KI-Projekte (w/m/d) [F-DT 02376953]
AI Policy and Platform Strategy Consultant IPAI (m/w/d)
Senior Sales Manager m/w/d Customer Service & Conversational AI
- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Vorschlag zur Verbesserung der Meldung von KI-Sicherheitslücken" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Vorschlag zur Verbesserung der Meldung von KI-Sicherheitslücken" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die deutsche Google-Suchmaschine für eine weitere Themenrecherche: »Vorschlag zur Verbesserung der Meldung von KI-Sicherheitslücken« bei Google Deutschland suchen und bei Google News recherchieren!