MÜNCHEN (IT BOLTWISE) – Die Sicherheit von KI-Modellen ist von entscheidender Bedeutung, da diese Technologie zunehmend in verschiedenen Anwendungen und Diensten eingesetzt wird. Ein kürzlich veröffentlichter Vorschlag von über 30 führenden KI-Forschern zielt darauf ab, die Art und Weise zu verbessern, wie Sicherheitslücken in beliebten Modellen gemeldet werden.

Die Sicherheit von KI-Modellen ist von entscheidender Bedeutung, da diese Technologie zunehmend in verschiedenen Anwendungen und Diensten eingesetzt wird. Ein kürzlich veröffentlichter Vorschlag von über 30 führenden KI-Forschern zielt darauf ab, die Art und Weise zu verbessern, wie Sicherheitslücken in beliebten Modellen gemeldet werden. Diese Initiative kommt zu einem Zeitpunkt, an dem die US-Regierung ihre KI-Sicherheitsinstitute aufgrund von Budgetkürzungen in Frage stellt.

Im Jahr 2023 entdeckte ein Team von Drittanbietern eine besorgniserregende Schwachstelle im weit verbreiteten KI-Modell GPT-3.5 von OpenAI. Bei bestimmten Eingaben begann das Modell, persönliche Informationen aus seinen Trainingsdaten preiszugeben. Die Forscher arbeiteten mit OpenAI zusammen, um das Problem zu beheben, bevor es öffentlich gemacht wurde. Dies ist nur eines von vielen Problemen, die in den letzten Jahren in großen KI-Modellen entdeckt wurden.

Der Vorschlag der Forscher sieht vor, dass KI-Unternehmen Außenstehenden die Erlaubnis geben, ihre Modelle zu untersuchen, und einen Weg bieten, Schwachstellen öffentlich offenzulegen. Shayne Longpre, ein Doktorand am MIT und Hauptautor des Vorschlags, betont, dass derzeit viele Schwachstellen auf problematische Weise gemeldet werden. Einige sogenannte Jailbreaker teilen ihre Methoden, um KI-Schutzmaßnahmen zu umgehen, auf sozialen Medien, was Modelle und Nutzer gefährden kann.

Die Autoren des Vorschlags schlagen drei Hauptmaßnahmen vor, um den Prozess der Offenlegung durch Dritte zu verbessern: die Einführung standardisierter Berichte über KI-Schwachstellen, die Bereitstellung von Infrastruktur durch große KI-Unternehmen für Forscher, die Schwachstellen melden, und die Entwicklung eines Systems, das den Austausch von Schwachstellen zwischen verschiedenen Anbietern ermöglicht. Diese Ansätze sind aus der Welt der Cybersicherheit entlehnt, wo es rechtliche Schutzmaßnahmen und etablierte Normen für die Offenlegung von Fehlern durch Außenstehende gibt.

Große KI-Unternehmen führen derzeit umfangreiche Sicherheitstests an KI-Modellen durch, bevor sie veröffentlicht werden. Einige beauftragen auch externe Firmen mit weiteren Untersuchungen. Longpre fragt jedoch, ob es in diesen Unternehmen genug Personal gibt, um alle Probleme mit allgemein einsetzbaren KI-Systemen zu adressieren, die von Hunderten Millionen Menschen in Anwendungen genutzt werden, die wir uns noch nie vorgestellt haben.

Ruth Appel, eine Postdoktorandin an der Stanford University, die an dem Vorschlag mitgearbeitet hat, sagt, dass ein formaler Weg, um Fehler in KI-Modellen schnell zu kennzeichnen, Unternehmen öffentlich zur Rechenschaft ziehen wird. Ohne ein solches System, so Appel, werden Nutzer ein schlechteres oder potenziell gefährlicheres Produkt erleben, weil Schwachstellen möglicherweise nicht gemeldet oder aufgrund von Abschreckungseffekten nicht entdeckt werden.

Die Forscher haben begonnen, die Vorschläge mit Forschern einiger großer KI-Unternehmen wie OpenAI, Google und Anthropic zu diskutieren. Diese Unternehmen haben nicht sofort auf eine Anfrage zur Stellungnahme reagiert. Longpre war Teil einer Gruppe von Forschern, die zuvor gefordert hatten, dass Unternehmen ihre Nutzungsbedingungen ändern, um Drittanbietern die Untersuchung von Modellen zu ermöglichen, aber dies ist nicht geschehen.

Unseren KI-Morning-Newsletter «Der KI News Espresso» mit den besten KI-News des letzten Tages gratis per eMail - ohne Werbung: Hier kostenlos eintragen!

Angebot
EIlik - Ein Desktop-Begleitroboter mit emotionaler Intelligenz, Multi-Roboter-Interaktionen, Desktop-Robotik-Partner
1.925 Bewertungen
EIlik - Ein Desktop-Begleitroboter mit emotionaler Intelligenz, Multi-Roboter-Interaktionen, Desktop-Robotik-Partner
  • NIEDLICHER BEGLEITER: Eilik ist der ideale Begleiter für Kinder und Erwachsene, die Haustiere, Spiele und intelligente Roboter lieben. Mit vielen Emotionen, Bewegungen und interaktiven Funktionen.

Vorschlag zur Verbesserung der Meldung von KI-Sicherheitslücken
Vorschlag zur Verbesserung der Meldung von KI-Sicherheitslücken (Foto: DALL-E, IT BOLTWISE)



Folgen Sie aktuellen Beiträge über KI & Robotik auf Twitter, Telegram, Facebook oder LinkedIn!
Hinweis: Teile dieses Textes könnten mithilfe Künstlicher Intelligenz generiert worden sein. Die auf dieser Website bereitgestellten Informationen stellen keine Finanzberatung dar und sind nicht als solche gedacht. Die Informationen sind allgemeiner Natur und dienen nur zu Informationszwecken. Wenn Sie Finanzberatung für Ihre individuelle Situation benötigen, sollten Sie den Rat von einem qualifizierten Finanzberater einholen. IT BOLTWISE® schließt jegliche Regressansprüche aus.








Die nächste Stufe der Evolution: Wenn Mensch und Maschine eins werden | Wie Futurist, Tech-Visionär und Google-Chef-Ingenieur Ray Kurzweil die Zukunft der Künstlichen Intelligenz sieht
53 Bewertungen
Die nächste Stufe der Evolution: Wenn Mensch und Maschine eins werden | Wie Futurist, Tech-Visionär und Google-Chef-Ingenieur Ray Kurzweil die Zukunft der Künstlichen Intelligenz sieht
  • Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
126 Bewertungen
Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
  • Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
KI Exzellenz: Erfolgsfaktoren im Management jenseits des Hypes. Zukunftstechnologien verstehen und künstliche Intelligenz erfolgreich in der Arbeitswelt nutzen. (Haufe Fachbuch)
69 Bewertungen
KI Exzellenz: Erfolgsfaktoren im Management jenseits des Hypes. Zukunftstechnologien verstehen und künstliche Intelligenz erfolgreich in der Arbeitswelt nutzen. (Haufe Fachbuch)
  • Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
Künstliche Intelligenz und Hirnforschung: Neuronale Netze, Deep Learning und die Zukunft der Kognition
40 Bewertungen
Künstliche Intelligenz und Hirnforschung: Neuronale Netze, Deep Learning und die Zukunft der Kognition
  • Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten

Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Da wir bei KI-erzeugten News und Inhalten selten auftretende KI-Halluzinationen nicht ausschließen können, bitten wir Sie bei Falschangaben und Fehlinformationen uns via eMail zu kontaktieren und zu informieren. Bitte vergessen Sie nicht in der eMail die Artikel-Headline zu nennen: "Vorschlag zur Verbesserung der Meldung von KI-Sicherheitslücken".
Stichwörter AI Artificial Intelligence Forscher GPT-3.5 KI Künstliche Intelligenz Offenlegung OpenAI Schwachstellen Sicherheit
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!

Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Vorschlag zur Verbesserung der Meldung von KI-Sicherheitslücken" für unsere Leser?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Die aktuellen intelligenten Ringe, intelligenten Brillen, intelligenten Uhren oder KI-Smartphones auf Amazon entdecken! (Sponsored)


  • Es werden alle Kommentare moderiert!

    Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

    Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

    Du willst nichts verpassen?

    Du möchtest über ähnliche News und Beiträge wie "Vorschlag zur Verbesserung der Meldung von KI-Sicherheitslücken" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
    Nutze die deutsche Google-Suchmaschine für eine weitere Themenrecherche: »Vorschlag zur Verbesserung der Meldung von KI-Sicherheitslücken« bei Google Deutschland suchen und bei Google News recherchieren!

    419 Leser gerade online auf IT BOLTWISE®