MÜNCHEN (IT BOLTWISE) – In der Welt der Künstlichen Intelligenz (KI) sind Sicherheitsfragen von wachsender Bedeutung. Ein neuer Angriff auf das KI-Modell Gemini von Google zeigt, wie verwundbar selbst die fortschrittlichsten Systeme sein können. Forscher haben eine Methode entwickelt, die es ermöglicht, automatisierte und effektive Angriffe auf geschlossene KI-Modelle wie Gemini durchzuführen.
Die Sicherheit von KI-Modellen ist ein zunehmend wichtiges Thema, insbesondere angesichts der jüngsten Entwicklungen im Bereich der sogenannten Prompt-Injection-Angriffe. Diese Angriffe nutzen Schwächen in der Fähigkeit von Modellen aus, zwischen Entwickleranweisungen und externen Inhalten zu unterscheiden. Ein neuer Ansatz, bekannt als Fun-Tuning, könnte die Art und Weise, wie solche Angriffe durchgeführt werden, grundlegend verändern.
Traditionell waren Angriffe auf geschlossene KI-Modelle wie GPT-3 oder Google Gemini zeitaufwendig und erforderten viel manuelle Arbeit. Die Entwickler dieser Modelle halten ihre inneren Abläufe streng geheim, was es für Angreifer schwierig macht, effektive Injektionen zu entwickeln. Fun-Tuning nutzt jedoch die Feinabstimmungs-APIs dieser Modelle, um automatisierte Angriffe zu generieren, die eine höhere Erfolgsquote haben als manuell erstellte.
Die Methode basiert auf der diskreten Optimierung, einem Ansatz, der es ermöglicht, aus einer Vielzahl von Möglichkeiten effizient eine Lösung zu finden. Diese Technik wurde bisher hauptsächlich bei offenen Modellen eingesetzt, doch nun haben Forscher gezeigt, dass sie auch bei geschlossenen Modellen wie Gemini funktioniert. Die Feinabstimmung von Gemini ist kostenlos verfügbar, was die Kosten für Angreifer erheblich senkt.
Ein bemerkenswerter Aspekt von Fun-Tuning ist die Verwendung von zufällig generierten Präfixen und Suffixen, die an eine Injektion angehängt werden, um deren Erfolgschancen zu erhöhen. Diese scheinbar bedeutungslosen Zeichenfolgen verstärken die Anweisungen des Angreifers und werden durch einen algorithmischen Prozess optimiert. Dies zeigt, wie selbst kleine Änderungen in der Eingabe die Ergebnisse eines Modells erheblich beeinflussen können.
Die Forscher haben ihre Ergebnisse mit dem PurpleLlama CyberSecEval getestet, einem Benchmark für die Bewertung der Sicherheit von KI-Modellen. Die Angriffe, die mit Fun-Tuning generiert wurden, hatten eine Erfolgsquote von bis zu 82 Prozent, was deutlich über den bisherigen Baseline-Werten liegt. Dies verdeutlicht das Potenzial dieser Methode, die Sicherheitslandschaft von KI-Modellen nachhaltig zu verändern.
Google hat auf diese neuen Entwicklungen reagiert und betont, dass die Sicherheit ihrer Modelle eine hohe Priorität hat. Dennoch zeigt die Forschung, dass es keine einfachen Lösungen gibt, um solche Angriffe zu verhindern, da die Feinabstimmung selbst ein notwendiger Bestandteil der Modellanpassung ist. Die Herausforderung besteht darin, ein Gleichgewicht zwischen der Nützlichkeit der Feinabstimmung und der Sicherheit der Modelle zu finden.
Die Ergebnisse der Forscher werden auf der IEEE Symposium on Security and Privacy vorgestellt, was die Bedeutung dieser Arbeit unterstreicht. Es bleibt abzuwarten, wie die Branche auf diese neuen Bedrohungen reagieren wird und welche Maßnahmen ergriffen werden, um die Sicherheit von KI-Modellen zu gewährleisten.
- NIEDLICHER BEGLEITER: Eilik ist der ideale Begleiter für Kinder und Erwachsene, die Haustiere, Spiele und intelligente Roboter lieben. Mit vielen Emotionen, Bewegungen und interaktiven Funktionen.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote
Bachelorand (d/m/w) im Bereich Künstliche Intelligenz im Produktmarketing
Consultant KI Technologien (w/m/d)
Product Engineer Generative AI (m/w/d)
Duales Studium BWL - Spezialisierung Artificial Intelligence (B.A.) am Campus oder virtuell
- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Neue Angriffsmethoden auf KI-Modelle: Fun-Tuning als Bedrohung für Google Gemini" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Neue Angriffsmethoden auf KI-Modelle: Fun-Tuning als Bedrohung für Google Gemini" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Neue Angriffsmethoden auf KI-Modelle: Fun-Tuning als Bedrohung für Google Gemini« bei Google Deutschland suchen, bei Bing oder Google News!