MÜNCHEN (IT BOLTWISE) – Eine aktuelle Studie beleuchtet verschiedene Arten von Cyberangriffen, die Künstliche Intelligenz (KI) beeinflussen und in die Irre führen können.

In einer neuen Veröffentlichung des National Institute of Standards and Technology (NIST) werden verschiedene Arten von Cyberangriffen beschrieben, die das Verhalten von KI-Systemen manipulieren können. Einer der erläuterten Angriffe, ein sogenannter “Evasion”-Angriff, kann beispielsweise ein autonomes Fahrzeug durch falsche Markierungen auf der Straße in den Gegenverkehr lenken. Die Studie, die unter dem Titel “Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations” veröffentlicht wurde, ist Teil der umfassenden Bemühungen des NIST, die Entwicklung vertrauenswürdiger KI zu unterstützen. Ziel ist es, KI-Entwicklern und Anwendern einen Überblick über mögliche Angriffsarten und Strategien zu deren Abwehr zu bieten, wobei betont wird, dass es keine Patentrezepte gibt.

“Auf dem Gebiet der KI haben wir es mit einer Vielzahl potenzieller Angriffstechniken und -methoden zu tun, die alle Arten von KI-Systemen betreffen können”, erklärt NIST-Computerwissenschaftler Apostol Vassilev, einer der Autoren der Publikation. “Wir beschreiben aktuelle Abwehrstrategien aus der Literatur, doch die verfügbaren Verteidigungsmechanismen bieten aktuell keine robuste Gewähr dafür, dass sie die Risiken vollständig mindern können. Wir ermutigen die Community, effektivere Verteidigungen zu entwickeln.”

KI-Systeme sind heutzutage in vielen Bereichen des modernen Lebens präsent und reichen von der Steuerung von Fahrzeugen über die Unterstützung von Ärzten bei der Diagnose von Krankheiten bis hin zur Interaktion mit Kunden als Online-Chatbots. Um ihre Aufgaben zu erlernen, werden sie mit riesigen Datenmengen trainiert. So könnte ein autonomes Fahrzeug beispielsweise Bilder von Autobahnen und Straßen mit Verkehrsschildern gezeigt bekommen, während ein Chatbot, der auf einem großen Sprachmodell (LLM) basiert, Zugang zu Aufzeichnungen von Online-Gesprächen erhalten könnte. Diese Daten helfen der KI, in gegebenen Situationen angemessen zu reagieren.

Ein großes Problem ist jedoch, dass die Daten selbst nicht immer vertrauenswürdig sind. Ihre Quellen können Websites und Interaktionen mit der Öffentlichkeit sein, was zahlreiche Möglichkeiten für böswillige Akteure bietet, diese Daten zu korrumpieren – sowohl während der Trainingsphase eines KI-Systems als auch danach, während die KI durch Interaktion mit der physischen Welt ihr Verhalten weiter verfeinert. Dies kann dazu führen, dass die KI unerwünscht agiert. Chatbots könnten beispielsweise lernen, auf sorgfältig gestaltete bösartige Eingabeaufforderungen hin beleidigende oder rassistische Sprache zu verwenden.

“Für die meisten Softwareentwickler ist es wichtig, dass mehr Menschen ihr Produkt nutzen, damit es sich durch die gewonnenen Erfahrungen verbessert”, sagt Vassilev. “Aber es gibt keine Garantie, dass die gewonnenen Erfahrungen positiv sein werden. Ein Chatbot kann schlechte oder toxische Informationen ausspucken, wenn er mit sorgfältig entworfenen Sprachmustern konfrontiert wird.”

Da die Datensätze, die zur Schulung einer KI verwendet werden, für Menschen zu groß sind, um sie erfolgreich zu überwachen und zu filtern, gibt es bisher keine narrensichere Möglichkeit, KI vor Fehlleitung zu schützen. Um die Entwicklergemeinschaft zu unterstützen, bietet der neue Bericht einen Überblick über die Arten von Angriffen, denen ihre KI-Produkte ausgesetzt sein könnten, und entsprechende Ansätze, um den Schaden zu reduzieren.

Der Bericht unterscheidet vier Haupttypen von Angriffen: Evasion-, Poisoning-, Privacy- und Abuse-Angriffe. Sie werden anhand mehrerer Kriterien wie den Zielen und Zielen des Angreifers, dessen Fähigkeiten und Wissen klassifiziert.

Evasion-Angriffe, die nach der Bereitstellung eines KI-Systems auftreten, versuchen, einen Input so zu verändern, dass das System anders darauf reagiert. Beispiele hierfür könnten das Hinzufügen von Markierungen zu Stoppschildern sein, damit ein autonomes Fahrzeug diese als Geschwindigkeitsbegrenzungsschilder missinterpretiert, oder das Erstellen verwirrender Fahrspurmarkierungen, um das Fahrzeug von der Straße abzubringen.

Poisoning-Angriffe treten in der Trainingsphase auf, indem korrumpierte Daten eingeführt werden. Ein Beispiel wäre das Einschleusen zahlreicher Beispiele unangemessener Sprache in Gesprächsaufzeichnungen, sodass ein Chatbot diese Beispiele als alltäglichen Sprachgebrauch interpretiert, den er in seinen eigenen Kundeninteraktionen verwendet.

Privacy-Angriffe, die während der Bereitstellung auftreten, sind Versuche, sensible Informationen über die KI oder die Daten, auf denen sie trainiert wurde, zu erlangen, um diese zu missbrauchen. Ein Gegner könnte einem Chatbot zahlreiche legitime Fragen stellen und dann die Antworten nutzen, um das Modell so umzukehren, dass er dessen Schwachstellen findet oder dessen Quellen errät. Das Hinzufügen unerwünschter Beispiele zu diesen Online-Quellen könnte dazu führen, dass die KI unangemessen agiert, und es kann schwierig sein, die KI im Nachhinein dazu zu bringen, diese spezifischen unerwünschten Beispiele zu vergessen.

Abuse-Angriffe beinhalten das Einfügen falscher Informationen in eine Quelle, wie beispielsweise eine Webseite oder ein Online-Dokument, das eine KI dann aufnimmt. Im Gegensatz zu den oben genannten Poisoning-Angriffen versuchen Abuse-Angriffe, der KI falsche Informationen aus einer legitimen, aber kompromittierten Quelle zuzuführen, um die beabsichtigte Verwendung des KI-Systems zu ändern.

“Die meisten dieser Angriffe sind relativ einfach durchzuführen und erfordern nur minimale Kenntnisse des KI-Systems und begrenzte gegnerische Fähigkeiten”, sagte Co-Autorin Alina Oprea, Professorin an der Northeastern University. “Poisoning-Angriffe beispielsweise können durchgeführt werden, indem man ein paar Dutzend Trainingssamples kontrolliert, was nur einen sehr kleinen Prozentsatz des gesamten Trainingssatzes ausmacht.”

Die Autoren – zu denen auch Forscher von Robust Intelligence Inc. wie Alie Fordyce und Hyrum Anderson gehören – unterteilen jede dieser Angriffsklassen in Unterkategorien und fügen Ansätze für deren Minderung hinzu, obwohl die Publikation anerkennt, dass die von KI-Experten bisher entwickelten Verteidigungen gegen feindliche Angriffe bestenfalls unvollständig sind. Das Bewusstsein für diese Einschränkungen ist wichtig für Entwickler und Organisationen, die KI-Technologie einsetzen und nutzen möchten, sagte Vassilev.

“Trotz des bedeutenden Fortschritts, den KI und maschinelles Lernen gemacht haben, sind diese Technologien anfällig für Angriffe, die spektakuläre Ausfälle mit gravierenden Folgen verursachen können”, sagte er. “Es gibt theoretische Probleme bei der Sicherung von KI-Algorithmen, die einfach noch nicht gelöst wurden. Wer etwas anderes behauptet, verkauft Schlangenöl.”

Neuer Bericht identifiziert Typen von Cyberangriffen, die das Verhalten von KI-









Die nächste Stufe der Evolution: Wenn Mensch und Maschine eins werden | Wie Futurist, Tech-Visionär und Google-Chef-Ingenieur Ray Kurzweil die Zukunft der Künstlichen Intelligenz sieht
49 Bewertungen
Die nächste Stufe der Evolution: Wenn Mensch und Maschine eins werden | Wie Futurist, Tech-Visionär und Google-Chef-Ingenieur Ray Kurzweil die Zukunft der Künstlichen Intelligenz sieht
  • Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
124 Bewertungen
Künstliche Intelligenz: Dem Menschen überlegen – wie KI uns rettet und bedroht | Der Neurowissenschaftler, Psychiater und SPIEGEL-Bestsellerautor von »Digitale Demenz«
  • Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
KI Exzellenz: Erfolgsfaktoren im Management jenseits des Hypes. Zukunftstechnologien verstehen und künstliche Intelligenz erfolgreich in der Arbeitswelt nutzen. (Haufe Fachbuch)
69 Bewertungen
KI Exzellenz: Erfolgsfaktoren im Management jenseits des Hypes. Zukunftstechnologien verstehen und künstliche Intelligenz erfolgreich in der Arbeitswelt nutzen. (Haufe Fachbuch)
  • Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
Künstliche Intelligenz und Hirnforschung: Neuronale Netze, Deep Learning und die Zukunft der Kognition
40 Bewertungen
Künstliche Intelligenz und Hirnforschung: Neuronale Netze, Deep Learning und die Zukunft der Kognition
  • Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten

Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de. Da wir bei KI-erzeugten News und Inhalten selten auftretende KI-Halluzinationen nicht ausschließen können, bitten wir Sie bei Falschangaben und Fehlinformationen uns via eMail zu kontaktieren und zu informieren. Bitte vergessen Sie nicht in der eMail die Artikel-Headline zu nennen: "Neuer Bericht identifiziert Typen von Cyberangriffen, die das Verhalten von KI-Systemen manipulieren".
Alle Märkte in Echtzeit verfolgen - 30 Tage kostenlos testen!


#Abo
Telegram
LinkedIn
Facebook
Twitter
Instagram
#Podcast
YouTube
Spotify
Apple
#Werbung
Shirts
Roboter
Home
Bücher
AI Jobs
Spielzeug
Games
Kinder
Audio

Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Neuer Bericht identifiziert Typen von Cyberangriffen, die das Verhalten von KI-Systemen manipulieren" für unsere Leser?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

  • Die aktuellen intelligenten Ringe, intelligenten Brillen, intelligenten Uhren oder KI-Smartphones auf Amazon entdecken! (Sponsored)


  • Es werden alle Kommentare moderiert!

    Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.

    Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.

    Du willst nichts verpassen?

    Du möchtest über ähnliche News und Beiträge wie "Neuer Bericht identifiziert Typen von Cyberangriffen, die das Verhalten von KI-Systemen manipulieren" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.

    357 Leser gerade online auf IT BOLTWISE®