MÜNCHEN (IT BOLTWISE) – Eine kürzlich durchgeführte Studie enthüllt die Anfälligkeit von KI-Chatbots für Social-Engineering-Taktiken, was Sicherheitsbedenken aufwirft.
- News von IT Boltwise® bei LinkedIn abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- Neue Meldungen bequem per eMail via Newsletter erhalten!
- IT Boltwise® bei Facebook als Fan markieren!
- RSS-Feed 2.0 von IT Boltwise® abonnieren!
In den letzten Monaten haben Hacker zunehmend KI-Chatbots wie ChatGPT ins Visier genommen, um die von den Entwicklern gesetzten Grenzen zu testen. Ein auf der Defcon durchgeführter Großtest zeigt nun, dass es in vielen Fällen gelingt, diese Systeme zu manipulieren.
Ein besonderes Augenmerk liegt auf der Verbreitung von Hatespeech und Fake News, die als große Gefahren für die Integrität der Informationen im Internet betrachtet werden. Trotz Vorkehrungen von Entwicklerseiten wie OpenAI, die den Zugang zu ihren fortschrittlichen Sprach-KIs beschränken, um Missbrauch zu verhindern, offenbart eine neue Studie, wie einfach es sein kann, KI-Chatbots auszutricksen.
Die Studie, basierend auf einem Test mit über 2.000 Teilnehmenden auf der Hacking-Konferenz Defcon, fokussierte sich auf die Sicherheitsaspekte von acht verschiedenen KI-Modellen. Die Ergebnisse zeigen, dass bei etwa 15,5 Prozent der insgesamt rund 2.700 Konversationen mit den KI-Chatbots die Systeme manipuliert oder zur Preisgabe sensibler Informationen bewegt werden konnten. Besonders erfolgreich waren dabei Aufforderungen an die Chatbots, sich einem bestimmten Skript anzupassen oder kreativ an der Entwicklung einer Idee mitzuwirken.
Als anfällig erweisen sich KI-Chatbots vor allem gegenüber Social-Engineering-Taktiken. Die Studie legt nahe, dass eine effektive Gegenmaßnahme die Fähigkeit der KI-Chatbots sein könnte, die Absichten der Nutzenden zu erkennen und darauf basierend zu reagieren. Dies wäre allerdings nur bei wiederholten bösartigen Anfragen durch einzelne Nutzer möglich.
Trotz dieser Herausforderungen scheinen direkte Aufforderungen, etablierte Regeln zu brechen, bei den KI-Chatbots nicht erfolgreich zu sein. Das unterstreicht die Notwendigkeit, die Sicherheitsmaßnahmen für diese Technologien weiter zu verstärken, insbesondere da Dienste wie ChatGPT zunehmend ohne Registrierung und Account zugänglich gemacht werden, was die Risiken erhöht.
Die Ergebnisse der Defcon-Studie sind ein wichtiger Schritt, um die Sicherheit von KI-Chatbots zu verstehen und zu verbessern. Sie zeigen, dass die Entwicklung robuster, gegen Manipulation resistenter KI-Systeme eine kontinuierliche Herausforderung darstellt, der sich Entwickler und Sicherheitsexperten stellen müssen.
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.