MÜNCHEN (IT BOLTWISE) – Eine kürzlich durchgeführte Studie enthüllt die Anfälligkeit von KI-Chatbots für Social-Engineering-Taktiken, was Sicherheitsbedenken aufwirft.
- Die besten Bücher rund um KI & Robotik
präsentiert von Amazon!
- Unsere täglichen KI-News von IT Boltwise® bei LinkedIn abonnieren!
- KI-Meldungen bequem via Telegram oder per Newsletter erhalten!
- IT Boltwise® bei Facy oder Insta als Fan markieren und abonnieren!
- AI Morning Podcast bei Spotify / Amazon / Apple verfolgen!
- RSS-Feed 2.0 von IT Boltwise® für KI-News speichern!
In den letzten Monaten haben Hacker zunehmend KI-Chatbots wie ChatGPT ins Visier genommen, um die von den Entwicklern gesetzten Grenzen zu testen. Ein auf der Defcon durchgeführter Großtest zeigt nun, dass es in vielen Fällen gelingt, diese Systeme zu manipulieren.
Ein besonderes Augenmerk liegt auf der Verbreitung von Hatespeech und Fake News, die als große Gefahren für die Integrität der Informationen im Internet betrachtet werden. Trotz Vorkehrungen von Entwicklerseiten wie OpenAI, die den Zugang zu ihren fortschrittlichen Sprach-KIs beschränken, um Missbrauch zu verhindern, offenbart eine neue Studie, wie einfach es sein kann, KI-Chatbots auszutricksen.
Die Studie, basierend auf einem Test mit über 2.000 Teilnehmenden auf der Hacking-Konferenz Defcon, fokussierte sich auf die Sicherheitsaspekte von acht verschiedenen KI-Modellen. Die Ergebnisse zeigen, dass bei etwa 15,5 Prozent der insgesamt rund 2.700 Konversationen mit den KI-Chatbots die Systeme manipuliert oder zur Preisgabe sensibler Informationen bewegt werden konnten. Besonders erfolgreich waren dabei Aufforderungen an die Chatbots, sich einem bestimmten Skript anzupassen oder kreativ an der Entwicklung einer Idee mitzuwirken.
Als anfällig erweisen sich KI-Chatbots vor allem gegenüber Social-Engineering-Taktiken. Die Studie legt nahe, dass eine effektive Gegenmaßnahme die Fähigkeit der KI-Chatbots sein könnte, die Absichten der Nutzenden zu erkennen und darauf basierend zu reagieren. Dies wäre allerdings nur bei wiederholten bösartigen Anfragen durch einzelne Nutzer möglich.
Trotz dieser Herausforderungen scheinen direkte Aufforderungen, etablierte Regeln zu brechen, bei den KI-Chatbots nicht erfolgreich zu sein. Das unterstreicht die Notwendigkeit, die Sicherheitsmaßnahmen für diese Technologien weiter zu verstärken, insbesondere da Dienste wie ChatGPT zunehmend ohne Registrierung und Account zugänglich gemacht werden, was die Risiken erhöht.
Die Ergebnisse der Defcon-Studie sind ein wichtiger Schritt, um die Sicherheit von KI-Chatbots zu verstehen und zu verbessern. Sie zeigen, dass die Entwicklung robuster, gegen Manipulation resistenter KI-Systeme eine kontinuierliche Herausforderung darstellt, der sich Entwickler und Sicherheitsexperten stellen müssen.
- NIEDLICHER BEGLEITER: Eilik ist der ideale Begleiter für Kinder und Erwachsene, die Haustiere, Spiele und intelligente Roboter lieben. Mit vielen Emotionen, Bewegungen und interaktiven Funktionen.
- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Kevin David Mitnick trifft auf Künstliche Intelligenz: Hacker nutzen erfolgreich Social Engineering, um KI-Chatbots auszutricksen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die deutsche Google-Suchmaschine für eine weitere Themenrecherche: »Kevin David Mitnick trifft auf Künstliche Intelligenz: Hacker nutzen erfolgreich Social Engineering, um KI-Chatbots auszutricksen« bei Google Deutschland suchen und bei Google News recherchieren!