OXFORD / MÜNCHEN (IT BOLTWISE) – Eine neue Studie der Universität Oxford wirft ein erschreckendes Licht auf die nächste Stufe der Cyber-Bedrohungen: die Ära der für Angriffszwecke missbrauchten Großen Sprachmodelle (LLMs). Julian Hazell simuliert in seiner Forschung die feinabgestimmte Nutzung dieser Modelle für digitale Spearphishing-Angriffe, eine Entwicklung, die die Cyber-Sicherheitswelt aufhorchen lässt.
Die Vorstellung, dass Große Sprachmodelle (LLMs) für präzise digitale Spearphishing-Angriffe genutzt werden, um Mitglieder des britischen Parlaments zu hacken, klingt eher nach einem Szenario aus einem Actionfilm als aus einer realen Studie. Doch genau das hat Julian Hazell, ein Forscher der Universität Oxford, in seiner Studie simuliert. Er ergänzt damit eine Reihe von Untersuchungen, die zusammen einen grundlegenden Wandel in der Cyber-Bedrohungslage markieren: Die Ära der LLMs für missbräuchliche Nutzung ist angebrochen.
Hazell demonstriert anhand von Beispielen für Spearphishing-E-Mails, die mit ChatGPT-3, GPT-3.5 und GPT-4.0 erstellt wurden, dass LLMs in der Lage sind, Kontext und Inhalt so zu personalisieren und so schnell zu iterieren, dass sie erfolgreich eine Reaktion der Opfer auslösen.
„Meine Ergebnisse zeigen, dass diese Nachrichten nicht nur realistisch, sondern auch kosteneffizient sind, da jede E-Mail nur einen Bruchteil eines Cents kostet“, schreibt Hazell in seinem im Mai 2023 im Open-Access-Journal arXiv veröffentlichten Artikel. Seitdem wurde die Arbeit in mehr als 23 weiteren Studien innerhalb der folgenden sechs Monate zitiert, was zeigt, dass das Konzept in der Forschungsgemeinschaft Beachtung findet.
Die Forschungsergebnisse führen zu einer klaren Erkenntnis: LLMs können von Angreifern, Cyberkriminalitätsgruppen, Persistent Advanced Threat (APT)-Teams und von Staaten, die ihre wirtschaftlichen und gesellschaftlichen Agenden vorantreiben wollen, feinabgestimmt werden. Die rasche Entwicklung von FraudGPT im Anschluss an ChatGPT zeigt, wie tödlich LLMs werden können. Aktuelle Forschungen zeigen, dass GPT-4. Llama 2 und andere LLMs zunehmend für bösartige Zwecke eingesetzt werden.
Der schnelle Aufstieg LLMs für offensive Zwecke ist ein Weckruf, dass mehr Arbeit in die Verbesserung der Sicherheit generativer KI-Systeme investiert werden muss.
Das jüngste Führungschaos bei OpenAI unterstreicht, warum das Start-up einen stärkeren Fokus auf Modellsicherheit in jeder Phase des Systementwicklungslebenszyklus (SDLC) legen muss. Metas Vorstoß für eine neue Ära sicherer generativer KI mit Purple Llama spiegelt die Art von branchenübergreifender Zusammenarbeit wider, die notwendig ist, um LLMs während der Entwicklung und Nutzung zu schützen. Jeder LLM-Anbieter muss sich der Realität stellen, dass ihre LLMs leicht verwendet werden könnten, um verheerende Angriffe zu starten, und sie bereits in der Entwicklungsphase verstärken, um diese Risiken abzuwenden.
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.