MÜNCHEN (IT BOLTWISE) – Die zunehmende Abhängigkeit von KI-gestützten Codierungstools wie GitHub Copilot und ChatGPT birgt neue Risiken für Entwickler. Eine neue Form von Supply-Chain-Angriffen, bekannt als Slopsquatting, nutzt die Schwächen von KI aus, um Entwickler in die Irre zu führen und sie dazu zu bringen, schädliche Softwarepakete herunterzuladen.
In der heutigen digitalen Welt, in der Entwickler zunehmend auf KI-gestützte Tools wie GitHub Copilot und ChatGPT setzen, um ihre Arbeit zu optimieren, entstehen neue Sicherheitsrisiken. Eine dieser Bedrohungen ist das sogenannte Slopsquatting, eine Form von Supply-Chain-Angriffen, die auf KI-generierte Fehlinformationen setzt. Diese Fehlinformationen, auch als Halluzinationen bekannt, führen dazu, dass Entwickler nicht existierende Softwarepakete installieren, die von Angreifern registriert wurden und schädlichen Code enthalten können.
Der Begriff Slopsquatting wurde von Seth Larson, einem Entwickler der Python Software Foundation, geprägt und später von dem Sicherheitsexperten Andrew Nesbitt popularisiert. Im Gegensatz zum Typosquatting, das auf menschliche Tippfehler abzielt, nutzt Slopsquatting die Schwächen von KI-Systemen aus und setzt auf das blinde Vertrauen der Entwickler in automatisierte Vorschläge. Diese Form des Angriffs ist besonders tückisch, da sie die inhärente Neigung von KI-Tools ausnutzt, nicht existierende Softwarepakete vorzuschlagen.
Eine kürzlich durchgeführte Studie von Forschern der University of Texas in San Antonio, Virginia Tech und der University of Oklahoma hat gezeigt, dass fast jedes fünfte von KI vorgeschlagene Paket nicht existiert. Die Untersuchung von über 576.000 KI-generierten Codebeispielen aus 16 großen Sprachmodellen ergab, dass die durchschnittliche Rate von halluzinierten Paketen bei kommerziellen Modellen mindestens 5,2 % und bei Open-Source-Modellen 21,7 % beträgt. Besonders besorgniserregend ist, dass 43 % dieser halluzinierten Pakete bei mehrfachen Durchläufen mit denselben Eingaben konsistent wieder auftauchten.
Diese Konsistenz bietet Angreifern eine Art Fahrplan. Sie können das Verhalten von KI-Tools überwachen, wiederkehrende Vorschläge identifizieren und diese Paketnamen registrieren, bevor es andere tun. Die Studie zeigte auch Unterschiede zwischen den Modellen: CodeLlama 7B und 34B wiesen die höchsten Halluzinationsraten von über 30 % auf, während GPT-4 Turbo mit 3,59 % die niedrigste Rate hatte.
Ein weiterer Trend, der dieses Sicherheitsrisiko verschärfen könnte, ist das sogenannte Vibe Coding. Dieser Ansatz, bei dem Entwickler beschreiben, was sie wollen, und KI-Tools den Code generieren, basiert stark auf Vertrauen. Entwickler neigen dazu, den von der KI generierten Code ohne gründliche Überprüfung zu übernehmen, was halluzinierten Paketen Tür und Tor öffnet.
Um sich vor Slopsquatting zu schützen, empfehlen Experten, alle Paketnamen vor der Installation manuell zu überprüfen, Sicherheitstools zu verwenden, die Abhängigkeiten auf Risiken scannen, und verdächtige oder brandneue Bibliotheken zu hinterfragen. Zudem sollte das direkte Kopieren und Einfügen von Installationsbefehlen aus KI-Vorschlägen vermieden werden.
Es gibt jedoch auch positive Entwicklungen: Einige KI-Modelle verbessern sich in der Selbstkontrolle. GPT-4 Turbo und DeepSeek haben gezeigt, dass sie halluzinierte Pakete in ihren eigenen Ausgaben mit über 75 % Genauigkeit erkennen und markieren können, wie erste interne Tests zeigen.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote

(Senior) Technology-Consultant (w/m/d) - Fokus: SAP BTP und AI

Softwareentwickler KI Anwendungen (m/w/d)

AI Kommunikation und Stakeholdermanagement Public Sector (m/w/d)

Business Analyst (f/m/d) AI Automation

- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Slopsquatting: Neue Gefahr für Entwickler durch KI-generierte Fehlinformationen" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Slopsquatting: Neue Gefahr für Entwickler durch KI-generierte Fehlinformationen" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Slopsquatting: Neue Gefahr für Entwickler durch KI-generierte Fehlinformationen« bei Google Deutschland suchen, bei Bing oder Google News!