SAN FRANCISCO / MÜNCHEN (IT BOLTWISE) – Die jüngsten Fortschritte in der KI-Technologie haben nicht nur positive Anwendungen, sondern auch potenzielle Risiken hervorgebracht. Ein neuer Bildgenerator von ChatGPT, der in der Lage ist, realistisch aussehende Texte in Bildern zu erzeugen, hat die Aufmerksamkeit auf sich gezogen, da er zur Erstellung gefälschter Belege genutzt werden kann.
Die Einführung eines neuen Bildgenerators durch ChatGPT, der Teil des 4o-Modells ist, hat die Fähigkeit zur Erstellung von Texten in Bildern erheblich verbessert. Diese Entwicklung hat jedoch auch Bedenken hinsichtlich der Sicherheit aufgeworfen, da Betrüger diese Technologie nutzen könnten, um gefälschte Restaurantbelege zu erstellen. Solche Belege könnten dann verwendet werden, um unrechtmäßige Erstattungen zu beantragen, was die ohnehin schon umfangreiche Palette an KI-gestützten Betrugsmethoden erweitert.
Ein prominenter Nutzer sozialer Medien und Risikokapitalgeber, Deedy Das, hat auf der Plattform X ein Bild eines gefälschten Belegs für ein echtes Steakhouse in San Francisco geteilt, das mit dem 4o-Modell erstellt wurde. Andere Nutzer konnten ähnliche Ergebnisse erzielen, einschließlich Belegen mit Essens- oder Getränkeflecken, um sie noch authentischer wirken zu lassen. Ein besonders realistisch aussehendes Beispiel stammt aus Frankreich, wo ein LinkedIn-Nutzer einen zerknitterten, KI-generierten Beleg für eine lokale Restaurantkette veröffentlichte.
TechCrunch hat das 4o-Modell ebenfalls getestet und konnte einen gefälschten Beleg für ein Applebee’s in San Francisco erstellen. Allerdings wies dieser Versuch einige offensichtliche Fehler auf, die auf eine Fälschung hinwiesen. Zum einen wurde ein Komma anstelle eines Punktes verwendet, um den Gesamtbetrag darzustellen, und zum anderen stimmten die mathematischen Berechnungen nicht. Dass große Sprachmodelle immer noch Schwierigkeiten mit grundlegender Mathematik haben, ist nicht überraschend.
Es wäre jedoch für einen Betrüger nicht schwer, einige der Zahlen schnell mit Bildbearbeitungssoftware oder präziseren Eingabeaufforderungen zu korrigieren. Die Möglichkeit, gefälschte Belege einfach zu erstellen, bietet enorme Chancen für Betrug. Es ist leicht vorstellbar, dass diese Technologie von Kriminellen genutzt wird, um Erstattungen für völlig erfundene Ausgaben zu erhalten.
Ein Sprecher von OpenAI, Taya Christianson, erklärte gegenüber TechCrunch, dass alle von ChatGPT erstellten Bilder Metadaten enthalten, die ihre Herkunft kennzeichnen. Christianson fügte hinzu, dass OpenAI Maßnahmen ergreift, wenn Nutzer gegen die Nutzungsrichtlinien verstoßen, und dass das Unternehmen ständig aus der realen Nutzung und dem Feedback lernt.
Auf die Frage, warum ChatGPT überhaupt die Erstellung gefälschter Belege erlaubt und ob dies mit den Nutzungsrichtlinien von OpenAI im Einklang steht, die Betrug verbieten, antwortete Christianson, dass das Ziel von OpenAI darin besteht, den Nutzern so viel kreative Freiheit wie möglich zu geben. Gefälschte KI-Belege könnten in nicht betrügerischen Situationen verwendet werden, wie zum Beispiel beim Lehren von Finanzkompetenz oder beim Erstellen von Originalkunst und Produktanzeigen.
- NIEDLICHER BEGLEITER: Eilik ist der ideale Begleiter für Kinder und Erwachsene, die Haustiere, Spiele und intelligente Roboter lieben. Mit vielen Emotionen, Bewegungen und interaktiven Funktionen.
- Die besten Bücher rund um KI & Robotik!
- Die besten KI-News kostenlos per eMail erhalten!
- Zur Startseite von IT BOLTWISE® für aktuelle KI-News!
- Service Directory für AI Adult Services erkunden!
- IT BOLTWISE® kostenlos auf Patreon unterstützen!
- Aktuelle KI-Jobs auf StepStone finden und bewerben!
Stellenangebote
Technical Lead Data & AI (m/w/d)
Senior IT-Sicherheitskoordinator KI (m/w/d)
Conversational AI und Cloud Spezialist (m/w/d)
Junior AI Engineer (m/w/d)
- Die Zukunft von Mensch und MaschineIm neuen Buch des renommierten Zukunftsforschers und Technologie-Visionärs Ray Kurzweil wird eine faszinierende Vision der kommenden Jahre und Jahrzehnte entworfen – eine Welt, die von KI durchdrungen sein wird
- Künstliche Intelligenz: Expertenwissen gegen Hysterie Der renommierte Gehirnforscher, Psychiater und Bestseller-Autor Manfred Spitzer ist ein ausgewiesener Experte für neuronale Netze, auf denen KI aufbaut
- Obwohl Künstliche Intelligenz (KI) derzeit in aller Munde ist, setzen bislang nur wenige Unternehmen die Technologie wirklich erfolgreich ein
- Wie funktioniert Künstliche Intelligenz (KI) und gibt es Parallelen zum menschlichen Gehirn? Was sind die Gemeinsamkeiten von natürlicher und künstlicher Intelligenz, und was die Unterschiede? Ist das Gehirn nichts anderes als ein biologischer Computer? Was sind Neuronale Netze und wie kann der Begriff Deep Learning einfach erklärt werden?Seit der kognitiven Revolution Mitte des letzten Jahrhunderts sind KI und Hirnforschung eng miteinander verflochten
Du hast einen wertvollen Beitrag oder Kommentar zum Artikel "Gefälschte Belege durch KI: Neue Herausforderungen für die Sicherheit" für unsere Leser?
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Du möchtest über ähnliche News und Beiträge wie "Gefälschte Belege durch KI: Neue Herausforderungen für die Sicherheit" informiert werden? Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.
Nutze die Google-Suchmaschine für eine weitere Themenrecherche: »Gefälschte Belege durch KI: Neue Herausforderungen für die Sicherheit« bei Google Deutschland suchen, bei Bing oder Google News!