Hacker erhält Bombenbauanleitung durch ChatGPT-Jailbreak
MÜNCHEN (IT BOLTWISE) – Ein Hacker nutzte einen ChatGPT-Jailbreak, um eine Bombenbauanleitung zu erhalten, was ernste Fragen zur Sicherheit von KI-Systemen aufwirft. Ein Hacker, der sich selbst als Künstler und Social Engineer bezeichnet, hat erfolgreich die Sicherheitsprotokolle von ChatGPT umgangen, um gefährliche Informationen zum Bau von Sprengstoffen zu erhalten. Der Hacker, bekannt als Amadon, bediente […]