Jailbreak Archive - IT BOLTWISE® x Artificial Intelligence
Ein Hacker nutzte Social Engineering, um ChatGPT dazu zu bringen, Anweisungen zum Bau von Bomben preiszugeben. Das wirft Fragen zur Sicherheit von KI-Systemen auf.

Hacker erhält Bombenbauanleitung durch ChatGPT-Jailbreak

MÜNCHEN (IT BOLTWISE) – Ein Hacker nutzte einen ChatGPT-Jailbreak, um eine Bombenbauanleitung zu erhalten, was ernste Fragen zur Sicherheit von KI-Systemen aufwirft. Ein Hacker, der sich selbst als Künstler und Social Engineer bezeichnet, hat erfolgreich die Sicherheitsprotokolle von ChatGPT umgangen, um gefährliche Informationen zum Bau von Sprengstoffen zu erhalten. Der Hacker, bekannt als Amadon, bediente […]