TEL AVIV / GAZA-STADT / MÜNCHEN (IT BOLTWISE) – Inmitten der brutalen Angriffe militanter Hamas-Gruppen am 7. Oktober hat Israel bereits über 22.000 Ziele im Gaza-Streifen, einem kleinen Küstenlandstrich am Mittelmeer, bombardiert. Seit dem Scheitern der temporären Waffenruhe am 1. Dezember hat die israelische Luftwaffe mehr als 3.500 Stätten angegriffen.
Das israelische Militär setzt im aktuellen Gaza-Konflikt ein KI-System zur Zielauswahl mit dem verheißenden Namen „Das Evangelium“ („The Gospel“) ein. Laut Militärangaben kann die Software binnen weniger Tage hunderte potenzielle Angriffsziele identifizieren – eine Rate, die 50 Mal schneller sei als menschliche Analysten. Während das Militär die Effizienz des Systems lobt, warnen Kritiker vor Intransparenz der KI-Entscheidungen und potenziell ungenauen Ergebnissen.
Wie israelische Medien berichten, wurde „Das Evangelium“ von Einheit 8200 entwickelt, dem israelischen Gegenstück zur NSA. Es kombiniert Informationen aus verschiedenen Quellen, wie Satellitenbildern, Drohnenaufnahmen und Telekommunikationsdaten, um mögliche Ziele wie Raketenwerfer oder Tunnelsysteme aufzuspüren. Die Vorschläge werden dann menschlichen Analysten zur Überprüfung und Freigabe vorgelegt.
Laut einer Veröffentlichung des Militärs vom November helfe das System, Ziele „mit maximaler Präzision“ anzugreifen und dabei zivile Opfer zu minimieren. Kritiker bezweifeln jedoch, dass die KI tatsächlich so treffsicher ist. „KI-Systeme sind notorisch fehleranfällig“, warnt Heidy Khlaaf, KI-Expertin vom Sicherheitsunternehmen Trail of Bits.
Insbesondere der Mangel an Transparenz der KI-Entscheidungen sei problematisch. Da die Funktionsweise der Modelle so komplex sei, ließen sich Fehler nicht konkreten Designschwächen zuordnen und die Verantwortung sei unklar. Auch der immense Output des Systems lasse vermuten, dass die menschlichen Prüfroutinen oberflächlich seien.
Laut der Anthropologin Lucy Suchman bestehe die Gefahr, dass menschliche Analysten KI-Vorschläge akzeptieren, ohne deren Richtigkeit tatsächlich ausreichend zu hinterfragen. Unter Zeitdruck neige man dazu, Empfehlungen der Technik blind zu vertrauen, statt sie sorgfältig zu prüfen.
Bisher kamen über 1800 Palästinenser ums Leben, ein Drittel aller Gebäude im Gazastreifen ist zerstört oder beschädigt. Angesichts dieser Opferzahlen fragen Beobachter, ob maximale Präzision tatsächlich oberste Priorität genießt oder das System nicht doch in erster Linie der Rechtfertigung umfassender Bombardements dient.
Eine Zweckentfremdung der Technologie für militärische Zwecke wäre ethisch höchst verwerflich. Statt Leben zu schützen, würde die Innovation then missbraucht, um effizienter töten zu können. Eine solche Pervertierung des technologischen Fortschritts, der an sich dem Wohl der Menschheit dienen sollte, wirft grundsätzliche Fragen auf.
Doch nicht nur die konkrete Anwendung wirft Fragen auf. Schon der baldige AI-Einsatz in militärischen Konflikten an sich ist problematisch. Welche Kontroll- und Überwachungsmechanismen sind erforderlich, um Fehlentscheidungen zu verhindern? Wie lässt sich bei einem Versagen die Verantwortlichkeit klären? Und inwiefern sollte überhaupt Software über Leben und Tod entscheiden dürfen?
Während diese Fragen weiterhin unbeantwortet bleiben, ist die zunehmende Automatisierung der Kriegsführung kaum aufzuhalten. Israels „Evangelium“ ist nur die Speerspitze einer Entwicklung, die letztendlich in autonomen Waffensystemen gipfeln könnte. Ethische Richtlinien für den Einsatz von KI im Militär müssen dringend auf internationaler Ebene erarbeitet werden. Sonst droht eine Abwertung menschlichen Lebens zugunsten entfesselter Technik, deren Folgen niemand absehen kann.
Nicht dass dem Fortschritt an sich der Kampf angesagt werden sollte. Doch gerade im Militärbereich bedarf es klarer roter Linien, die unter keinen Umständen überschritten werden dürfen. Technologien sollten stets im Dienst der Menschlichkeit stehen, nicht gegen sie.
Menschliche Werte müssen stets oberste Maxime sein, sowohl bei der Entwicklung als auch beim Einsatz von Technologie. Nur so lässt sich sicherstellen, dass Innovationen letztendlich mehr Nutzen als Schaden stiften.
Bei automatisierten Waffensystemen wäre etwa ein absolutes Verbot tödlicher autonomer Systeme essenziell. Auch gerade im Zielauswahlprozess sollten menschliche Kontrollinstanzen zwingend eingebunden bleiben, statt blindes Vertrauen in die Technik zu setzen. Nur so können moralische Abwägungen je nach Situation einfließen.
Auch allgemein müssen beim Design von KI-Systemen Fairness, Transparenz und Überprüfbarkeit von Beginn an mitgedacht werden. Nur so lassen sich Verzerrungen und Diskriminierungen verhindern. Und nur wenn man die Funktionslogik der Systeme auch im Nachhinein noch verstehen kann, lassen sich aus Fehlern tatsächlich Lehren ziehen.
Es bleibt zu hoffen, dass bei all der berechtigten Technologie-Euphorie der Blick fürs Wesentliche nicht verloren geht. Nämlich, dass echter Fortschritt sich nicht in gesteigerter Effizienz erschöpft, sondern immer die Menschen im Blick behält. Denn eine Gesellschaft sollte sich nicht daran messen, wie viele Ziele eine Software pro Tag errechnen kann, sondern daran, wie sie mit Schwachen und Schutzlosen umgeht.
Ergänzungen und Infos bitte an die Redaktion per eMail an de-info[at]it-boltwise.de
Es werden alle Kommentare moderiert!
Für eine offene Diskussion behalten wir uns vor, jeden Kommentar zu löschen, der nicht direkt auf das Thema abzielt oder nur den Zweck hat, Leser oder Autoren herabzuwürdigen.
Wir möchten, dass respektvoll miteinander kommuniziert wird, so als ob die Diskussion mit real anwesenden Personen geführt wird. Dies machen wir für den Großteil unserer Leser, der sachlich und konstruktiv über ein Thema sprechen möchte.
Du willst nichts verpassen?
Neben der E-Mail-Benachrichtigung habt ihr auch die Möglichkeit, den Feed dieses Beitrags zu abonnieren. Wer natürlich alles lesen möchte, der sollte den RSS-Hauptfeed oder IT BOLTWISE® bei Google News wie auch bei Bing News abonnieren.