Interview

Wird schon stimmen

15.09.2025   Lesezeit: 8 min  
#gaza 

In Israels Krieg gegen Gaza errechnet Künstliche Intelligenz die Ziele. Die Folge: ein nur vermeintlich präziser Massenmord. Interview mit Sebastian Ben-Daniel

medico: Im laufenden Krieg gegen Gaza werden die Ziele israelischer Angriffe durch Künstliche Intelligenz errechnet. Wie funktioniert der Einsatz von solchen KI-Systemen und seit wann werden sie eingesetzt? 

Sebastian Ben-Daniel: Angefangen hat es mit dem palästinensischen Aufstand im Jahr 2016, der auch als Messer- oder Lone-Wolf-Intifada bekannt ist. Damals ging es darum, potenzielle Einzeltäter in den besetzten Gebieten zu identifizieren, schon bevor sie einen Anschlag verüben. Wenn Sie den 2002 erschienenen Film „Minority Report“ gesehen haben, können Sie sich diese Praxis vielleicht besser vorstellen. Im Grunde war das Ganze ein Versuch, durch das Screening von sozialen Medien und anderen Datenbanken vorhersagende Polizeiarbeit mit KI zu ermöglichen – und zwar im Kontext der Besatzung. 

Wie wurde man durch das Programm zum Verdächtigen? 

Zum Beispiel: Wenn jemand religiöse Posts schrieb. Oder wenn die Stimmung in den Posts überwiegend aggressiv oder traurig war. Oder sogar, wenn jemand sich die Haare schneiden ließ. Es wurde vermutet, man wolle sich besonders anständig in seinem letzten Bild präsentieren. 

Anhand dessen wurde damals eine Liste von Tausenden Jugendlichen zusammengestellt, die als verdächtig galten und daraufhin verhaftet wurden... 

Man konnte diese Jugendlichen eigentlich nicht wegen solcher Merkmale anklagen. Stattdessen wurden mehrere von ihnen ohne Verfahren in Administrativhaft gesteckt oder wegen „Aufwiegelung“ angeklagt. Es reichte, etwas gegen die Besatzungsmacht zu schreiben und zu Protest aufzurufen. Eine Demonstration im Westjordanland ist ja immer illegal. Das Militär glaubte, dass jemand, den man für drei, vier Monate einsperrt, „abkühlt“ und nicht mehr gefährlich ist. 

Waren diese KI-Programme erfolgreich? 

So wurde es zumindest in Militärkreisen dargestellt. Ein Offizier sagte damals, sie wüssten, dass irgendein Teenager ein Terrorist wird, bevor er selbst das weiß. Tatsächlich gab es keinen einzigen Fall, in dem ein Identifizierter tatsächlich mit einem Messer in der Hand gefasst wurde. 

Aber das Militär hatte ein Instrument, das zu Tausenden Festnahmen und Razzien führte. Im Grunde war es eine großangelegte Einschüchterungskampagne gegen die Zivilbevölkerung, die aber als im Einzelfall begründet und extrem gezielt galt. 

Genau. Es wurden plötzlich zahlreiche Ziele ausgemacht. Ob diese Ziele im polizeilichen Sinne relevant waren, ist fraglich. Und damit kommen wir zu Gaza. Eine große Schwierigkeit für das Militär während des Angriffs im Jahr 2014 bei der „Operation Protective Edge“ war, dass die sogenannte „Ziele-Bank“, also eine durch große Teams erstellte Liste von militärischen Zielen, sehr schnell erschöpft war. Sie enthielt 400 bis 500 Ziele und war nach wenigen Tagen zum Großteil abgearbeitet. Dann wussten sie nicht, was sie, rein militärisch, tun sollten. Also brauchten sie ein System, das das automatisch erledigt. Denn der Mensch in der Schleife war viel zu langsam. Aufgrund dieser Erfahrung wurde ein KI-System entwickelt, das bereits 2021 während des Angriffs auf den Gazastreifen zum Einsatz kam. Es sollte palästinensische Kämpfer anhand zahlreicher Kriterien identifizieren – von Handy-Nutzung, die als verdächtig galt, bis hin zu einem Umzug in eine neue Wohnung – und ihren möglichen Anwesenheitsort für einen Angriff herausfinden. 

2021 waren die zivilen Opferzahlen noch vergleichsweise gering. 

Damals setzten sie das System noch nicht in dem Ausmaß ein wie heute. Es war strenger reguliert. Jeder Zielvorschlag des Systems wurde von einem Menschen überprüft. Zudem war die Zahl der sogenannten „akzeptablen Kollateralschäden“ viel niedriger. Es handelte sich also noch um ein Experiment. Mit dem Ergebnis war man aber sehr zufrieden, weil das System plötzlich einen Überschuss von „Zielen“ produzierte. 

Meint der ehemalige Generalstabschef Aviv Kochavi das, als er 2022 erklärte, „die Industrialisierung der präzisen Vernichtung“ solle zum leitenden Prinzip der kommenden Auseinandersetzungen werden? 

Es gab eine deutliche Tendenz, die Wirksamkeit solcher KI-Programme zu überschätzen. Sie arbeiten viel mehr quantitativ als qualitativ und sind beispielsweise nicht dafür geeignet, Personen aus der Hamas-Führung zu identifizieren. Dafür gibt es immer noch menschliche Teams. Aber sie erlaubten, unter dem Anschein militärischer Logik viel mehr und viel schneller anzugreifen. Was seit Oktober 2023 erfolgte, war – das kann man auch in den Artikeln von Yuval Abraham im +972 Magazine nachlesen – die fast komplette Automatisierung dieser Systeme. Eine Kontrolle durch Menschen war de facto abgeschafft, es gab nun keine ernstzunehmenden Sicherungen mehr und eine viel höhere Zahl von sogenannten erlaubten Kollateralschäden. 

Offizielle israelische Quellen sprechen immer wieder von gezielten Schlägen und der militärischen Notwendigkeit ihrer Aktionen im Gazastreifen. Wie lässt sich das angesichts der vollständigen Zerstörung und der enormen Zahl ziviler Opfer erklären? 

Wenn man sich Gaza heute anschaut, kann man sich quasi rückwärts erschließen, was die Verantwortlichen der Zerstörung gedacht haben. In einer jüngst veröffentlichten Aufnahme sagt der damalige Chef des Direktorats für militärische Aufklärung (Aman) Aharon Haliva: „Für jeden, der am 7. Oktober getötet wurde, mussten 50 Palästinenser sterben. Es spielt jetzt keine Rolle, ob es Kinder sind. (...) Es gibt dazu keine Alternative“. Wenn 50.000 Tote das eigentliche Ziel war, war der Einsatz von KI-Programmen unerlässlich. 

Das verstehe ich nicht genau… 

Die meisten Todesopfer in Gaza resultieren aus Luftangriffen auf Menschen, die vom KI-System verdächtigt wurden, untergeordnete Hamas-Aktivisten zu sein. Ihre militärische Bedeutung ist gering, aber es sind viele. Und wenn der „Kollateralschaden“ – also Kinder, Nachbarn und Familien dieser Aktivisten – groß genug skaliert ist, wird das Ziel von 50.000 palästinensischen Opfern erreicht. Algorithmen waren also nicht die Ursache, sondern das Werkzeug. Sie generierten eine exponentielle Zahl neuer Ziele und ermöglichten einen Tötungsmaßstab, den Menschen allein nicht hätten umsetzen können. Die IDF argumentiert, dass jedes Ziel überprüft wurde. Aber die Geschwindigkeit war so hoch, dass diese Überprüfung nur noch ein Alibi gewesen sein kann. 

Warum braucht man diese Technologie, wenn das Ziel ohnehin das Töten ist? Warum nicht einfach wahllos Bomben werfen? 

Das ist der entscheidende Punkt: Die KI gab dieser Tötungsmaschine den Anschein von Legalität und Zielgenauigkeit. Auch im Oktober 2023 konnten die IDF-Kommandeure – wie in vielen historischen Fällen von Genozid – keinen Befehl zur wahllosen Tötung erteilen. Das wäre barbarisch. Sie mussten stattdessen politische Zustimmung generieren. Ganz zentral ist es auch, den Einsätzen bei den ausführenden Soldaten Legitimität zu verschaffen. Bei den Piloten ebenso wie bei den Zielanalysten der Einheit 8200, die aus eher liberalen Milieus stammen, musste man sicherstellen, dass sie diesen Massenmord ausführen. Dabei musste man sie von mindestens zwei Dingen überzeugen: Zum einen, dass es keine Alternative gibt. Die massive Bombardierung sei kein Ausdruck mörderischer Ideologie, sondern „faktenbasiert“ – mit dem Vorteil, dass das System angeblich schneller und besser analysiere als jeder Mensch. Zum anderen, dass alles legal ist. So galten die Angriffe, abgesegnet durch die Rechtsabteilung des Militärs, als „verhältnismäßig“, weil der Kollateralschaden – abgesehen von einigen Fällen mit Hunderten Toten bei hochrangigen Zielen – als gering betrachtet wurde gemessen an einer angeblich nahezu unbegrenzten Bedrohung. Denn alle, die mit der Hamas zu tun hätten, müssten liquidiert werden. 

Es gab aber Bilder aus Gaza, auch wenn die israelischen Medien sie nicht gezeigt haben. Hat man die Konsequenzen dieser Aktionen nicht gesehen und verstanden? 

Man muss die Rolle von Militärpropaganda in diesem Krieg verstehen. Es gibt Einheiten und vorgeschobene Organisationen außerhalb des Militärs, deren einzige Aufgabe es ist, Informationen aus Gaza infrage zu stellen – ähnlich wie die Tabakindustrie Zweifel an der Schädlichkeit des Rauchens gesät hat. Man muss keine echten Zahlen liefern. Es reicht, zu behaupten, dass es keine verlässlichen Infos gibt. Wenn die Palästinenser etwas sagen, heißt es sofort: Sie lügen, manipulieren oder übertreiben. Es gibt auch eine aktive Unterdrückung des eigenen Denkens. Viele im Sicherheitsapparat sprechen weiterhin vom Krieg und von Kampfstrategien, ohne das tatsächliche Geschehen – die komplette Zerstörung des Gazastreifens – als Resultat des Krieges wahrzunehmen. 

Das ist kaum zu glauben – zumal die Siedlerbewegung und ihre Vertreter die Zerstörungen als messianische Errungenschaft feiern. 

Ja, im israelischen Diskurs gilt mittlerweile das Militär als „links“. Generäle distanzieren sich von rechtsextremen Genozid-Aufrufen, Piloten von den Gräueltaten einiger Bodeneinheiten mit vielen Siedlern. Dabei wird deren Vision genau von solchen „Liberalen“ mit juristisch abgesegneten KI-Programmen umgesetzt. 

Wenn man über das Verbrechen des Genozids spricht, geht es sehr oft um die Frage einer „Absicht“. Sicherlich wurden viele Entscheidungen in den ersten Monaten von Rachegelüsten beeinflusst – aber reicht das? 

Ich glaube nicht, dass es einen detaillierten Masterplan gab, der von Anfang an vorsah, einen Genozid zu begehen. Es gab keine Geheimtreffen dazu.. Es geschah aber trotzdem, und zwar schrittweise. Vor allem, weil die Welt nichts dagegen unternommen hat. Dieser Freifahrtschein hat auch die Israelis überrascht. Als vor einem Jahr Rafah überfallen werden sollte, zeigten sich Europa und die USA sehr besorgt. Aber als die Offensive begann und die Stadt am Ende ausgelöscht war, passierte nichts. Da wird die Regierung gedacht haben: Wenn das geht, können wir so weitermachen. Angesichts der KI-Programme, die im Minutentakt neue Angriffsziele ausgespuckt haben, war auch die sogenannte Ziele-Bank nie erschöpft. In dieser Hinsicht trug die Künstliche Intelligenz dazu bei, den Krieg ewig zu verlängern. 

Das Gespräch führte Yossi Bartal. 

Dieser Beitrag erschien zuerst im medico rundschreiben 03/2025. Das Rundschreiben schicken wir Ihnen gerne kostenlos zu. Jetzt abonnieren!


Jetzt spenden!