Veröffentlicht in Palästina فلسطين

„Lavender“: Die KI-Maschine, die Israels Bombenangriffe in Gaza steuert

Die israelische Armee hat Zehntausende von Menschen im Gazastreifen als verdächtig eingestuft und mithilfe eines KI-Zielsystems, mit wenig menschlicher Aufsicht und einer nachlässigen Opferpolitik getötet, wie das +972 Magazin und Local Call berichten.

Autor: Yuval Abraham 03.04.2024

Aus dem Englischen ins Deutsche Übersetzt

Im Jahr 2021 wurde ein Buch mit dem Titel „The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World“ auf Englisch unter dem Pseudonym „Brigadier General Y.S.“ veröffentlicht. Darin plädiert der Autor – ein Mann, bei dem es sich nachweislich um den derzeitigen Kommandeur der israelischen Eliteeinheit 8200 handelt – für die Entwicklung einer speziellen Maschine, die in kürzester Zeit riesige Datenmengen verarbeiten könnte, um Tausende potenzieller „Ziele“ für militärische Angriffe in der Hitze eines Krieges zu generieren. Eine solche Technologie, so schreibt er, würde den „menschlichen Engpass sowohl bei der Lokalisierung der neuen Ziele als auch bei der Entscheidungsfindung zur Genehmigung der Ziele“ beseitigen, wie er es nennt.

Wie sich herausstellt, gibt es eine solche Maschine tatsächlich. Eine neue Untersuchung des Magazins +972 und Local Call zeigt, dass die israelische Armee ein auf künstlicher Intelligenz basierendes Programm mit dem Namen „Lavender“ entwickelt hat, das hier zum ersten Mal vorgestellt wird. Laut sechs israelischen Geheimdienstoffizieren, die alle während des aktuellen Krieges gegen den Gazastreifen in der Armee gedient haben und aus erster Hand mit dem Einsatz von KI zur Generierung von Tötungszielen zu tun hatten, hat Lavender eine zentrale Rolle bei den beispiellosen Bombardierungen von Palästinensern gespielt, insbesondere in der Anfangsphase des Krieges. Den Quellen zufolge war der Einfluss von Lavender auf die Operationen des Militärs so groß, dass sie die Ergebnisse der KI-Maschine im Wesentlichen so behandelten, „als wären sie eine menschliche Entscheidung“.

Formal ist das Lavender-System so konzipiert, dass es alle Verdachtsfälle kennzeichnet.

In der Anfangsphase des Krieges erteilte die Armee den Offizieren pauschal die Genehmigung, Lavenders Tötungslisten zu übernehmen, ohne gründlich zu prüfen, warum die Maschine diese Entscheidungen traf, oder die nachrichtendienstlichen Rohdaten zu untersuchen, auf denen sie beruhten. Eine Quelle gab an, dass menschliches Personal oft nur als „Stempel“ für die Entscheidungen der Maschine diente, und fügte hinzu, dass sie sich normalerweise nur etwa „20 Sekunden“ mit jedem Ziel befassten, bevor sie einen Bombenangriff genehmigten – nur um sicherzustellen, dass das von Lavender markierte Ziel männlich ist. Und das, obwohl sie wissen, dass das System in etwa 10 Prozent der Fälle „Fehler“ macht und dafür bekannt ist, dass es gelegentlich Personen markiert, die nur eine lockere Verbindung zu militanten Gruppen oder gar keine Verbindung haben.

Darüber hinaus griff die israelische Armee die Zielpersonen systematisch an, wenn sie sich in ihren Häusern aufhielten – in der Regel nachts, wenn ihre gesamte Familie anwesend war – und nicht während einer militärischen Aktivität. Den Quellen zufolge lag dies daran, dass es aus nachrichtendienstlicher Sicht einfacher war, die Personen in ihren Privathäusern aufzuspüren. Zusätzliche automatisierte Systeme, darunter ein System mit dem Namen „Where’s Daddy?“, das hier zum ersten Mal enthüllt wird, wurden gezielt eingesetzt, um die Zielpersonen aufzuspüren und Bombenanschläge zu verüben, wenn sie die Wohnhäuser ihrer Familien betreten hatten.

Palästinenser transportieren Verwundete und versuchen, ein Feuer nach einem israelischen Luftangriff auf ein Haus im Flüchtlingslager Shaboura in der Stadt Rafah im südlichen Gazastreifen zu löschen, 17. November 2023. (Abed Rahim Khatib/Flash90

Das Ergebnis ist, wie die Quellen bezeugen, dass Tausende von Palästinensern – die meisten von ihnen Frauen und Kinder oder Menschen, die nicht an den Kämpfen beteiligt waren – durch israelische Luftangriffe getötet wurden, insbesondere in den ersten Wochen des Krieges, aufgrund der Entscheidungen des AI-Programms.

„Wir waren nicht daran interessiert, [Hamas]-Aktivisten nur dann zu töten, wenn sie sich in einem militärischen Gebäude aufhielten oder an einer militärischen Aktivität beteiligt waren“, sagte A., ein Nachrichtenoffizier, gegenüber +972 und Local Call. „Im Gegenteil, sie wurden von der israelischen Armee ohne zu zögern, als erste Option, in ihren Wohnungen bombardiert. Es ist viel einfacher, das Haus einer Familie zu bombardieren. Das System ist darauf ausgelegt, in solchen Situationen nach ihnen zu suchen“.

Die Lavender-Maschine gesellt sich zu einem anderen KI-System, „The Gospel“, über das in einer früheren Untersuchung von +972 und Local Call im November 2023 sowie in eigenen Veröffentlichungen des israelischen Militärs Informationen enthüllt wurden. Ein grundlegender Unterschied zwischen den beiden Systemen liegt in der Definition des Ziels: Während „The Gospel“ Gebäude und Strukturen markiert, die laut der israelischen Armee von Militanten Palästinenser genutzt werden, markiert „Lavender“ Menschen – und setzt sie auf eine Tötungsliste.

Den Quellen zufolge zog es die Armee außerdem vor, bei Angriffen auf mutmaßliche militante Jugendliche, die von Lavender markiert wurden, nur ungelenkte Raketen zu verwenden, die gemeinhin als „dumme“ Bomben bekannt sind (im Gegensatz zu „intelligenten“ Präzisionsbomben), die ganze Gebäude mitsamt ihren Bewohnern zerstören und erhebliche Verluste verursachen können. „Man will keine teuren Bomben an unwichtige Leute verschwenden – das ist sehr teuer für das Land und es gibt einen Mangel [an diesen Bomben]“, sagte C., einer der Geheimdienstler. Eine andere Quelle sagte, dass sie persönlich die Bombardierung von „Hunderten“ von Privathäusern mutmaßlicher Junior-Agenten, die von Lavender markiert wurden, genehmigt hätten, wobei bei vielen dieser Angriffe Zivilisten und ganze Familien als „Kollateralschaden“ getötet wurden.

In einem noch nie dagewesenen Schritt, so zwei der Quellen, habe die Armee in den ersten Wochen des Krieges beschlossen, dass es zulässig sei, für jeden von Lavender markierten Hamas-Aktivisten bis zu 15 oder 20 Zivilisten zu töten; in der Vergangenheit habe das Militär keine „Kollateralschäden“ bei der Ermordung von Kämpfern niedrigen Ranges zugelassen. Die Quellen fügten hinzu, dass die Armee für den Fall, dass es sich bei dem Ziel um einen hochrangigen Hamas-Funktionär im Rang eines Bataillons- oder Brigadekommandeurs handelte, bei mehreren Gelegenheiten die Tötung von mehr als 100 Zivilisten bei der Liquidierung eines einzigen Kommandeurs genehmigte.

Palästinenser stehen im Al-Najjar-Krankenhaus in Rafah im südlichen Gazastreifen vor den Leichen ihrer Angehörigen, die bei einem israelischen Luftangriff getötet wurden, 24. Oktober 2023. (Abed Rahim Khatib/Flash90)

Die folgende Untersuchung ist nach den sechs chronologischen Phasen der hochautomatisierten Zielproduktion der israelischen Armee in den ersten Wochen des Gaza-Krieges gegliedert. Zunächst erläutern wir die Lavender-Maschine selbst, die mithilfe von KI Zehntausende von Palästinensern markierte. Zweitens enthüllen wir das „Where’s Daddy?“-System, das diese Zielpersonen aufspürte und der Armee signalisierte, wenn sie die Häuser ihrer Familien betraten. Drittens beschreiben wir, wie die „stummen“ Bomben ausgewählt wurden, um diese Häuser zu treffen.

Viertens erklären wir, wie die Armee die zulässige Anzahl von Zivilisten, die bei der Bombardierung eines Ziels getötet werden durften, auflockerte und erhöhte. Fünftens stellen wir fest, wie eine automatische Software die Anzahl der Nichtkombattanten in den einzelnen Haushalten ungenau berechnet hat. Und sechstens zeigen wir, wie bei mehreren Gelegenheiten, wenn ein Haus angegriffen wurde, in der Regel nachts, das individuelle Ziel manchmal gar nicht im Haus war, weil die Militärs die Informationen nicht in Echtzeit überprüften.

SCHRITT 1: ERZEUGUNG VON ZIELEN
Sobald man auf Automatik umschaltet, wird die Zielgenerierung verrückt“.
In der israelischen Armee bezog sich der Begriff „menschliche Zielperson“ in der Vergangenheit auf einen hochrangigen Militärangehörigen, der nach den Regeln der Abteilung für internationales Recht des Militärs in seinem Privathaus getötet werden kann, auch wenn Zivilisten in der Nähe sind. Nachrichtendienstliche Quellen erklärten gegenüber +972 und Local Call, dass in früheren Kriegen Israels solche menschlichen Ziele sehr sorgfältig gekennzeichnet wurden, da dies eine „besonders brutale“ Art war, jemanden zu töten – oft wurde neben dem Ziel auch eine ganze Familie getötet – wobei angeblich hochrangige militärische Befehlshaber in ihren Häusern bombardiert wurden, um den Grundsatz der Verhältnismäßigkeit nach internationalem Recht zu wahren.

Doch nach dem 7. Oktober – als von der Hamas angeführte Militante einen tödlichen Angriff auf südisraelische Gemeinden starteten, bei dem rund 1.200 Menschen getötet und 240 entführt wurden – verfolgte die Armee den Quellen zufolge einen dramatisch anderen Ansatz. Im Rahmen der „Operation Eiserne Schwerter“ beschloss die Armee, alle Aktivisten des militärischen Flügels der Hamas als menschliche Ziele zu bezeichnen, unabhängig von ihrem Rang oder ihrer militärischen Bedeutung. Und das änderte alles.

Die neue Politik stellte den israelischen Geheimdienst auch vor ein technisches Problem. In früheren Kriegen musste ein Offizier, um die Ermordung einer einzelnen Zielperson zu genehmigen, einen komplexen und langwierigen „Belastungsprozess“ durchlaufen: Er musste Beweise dafür überprüfen, dass es sich bei der Person tatsächlich um ein hochrangiges Mitglied des militärischen Flügels der Hamas handelte, seinen Wohnort und seine Kontaktinformationen herausfinden und schließlich wissen, wann er in Echtzeit zu Hause war. Wenn die Liste der Zielpersonen nur ein paar Dutzend hochrangige Agenten umfasste, konnten die Geheimdienstmitarbeiter die Arbeit, die mit der Ermittlung und Lokalisierung dieser Personen verbunden war, allein bewältigen.

Palästinenser versuchen, Überlebende zu retten und Leichen aus den Trümmern zu ziehen, nachdem israelische Luftangriffe Gebäude in der Nähe des Al-Aqsa-Märtyrer-Krankenhauses in Deir al-Balah, im Zentrum des Gazastreifens, getroffen haben, 22. Oktober 2023. (Mohammed Zaanoun/Activestills)

Als die Liste jedoch auf Zehntausende von Mitarbeitern niedrigerer Ränge erweitert wurde, sah sich die israelische Armee gezwungen, sich auf automatisierte Software und künstliche Intelligenz zu verlassen. Das Ergebnis, so die Quellen, war, dass die Rolle des menschlichen Personals bei der Inkriminierung von Palästinensern als Militärangehörige beiseite geschoben wurde und stattdessen die KI den Großteil der Arbeit erledigte. Laut vier der Quellen, die mit +972 und Local Call sprachen, hat Lavender – das entwickelt wurde, um menschliche Ziele im aktuellen Krieg zu schaffen – etwa 37.000 Palästinenser als mutmaßliche „Hamas-Kämpfer“, die meisten von ihnen Jugendliche, zur Ermordung markiert (der Sprecher der israelischen Streitkräfte bestritt die Existenz einer solchen Tötungsliste in einer Erklärung gegenüber +972 und Local Call).

„Wir wussten nicht, wer die Junior-Agenten waren, weil Israel sie [vor dem Krieg] nicht routinemäßig verfolgt hat“, erklärte der ranghohe Offizier B. gegenüber +972 und Local Call und erläuterte damit den Grund für die Entwicklung dieser besonderen Zielmaschine für den aktuellen Krieg. „Sie wollten, dass wir [die Nachwuchsagenten] automatisch angreifen können. Das ist der Heilige Gral. Sobald man auf Automatik umstellt, wird die Zielerstellung verrückt.“

Unsere Informationsquellen sagten, dass die Genehmigung zur automatischen Übernahme der Tötungslisten von Lavender, die zuvor nur als Hilfsmittel eingesetzt worden waren, etwa zwei Wochen nach Kriegsbeginn erteilt wurde, nachdem Mitarbeiter des Nachrichtendienstes die Genauigkeit einer Stichprobe von mehreren hundert vom KI-System ausgewählten Zielen „manuell“ überprüft hatten. Als diese Stichprobe ergab, dass die Ergebnisse von Lavender eine Genauigkeit von 90 Prozent bei der Identifizierung der Zugehörigkeit einer Person zur Hamas erreicht hatten, genehmigte die Armee den umfassenden Einsatz des Systems. Wenn Lavender eine Person als Hamas-Aktivist einstufte, wurde die Armee aufgefordert, dies als Befehl zu behandeln, ohne unabhängig zu prüfen, warum die Maschine diese Entscheidung traf, oder die nachrichtendienstlichen Rohdaten zu untersuchen, auf denen sie basiert.

„Um 5 Uhr morgens kam [die Luftwaffe] und bombardierte alle Häuser, die wir markiert hatten“, sagte B.. „Wir haben Tausende von Menschen ausgeschaltet. Wir sind sie nicht einzeln durchgegangen – wir haben alles in automatische Systeme eingegeben, und sobald eine [der markierten Personen] zu Hause war, wurde sie sofort zum Ziel. Wir haben ihn und sein Haus bombardiert.“

„Es war für mich sehr überraschend, dass wir gebeten wurden, ein Haus zu bombardieren, um einen einfachen Kämpfer zu töten, dessen Bedeutung in den Kämpfen so gering war“, sagte eine Informationsquelle über den Einsatz von künstlicher Intelligenz zur Markierung mutmaßlich rangniedriger Kämpfer. „Ich nannte diese Ziele ‚Müllziele‘. Dennoch fand ich sie ethischer als die Ziele, die wir nur zur ‚Abschreckung‘ bombardierten – Hochhäuser, die evakuiert und umgestürzt werden, nur um Zerstörung zu verursachen.“

Die tödlichen Folgen dieser Lockerung der Beschränkungen in der Anfangsphase des Krieges waren erschütternd. Nach Angaben des palästinensischen Gesundheitsministeriums in Gaza, auf die sich die israelische Armee seit Beginn des Krieges fast ausschließlich stützt, tötete Israel in den ersten sechs Wochen des Krieges bis zur Vereinbarung eines einwöchigen Waffenstillstands am 24. November rund 15.000 Palästinenser – fast die Hälfte der bisherigen Todesopfer.

Massive Zerstörung im dichtbesiedelten Viertel Al-Rimal in Gaza-Stadt nach Luftangriffen der israelischen Kolonialmacht, 10. Oktober 2023. (Mohammed Zaanoun)

Je mehr Informationen und Vielfalt, desto besser
Die Lavender-Software analysiert die Informationen, die über die meisten der 2,3 Millionen Einwohner des Gazastreifens durch ein System der Massenüberwachung gesammelt wurden, bewertet diese und stuft dann die Wahrscheinlichkeit ein, dass jede einzelne Person im militärischen Flügel der Hamas oder des PIJ (Palästinensische Islamische Jihad) aktiv ist. Quellen zufolge bewertet die Maschine fast jede einzelne Person im Gazastreifen auf einer Skala von 1 bis 100 und gibt damit an, wie wahrscheinlich es ist, dass es sich um einen Kämpfer handelt.

Lavender lernt, Merkmale bekannter Hamas- und PIJ-Aktivisten zu erkennen, deren Informationen als Trainingsdaten in die Maschine eingespeist wurden, und dann dieselben Merkmale – auch „Features“ genannt – in der allgemeinen Bevölkerung zu lokalisieren, erklärten die Informationsquelle. Eine Person, die mehrere verschiedene belastende Merkmale aufweist, erreicht eine hohe Bewertung und wird damit automatisch zu einem potenziellen Ziel für ein Attentat.

In „The Human-Machine Team“, dem Buch, auf das zu Beginn dieses Artikels verwiesen wird, befürwortet der derzeitige Kommandant der Einheit 8200 ein solches System, ohne Lavender namentlich zu erwähnen. (Der Kommandant selbst wird ebenfalls nicht genannt, aber fünf Quellen in der Einheit 8200 haben bestätigt, dass der Kommandant der Autor ist, wie auch Haaretz berichtet). Der Autor und Kommandeur beschreibt das menschliche Personal als „Engpass“, der die Kapazität der Armee während einer Militäroperation einschränkt, und beklagt sich: „Wir [Menschen] können nicht so viele Informationen verarbeiten. Es spielt keine Rolle, wie viele Leute man damit beauftragt, während des Krieges Ziele zu erfassen – man kann immer noch nicht genug Ziele pro Tag erfassen.“

Die Lösung für dieses Problem, sagt er, ist künstliche Intelligenz. Das Buch bietet eine kurze Anleitung zum Bau einer „Zielmaschine“, ähnlich wie Lavender, die auf KI und Algorithmen des maschinellen Lernens basiert. Dieser Leitfaden enthält mehrere Beispiele für die „Hunderte und Tausende“ von Merkmalen, die das Rating einer Person erhöhen können, z. B. die Mitgliedschaft in einer Whatsapp-Gruppe mit einem bekannten Militanten, der Wechsel des Mobiltelefons alle paar Monate und der häufige Adresswechsel.

„Je mehr Informationen und je mehr Vielfalt, desto besser“, schreibt der Kommandant. „Visuelle Informationen, Informationen über Handys, Verbindungen zu sozialen Medien, Informationen über das Schlachtfeld, Telefonkontakte, Fotos.“ Während der Mensch diese Merkmale anfangs auswählt, so der Kommandeur weiter, wird die Maschine mit der Zeit selbständig Merkmale identifizieren. Auf diese Weise könnten die Streitkräfte „Zehntausende von Zielen“ erstellen, während die eigentliche Entscheidung, ob sie angegriffen werden sollen oder nicht, weiterhin von Menschen getroffen wird.

Es ist nicht das einzige Mal, dass ein hochrangiger israelischer Kommandeur die Existenz von menschlichen Zielmaschinen wie Lavender andeutet. +972 und Local Call haben Aufnahmen einer privaten Vorlesung des Kommandanten des geheimen Zentrums für Datenwissenschaft und KI der Einheit 8200, „Oberst Yoav“, auf der KI-Woche der Universität Tel Aviv im Jahr 2023 erhalten, über die damals in den israelischen Medien berichtet wurde.

In dem Vortrag spricht der Kommandeur über eine neue, hoch entwickelte Zielmaschine, die von der israelischen Armee eingesetzt wird und „gefährliche Personen“ anhand ihrer Ähnlichkeit mit bestehenden Listen bekannter Militanter erkennt, auf die sie trainiert wurde. „Mithilfe des Systems ist es uns gelungen, die Befehlshaber der Hamas-Raketenkommandos zu identifizieren“, sagte Oberst Yoav in dem Vortrag und bezog sich dabei auf Israels Militäroperation im Mai 2021 im Gazastreifen, bei der die Maschine zum ersten Mal eingesetzt wurde.

Einer der Folien eines Vortrags des Kommandanten des Zentrums für Datenwissenschaft und KI der Einheit 8200 der israelischen Streitkräfte an der Universität Tel Aviv im Jahr 2023, erhalten von +972 und Local Call.

Eine weitere Folien eines Vortrags des Kommandanten des Zentrums für Datenwissenschaft und KI der Einheit 8200 der israelischen Streitkräfte an der Universität Tel Aviv im Jahr 2023, erhalten von +972 und Local Call.

Die Vortragsfolien, die auch von +972 und Local Call zur Verfügung gestellt wurden, zeigen, wie die Maschine funktioniert: Sie wird mit Daten über bestehende Hamas-Aktivisten gefüttert, lernt, deren Merkmale zu erkennen, und bewertet dann andere Palästinenser danach, wie ähnlich sie den Kämpfern sind.

Wir ordnen die Ergebnisse ein und bestimmen die Schwelle [für einen Angriff auf ein Ziel]“, sagte Oberst Yoav in der Vorlesung und betonte, dass „letztendlich Menschen aus Fleisch und Blut die Entscheidungen treffen“. Im Verteidigungsbereich legen wir, ethisch gesehen, großen Wert darauf. Diese Instrumente sollen [Geheimdienstmitarbeitern] helfen, ihre Schranken zu überwinden“.

In der Praxis, so Quellen, die Lavender in den letzten Monaten eingesetzt haben, wurden jedoch menschliches Handeln und Präzision durch die Schaffung von Massenzielen und Tödlichkeit ersetzt.

Es gab keine „Null-Fehler-Politik“.
B., ein ranghoher Offizier, der Lavender eingesetzt hat, erklärte gegenüber +972 und Local Call, dass die Offiziere im aktuellen Krieg nicht verpflichtet waren, die Einschätzungen des KI-Systems unabhängig zu überprüfen, um Zeit zu sparen und die Massenproduktion menschlicher Ziele ohne Hindernisse zu ermöglichen.

„Alles war statistisch, alles war sauber – es war sehr trocken“, sagte B.. Er merkte an, dass dieser Mangel an Überwachung zugelassen wurde, obwohl interne Überprüfungen zeigten, dass Lavenders Berechnungen nur in 90 Prozent der Fälle korrekt waren; mit anderen Worten, es war im Voraus bekannt, dass 10 Prozent der menschlichen Ziele, die für die Ermordung vorgesehen waren, gar keine Mitglieder des militärischen Flügels der Hamas waren.

So erklärten Quellen, dass die Lavender-Maschine manchmal fälschlicherweise Personen markierte, die ähnliche Kommunikationsmuster wie bekannte Hamas- oder PIJ-Aktivisten aufwiesen – darunter Mitarbeiter der Polizei und des Zivilschutzes, Verwandte von Kämpfern, Einwohner, die zufällig einen Namen und Spitznamen hatten, der mit dem eines Aktivisten identisch war, und Bewohner des Gazastreifens, die ein Gerät benutzten, das einst einem Hamas-Aktivisten gehörte.

„Wie nahe muss eine Person der Hamas stehen, damit sie [von einer KI-Maschine] als mit der Organisation verbunden angesehen wird“, kritisierte eine Quelle die Ungenauigkeit von Lavender. „Es ist eine vage Grenze. Ist eine Person, die kein Gehalt von der Hamas erhält, ihr aber bei allen möglichen Dingen hilft, ein Hamas-Agent? Ist jemand, der in der Vergangenheit in der Hamas war, aber heute nicht mehr dort ist, ein Hamas-Aktivist? Jedes dieser Merkmale – Eigenschaften, die eine Maschine als verdächtig einstufen würde – ist ungenau.“

Ein verletzter Palästinenser am Ort eines israelischen Luftangriffs in Rafah, im südlichen Gazastreifen, umgeben von Helfern 24. Februar 2024. (Abed Rahim Khatib/Flash90)

Ähnliche Probleme gibt es bei der Fähigkeit der Zielgeräte, das Telefon einer zur Ermordung vorgesehenen Person zu ermitteln. „Im Krieg wechseln die Palästinenser ständig ihre Telefone“, sagte die Quelle. „Die Leute verlieren den Kontakt zu ihren Familien, geben ihr Telefon an einen Freund oder eine Frau weiter und verlieren es vielleicht. Es gibt keine Möglichkeit, sich zu 100 Prozent auf den automatischen Mechanismus zu verlassen, der bestimmt, welche [Telefon-]Nummer zu wem gehört.“

Den Quellen zufolge wusste die Armee, dass die minimale menschliche Überwachung diese Fehler nicht aufdecken würde. „Es gab keine ‚Null-Fehler‘-Politik. Fehler wurden statistisch behandelt“, sagte eine der Informanten, die Lavender benutzten. „Aufgrund des Umfangs und der Größenordnung lautete das Protokoll: Selbst wenn man nicht sicher weiß, dass die Maschine richtig ist, weiß man, dass sie statistisch gesehen in Ordnung ist. Also macht man es.“

„Es hat sich bewährt“, sagte B., die führende Quelle. „Der statistische Ansatz hat etwas an sich, das einen auf eine bestimmte Norm und einen bestimmten Standard festlegt. Es gab eine unfassbare Anzahl von [Bombenanschlägen] in dieser Operation. Das ist meiner Erinnerung nach beispiellos. Und ich habe viel mehr Vertrauen in einen statistischen Mechanismus als ein Soldat, der vor zwei Tagen einen Freund verloren hat. Jeder dort, auch ich, hat am 7. Oktober Menschen verloren. Die Maschine hat es eiskalt gemacht. Und das machte es einfacher.“

Eine andere Geheimdienstquelle, die das Vertrauen in die von Lavender erstellten Tötungslisten palästinensischer Verdächtiger verteidigte, argumentierte, dass es sich nur dann lohne, die Zeit eines Geheimdienstmitarbeiters zu investieren, um die Informationen zu überprüfen, wenn es sich bei der Zielperson um einen hochrangigen Hamas-Kommandeur handele. „Wenn es sich aber um einen Junior-Kämpfer handelt, will man weder Personal noch Zeit dafür investieren“, sagte er. „Im Krieg hat man keine Zeit, jedes Ziel zu untersuchen. Also ist man bereit, die Fehlermarge beim Einsatz künstlicher Intelligenz in Kauf zu nehmen, Kollateralschäden und den Tod von Zivilisten zu riskieren und damit zu leben, dass man aus Versehen angreift.“

B. sagte, der Grund für diese Automatisierung sei ein ständiger Druck, mehr Ziele für Attentate zu generieren. „An einem Tag, an dem es keine Ziele gab [deren Merkmalseinstufung ausreichte, um einen Angriff zu genehmigen], griffen wir mit einer niedrigeren Schwelle an. Wir wurden ständig unter Druck gesetzt: ‚Bringt uns mehr Ziele‘. Sie schrien uns regelrecht an. Wir haben unsere Ziele sehr schnell erledigt“.

Er erläuterte, dass Lavender bei einer Herabsetzung der Bewertungsschwelle mehr Personen als Ziele für Angriffe markierte. „In der Spitze konnte das System 37.000 Personen als potenzielle menschliche Ziele identifizieren“, sagte B. „Aber die Zahlen änderten sich ständig, denn es hängt davon ab, wo man die Messlatte für einen Hamas-Aktivisten ansetzt. Es gab Zeiten, in denen ein Hamas-Aktivist breiter definiert wurde, und dann begann die Maschine, uns alle Arten von Mitarbeitern des Zivilschutzes und Polizeibeamten zu liefern, für die es eine Schande wäre, Bomben zu verschwenden. Sie helfen der Hamas-Regierung, aber sie gefährden die Soldaten nicht wirklich.“

Palästinenser vor einem durch einen israelischen Luftangriff zerstörten Gebäude in Rafah, im südlichen Gazastreifen, 18. März 2024. (Abed Rahim Khatib/Flash90)

Eine Quelle, die mit dem militärischen Data-Science-Team zusammengearbeitet hat, das Lavender ausgebildet haben soll, sagte, dass auch Daten von Mitarbeitern des von der Hamas geführten Ministeriums für Innere Sicherheit, die er nicht als Kämpfer betrachtet, in die Maschine eingespeist wurden. „Mich hat die Tatsache gestört, dass bei der Ausbildung von Lavender der Begriff ‚Hamas-Aktivist‘ sehr locker verwendet wurde und dass auch Mitarbeiter des Zivilschutzes in den Trainingsdatensatz aufgenommen wurden“, sagte er.

Die Quelle fügte hinzu, dass, selbst wenn man der Meinung ist, dass diese Menschen es verdienen, getötet zu werden, das Training des Systems auf der Grundlage ihrer Kommunikationsprofile die Wahrscheinlichkeit erhöht, dass Lavender versehentlich Zivilisten auswählt, wenn seine Algorithmen auf die allgemeine Bevölkerung angewendet werden. „Da es sich um ein automatisches System handelt, das nicht manuell von Menschen bedient wird, ist die Bedeutung dieser Entscheidung dramatisch: Es bedeutet, dass man viele Menschen mit einem zivilen Kommunikationsprofil als potenzielle Ziele einbezieht.“

„Wir haben nur überprüft, ob es sich bei der Zielperson um einen Mann handelt“
Das israelische Militär weist diese Behauptungen rundweg zurück. In einer Erklärung gegenüber +972 und Local Call bestritt der Sprecher der israelischen Streitkräfte, dass künstliche Intelligenz eingesetzt wird, um Zielpersonen zu ermitteln, und sagte, es handele sich lediglich um „Hilfsmittel, die den Beamten bei der Ermittlung helfen“. Die Erklärung fuhr fort: „In jedem Fall ist eine unabhängige Prüfung durch einen [Geheimdienst-]Analysten erforderlich, der verifiziert, dass die identifizierten Ziele legitime Angriffsziele sind, in Übereinstimmung mit den Bedingungen, die in den Direktiven der israelischen Armee und im internationalen Recht festgelegt sind.

Quellen zufolge bestand das einzige Protokoll für die menschliche Überwachung vor der Bombardierung von Häusern mutmaßlicher „Junior“-Kämpfer, die von Lavender markiert wurden, in einer einzigen Überprüfung: Es wurde sichergestellt, dass das von der KI ausgewählte Ziel männlich und nicht weiblich ist. In der Armee ging man davon aus, dass die Maschine im Falle einer Frau wahrscheinlich einen Fehler gemacht hatte, da es in den Reihen der militärischen Flügel von Hamas und PIJ keine Frauen gibt.

„Ein Mensch musste [die Zielperson] nur ein paar Sekunden lang überprüfen“, sagte B. und erklärte, dass dies zum Protokoll wurde, nachdem man festgestellt hatte, dass das Lavender-System die meiste Zeit über „richtig“ lag. „Anfangs haben wir Kontrollen durchgeführt, um sicherzustellen, dass die Maschine nicht verwirrt wird. Aber irgendwann verließen wir uns auf das automatische System und überprüften nur noch, ob es sich bei der Zielperson um einen Mann handelte – das reichte. Es dauert nicht lange, um festzustellen, ob jemand eine männliche oder eine weibliche Stimme hat“.

Für die Überprüfung, ob es sich um eine männliche oder weibliche Person handelt, würde ich im aktuellen Krieg 20 Sekunden pro Zielperson investieren und jeden Tag Dutzende davon durchführen“, so B.. Ich hatte als Mensch keinerlei Mehrwert, außer dass ich ein Gütesiegel war. Das sparte eine Menge Zeit. Wenn [die Zielperson] im automatischen Mechanismus auftauchte und ich prüfte, ob es sich um einen Menschen handelte, gab es die Erlaubnis, ihn zu bombardieren, vorbehaltlich einer Prüfung der Kollateralschäden.“

Ein verletzter Palästinenser der kurz davor under den Trümmern eines Hochhauses lag, das bei israelischen Luftangriffen in der Stadt Rafah im südlichen Gazastreifen zerstört wurde, 20. November 2023. (Abed Rahim Khatib/Flash90)

In der Praxis bedeutete dies, dass es für Zivilisten, die von Lavender irrtümlich markiert wurden, keinen Überwachungsmechanismus gab, um den Fehler zu entdecken. Laut B. trat ein häufiger Fehler auf, „wenn die [Hamas-]Zielperson [ihr Telefon] seinem Sohn, seinem älteren Bruder oder einfach einer beliebigen Person gab. Diese Person wird dann in ihrem Haus mit ihrer Familie bombardiert. Das kam häufig vor. Das waren die meisten Fehler, die durch Lavender verursacht wurden“, sagte B..

SCHRITT 2: VERKNÜPFUNG DER ZIELE MIT DEN FAMILIENHÄUSERN
„Die meisten der getöteten Menschen waren Frauen und Kinder“

Der nächste Schritt im Attentatsverfahren der israelischen Armee besteht darin, herauszufinden, wo die Ziele, die Lavender generiert, angegriffen werden sollen.

In einer Erklärung gegenüber +972 und Local Call erklärte der Sprecher der israelischen Streitkräfte als Reaktion auf diesen Artikel, dass „die Hamas ihre Agenten und militärischen Einrichtungen im Herzen der Zivilbevölkerung platziert, die Zivilbevölkerung systematisch als menschliche Schutzschilde benutzt und die Kämpfe von zivilen Strukturen aus führt, einschließlich sensibler Orte wie Krankenhäuser, Moscheen, Schulen und UN-Einrichtungen. Die israelische Armee ist an das Völkerrecht gebunden und handelt danach, indem sie ihre Angriffe nur auf militärische Ziele und Militärangehörige richtet“.

Die sechs Quellen, mit denen wir sprachen, bestätigten dies bis zu einem gewissen Grad und erklärten, dass das ausgedehnte Tunnelsystem der Hamas absichtlich unter Krankenhäusern und Schulen hindurchführt, dass Hamas-Kämpfer Krankenwagen benutzen, um sich fortzubewegen, und dass unzählige militärische Einrichtungen in der Nähe von zivilen Gebäuden platziert wurden. Den Quellen zufolge werden bei vielen israelischen Angriffen aufgrund dieser Taktiken der Hamas Zivilisten getötet – eine Charakterisierung, die nach Ansicht von Menschenrechtsgruppen die Verantwortung Israels für die Opfer umgeht.

Im Gegensatz zu den offiziellen Erklärungen der israelischen Armee erklärten die Quellen jedoch, dass ein wesentlicher Grund für die beispiellose Zahl von Todesopfern bei den derzeitigen israelischen Bombardierungen darin liegt, dass die Armee systematisch Ziele in ihren Privathäusern und ihre Familien angegriffen hat – zum Teil, weil es aus nachrichtendienstlicher Sicht einfacher war, Familienhäuser mithilfe automatischer Systeme zu markieren.

Mehrere Informationsquellen betonten, dass im Gegensatz zu den zahlreichen Fällen, in denen Hamas-Aktivisten von zivilen Gebieten aus militärische Aktivitäten unternahmen, die Armee bei systematischen Attentaten routinemäßig die aktive Entscheidung traf, mutmaßliche Kämpfer zu bombardieren, wenn sie sich in zivilen Haushalten befanden, in denen keine militärischen Aktivitäten stattfanden. Diese Entscheidung spiegele die Art und Weise wider, wie das israelische System der Massenüberwachung im Gazastreifen aufgebaut ist.

Palästinensische Helfer eilen am 11. Oktober 2023 damit, Verwundete, darunter viele Kinder, ins Al-Shifa-Krankenhaus in Gaza-Stadt zu bringen, während die israelischen Streitkräfte weiterhin den Gazastreifen bombardieren. Oktober 2023. (Mohammed Zaanoun/Activestills)

Die Informationsquellen erklärten gegenüber +972 und Local Call, dass die Überwachungssysteme der Armee, leicht und automatisch Personen mit Familienhäusern „verknüpfen“ können, da jeder Bewohner des Gazastreifens ein Privathaushalt hat, mit dem er in Verbindung gebracht werden könnte. Um den Moment, in dem die Agenten ihre Häuser betreten, in Echtzeit zu identifizieren, wurden verschiedene zusätzliche automatische Softwareprogramme entwickelt. Diese Programme verfolgen Tausende von Personen gleichzeitig, erkennen, wann sie zu Hause sind, und senden einen automatischen Alarm an den Zieloffizier, der dann das Haus für die Bombardierung markiert. Eine von mehreren dieser Ortungsprogramme, die hier zum ersten Mal vorgestellt wird, heißt „Where’s Daddy?“.

„Man gibt Hunderte [von Zielen] in das System ein und wartet ab, wen man töten kann“, so eine Quelle, die das System kennt. „Das nennt man breite Jagd: Man kopiert die Listen, die das Zielsystem erstellt.

Ein Beweis für diese Politik sind auch die Daten: Im ersten Monat des Krieges gehörten mehr als die Hälfte der Todesopfer – 6.120 Menschen – zu 1.340 Familien, von denen nach UN-Angaben viele in ihren Häusern vollständig ausgelöscht wurden. Der Anteil ganzer Familien, die im aktuellen Krieg in ihren Häusern bombardiert wurden, ist viel höher als bei der israelischen Operation im Gazastreifen 2014, was ein weiterer Hinweis auf die Bedeutung dieser Politik ist.

Eine andere Quelle sagte, dass jedes Mal, wenn das Tempo der Attentate nachließ, weitere Ziele in Systeme wie „Where’s Daddy?“ aufgenommen wurden, um Personen zu lokalisieren, die ihre Häuser betraten und daher bombardiert werden konnten. Er sagte, dass die Entscheidung, wer in die Verfolgungssysteme aufgenommen werden sollte, von relativ rangniedrigen Offizieren in der Militärhierarchie getroffen werden konnte.

“ An einem Tag fügte ich aus eigenem Antrieb etwa 1.200 neue Ziele in das System ein, weil die Zahl der Angriffe zurückging“, so die Quelle. „Das ergab für mich einen Sinn. Im Nachhinein scheint es eine ernsthafte Entscheidung gewesen zu sein, die ich getroffen habe. Und solche Entscheidungen wurden nicht auf hoher Ebene getroffen.“

Die Quellen sagten, dass in den ersten zwei Wochen des Krieges zunächst „mehrere tausend“ Ziele in Ortungsprogramme wie „Where’s Daddy?“ eingegeben wurden. Dazu gehörten alle Mitglieder der Hamas-Eliteeinheit „Nukhba“, alle Panzerabwehrspezialisten der Hamas und alle Personen, die am 7. Oktober Israel betreten hatten. Doch schon bald wurde die Tötungsliste drastisch erweitert.

„Am Ende waren es alle [von Lavender markierten] Personen“, erklärte eine Quelle. „Zehntausende. Dies geschah ein paar Wochen später, als die [israelischen] Brigaden in den Gazastreifen eindrangen und es bereits weniger unbeteiligte Menschen [d. h. Zivilisten] in den nördlichen Gebieten gab.“ Laut dieser Quelle wurden sogar einige Minderjährige von Lavender als Ziele für Bombenangriffe markiert. „Normalerweise sind die Agenten über 17 Jahre alt, aber das war keine Bedingung.“

Verwundete Palästinenser werden wegen Überfüllung des Al-Shifa-Krankenhauses in Gaza-Stadt im Zentrum des Gazastreifens auf dem Boden behandelt, 18. Oktober 2023. (Mohammed Zaanoun/Activestills)

„Lavender“ und Systeme wie „Where’s Daddy?“ wurden auf diese Weise mit tödlicher Wirkung kombiniert und töteten ganze Familien, so die Quellen. Durch das Hinzufügen eines Namens aus den von „Lavender“ generierten Listen zum „Where’s Daddy?“ Home Tracking System, erklärte A., würde die markierte Person unter ständige Überwachung gestellt und könnte angegriffen werden, sobald sie einen Fuß in ihr Haus setzt, wodurch das Haus mit allen darin befindlichen Personen zusammenstürzt.

„Nehmen wir an, Sie rechnen mit einem Hamas-Aktivisten und 10 [Zivilisten im Haus]“, sagte A.. „Normalerweise sind diese 10 Frauen und Kinder. Es stellt sich also absurderweise heraus, dass die meisten der getöteten Personen Frauen und Kinder waren.“

SCHRITT 3: AUSWAHL EINER WAFFE
„Wir haben die Anschläge in der Regel mit „stummen Bomben“ durchgeführt.“

Sobald „Lavender“ eine Zielperson für die Hinrichtung markiert hat, Armeeangehörige überprüft haben, dass es sich um einen Mann handelt, und eine Ortungssoftware die Zielperson in ihrem Haus lokalisiert hat, besteht der nächste Schritt darin, die Munition auszuwählen, mit der sie bombardiert werden soll.

Im Dezember 2023 berichtete CNN, dass nach Schätzungen des US-Geheimdienstes etwa 45 Prozent der von der israelischen Luftwaffe im Gazastreifen eingesetzten Munition „stumme“ Bomben waren, die bekanntermaßen mehr Kollateralschäden verursachen als gelenkte Bomben. Als Reaktion auf den CNN-Bericht sagte ein Armeesprecher, der in dem Artikel zitiert wird: „Als Militär, das dem Völkerrecht und einem moralischen Verhaltenskodex verpflichtet ist, setzen wir enorme Ressourcen ein, um den Schaden für die Zivilisten zu minimieren, die von der Hamas in die Rolle menschlicher Schutzschilde gezwungen wurden. Unser Krieg richtet sich gegen die Hamas, nicht gegen die Menschen in Gaza.“

Drei Geheimdienstquellen erklärten jedoch gegenüber +972 und Local Call, dass die von „Lavender“ markierten Nachwuchsagenten nur mit stummen Bomben ermordet wurden, um teurere Waffen zu sparen. Eine Quelle erklärte, dass die Armee ein Junior-Ziel nicht angreifen würde, wenn es in einem Hochhaus wohnte, weil sie keine präzisere und teurere „Etagenbombe“ (mit begrenzten Kollateralschäden) ausgeben wollte, um es zu töten. Wohnte die Zielperson jedoch in einem Gebäude mit nur wenigen Stockwerken, war die Armee befugt, sie und alle anderen Bewohner des Gebäudes mit einer tödlichen Bombe zu töten.

Palästinenser vor einem durch einen israelischen Luftangriff zerstörten Gebäude in Rafah, im südlichen Gazastreifen, 18. März 2024. (Abed Rahim Khatib/Flash90)

„So war es auch bei allen Junior-Zielen“, sagte C., der im aktuellen Krieg verschiedene automatisierte Programme verwendet. „Die einzige Frage war, ob es möglich ist, das Gebäude unter Berücksichtigung der Kollateralschäden anzugreifen. Denn in der Regel führten wir die Angriffe mit tödlichen Bomben durch, und das bedeutete, dass wir buchstäblich das ganze Haus mitsamt seinen Bewohnern zerstörten. Aber selbst wenn ein Angriff verhindert wird, kümmert man sich nicht darum – man geht sofort zum nächsten Ziel über. Aufgrund des Systems nehmen die Ziele nie ein Ende. Es warten weitere 36.000.“

SCHRITT 4: GENEHMIGUNG VON OPFERN UNTER DER ZIVILBEVÖLKERUNG
„Wir haben fast ohne Rücksicht auf Kollateralschäden angegriffen“

Eine Quelle sagte, dass in den ersten Wochen des Krieges die Anzahl der Zivilisten, die bei Angriffen auf untergeordnete Akteure, getötet werden durften, auf bis zu 20 festgelegt wurde, einschließlich solcher, die von KI-Systemen wie „Lavender“ markiert wurden. Eine andere Quelle behauptete, die festgelegte Zahl betrage bis zu 15. Diese „Kollateralschäden“, wie das Militär sie nennt, wurden den Quellen zufolge pauschal auf alle mutmaßlichen Nachwuchskämpfer angewandt, unabhängig von ihrem Rang, ihrer militärischen Bedeutung und ihrem Alter, und ohne spezifische Einzelfallprüfung, um den militärischen Vorteil ihrer Ermordung gegen den zu erwartenden Schaden für die Zivilbevölkerung abzuwägen.

Laut A., der im aktuellen Krieg Offizier in einem Raum für gezielte Operationen war, hat die Abteilung für internationales Recht der Armee noch nie zuvor eine so „pauschale Genehmigung“ für ein so hohes Maß an Kollateralschäden erteilt. „Es geht nicht nur darum, dass man jede Person töten kann, die ein Hamas-Kämpfer ist, was nach internationalem Recht eindeutig erlaubt und legitim ist“, sagte A.. „Aber sie sagen dir direkt: ‚Ihr dürft sie zusammen mit vielen Zivilisten töten.‘

„Jede Person, die in den letzten ein oder zwei Jahren eine Hamas-Uniform getragen hat, könnte bombardiert werden, wobei 20 [Zivilisten als] Kollateralschaden getötet werden, auch ohne besondere Genehmigung“, so A. weiter. „In der Praxis existierte der Grundsatz der Verhältnismäßigkeit nicht.“

Laut A. war dies die meiste Zeit seiner Dienstzeit die Politik. Erst später habe das Militär den Grad der Kollateralschäden gesenkt. „Bei dieser Berechnung konnten es auch 20 Kinder für einen untergeordneten Akteur sein … Das war früher wirklich nicht so“, erklärte A.. Auf die Frage nach den sicherheitspolitischen Gründen, die hinter dieser Politik stehen, antwortete A.: „Tödlichkeit.“

Palästinenser trauen im Al-Najjar-Krankenhaus in Rafah im südlichen Gazastreifen neben den Leichen ihrer bei israelischen Luftangriffen getöteten Angehörigen, 7. November 2023. (Abed Rahim Khatib/Flash90)

Der vorgegebene und festgelegte Grad an Kollateralschäden trug dazu bei, die massenhafte Erstellung von Zielen mit der Lavender-Maschine zu beschleunigen, so die Quellen, da dies Zeit sparte. B. behauptete, dass die Zahl der Zivilisten, die sie pro mutmaßlichem, von der KI markiertem Junior-Kämpfer töten durften, in der ersten Woche des Krieges fünfzehn betrug, dass diese Zahl aber im Laufe der Zeit „auf und ab ging“.
„Am Anfang haben wir fast ohne Rücksicht auf Kollateralschäden angegriffen“, sagte B. über die erste Woche nach dem 7. Oktober. „In der Praxis wurden die Menschen [in den bombardierten Häusern] nicht wirklich gezählt, weil man nicht wirklich sagen konnte, ob sie zu Hause sind oder nicht. Nach einer Woche begannen die Einschränkungen für Kollateralschäden. Die Zahl sank [von 15] auf fünf, was es für uns wirklich schwierig machte, anzugreifen, denn wenn die ganze Familie zu Hause war, konnten wir sie nicht bombardieren. Dann haben sie die Zahl wieder erhöht.“

„Wir wussten, dass wir über 100 Zivilisten töten würden“

Informanten erklärten gegenüber +972 und Local Call, dass die israelische Armee nun, auch aufgrund des amerikanischen Drucks, nicht mehr massenhaft menschliche Nachwuchskämpfer-Ziele für Bombardierungen in zivilen Häusern generiert. Die Tatsache, dass die meisten Häuser im Gazastreifen bereits zerstört oder beschädigt waren und fast die gesamte Bevölkerung vertrieben wurde, hat auch die Fähigkeit der Armee beeinträchtigt, sich auf Geheimdienstdatenbanken und automatische Programme zur Lokalisierung von Häusern zu verlassen.

E. behauptete, dass die massive Bombardierung der militanten Junioren nur in den ersten ein oder zwei Wochen des Krieges stattfand und dann hauptsächlich eingestellt wurde, um keine Bomben zu verschwenden. „Es gibt eine Munitionswirtschaft“, sagte E.. „Sie hatten immer Angst, dass es im Norden [mit der Hisbollah im Libanon] einen Krieg geben könnte. Sie greifen diese Art von [Junior-]Leuten überhaupt nicht mehr an.“

Die Luftangriffe auf hochrangige Hamas-Kommandeure dauern jedoch noch an, und Quellen zufolge genehmigt das Militär bei diesen Angriffen die Tötung von „Hunderten“ von Zivilisten pro Ziel – eine offizielle Politik, für die es keinen historischen Präzedenzfall in Israel oder sogar bei jüngsten Militäroperationen der USA gibt.

„Bei der Bombardierung des Kommandeurs des Shuja’iya-Bataillons wussten wir, dass wir über 100 Zivilisten töten würden“, erinnerte sich B. an eine Bombardierung am 2. Dezember, die nach Angaben des Sprechers der israelischen Armee auf die Ermordung von Wisam Farhat abzielte. „Für mich war das psychologisch gesehen ungewöhnlich. Über 100 Zivilisten – das überschreitet eine rote Linie.“

Ein Feuerball und Rauch steigen während israelischer Luftangriffe im Gazastreifen auf, 9. Oktober 2023. (Atia Mohammed/Flash90)

Amjad Al-Sheikh, ein junger Palästinenser aus Gaza, sagte, dass viele seiner Familienmitglieder bei diesem Bombenangriff getötet wurden. Er wohnte in Shuja’iya, östlich von Gaza-Stadt, und war an diesem Tag in einem örtlichen Supermarkt, als er fünf Explosionen hörte, die die Fensterscheiben zertrümmerten.

„Ich rannte zum Haus meiner Familie, aber es gab dort keine Gebäude mehr“, sagte Al-Sheikh gegenüber +972 und Local Call. „Die Straße war erfüllt von Schreien und Rauch. Ganze Wohnblocks verwandelten sich in Berge von Schutt und tiefe Gruben. Die Leute fingen an, mit den Händen im Zement zu suchen, und das tat ich auch, um nach Spuren meiner Familie zu suchen.

Al-Sheikhs Frau und seine kleine Tochter überlebten – sie wurden durch einen Schrank, der auf sie fiel, vor den Trümmern geschützt -, aber er fand 11 weitere Familienmitglieder, darunter seine Schwestern, Brüder und ihre kleinen Kinder, tot unter den Trümmern. Nach Angaben der Menschenrechtsorganisation B’Tselem zerstörte die Bombardierung an diesem Tag Dutzende von Gebäuden, tötete Dutzende von Menschen und begrub Hunderte unter den Trümmern ihrer Häuser.

„Ganze Familien wurden getötet“

Geheimdienstquellen berichteten +972 und Local Call, dass sie an noch tödlicheren Angriffen beteiligt waren. Um Ayman Nofal, den Befehlshaber der Zentralen Gaza-Brigade der Hamas, zu ermorden, habe die Armee die Tötung von etwa 300 Zivilisten genehmigt und bei Luftangriffen auf das Flüchtlingslager Al-Bureij am 17. Oktober mehrere Gebäude zerstört, nachdem Nofal nicht genau lokalisiert worden war, so eine Quelle. Satellitenaufnahmen und Videos vom Ort des Geschehens zeigen die Zerstörung mehrerer großer, mehrstöckiger Wohnhäuser.

„Zwischen 16 und 18 Häuser wurden bei dem Angriff ausgelöscht“, sagte Amro Al-Khatib, ein Bewohner des Lagers, gegenüber +972 und Local Call. „Wir konnten keine Wohnung von der anderen unterscheiden – sie lagen alle durcheinander in den Trümmern, und wir fanden überall menschliche Körperteile.“

Al-Khatib erinnerte sich an etwa 50 Leichen, die aus den Trümmern gezogen wurden, und an etwa 200 Verletzte, viele von ihnen schwer. Aber das war nur der erste Tag. Die Bewohner des Lagers verbrachten fünf Tage damit, die Toten und Verletzten aus den Trümmern zu bergen, sagte er.

Palästinenser, die mit bloßen Händen graben, finden eine Leiche in den Trümmern nach einem israelischen Luftangriff, bei dem Dutzende Palästinenser inmitten des Flüchtlingslagers Al-Maghazi im Zentrum des Gazastreifens getötet wurden, 5. November 2023. (Mohammed Zaanoun/Activestills)

Nael Al-Bahisi, ein Rettungssanitäter, war einer der ersten vor Ort. Er zählte an diesem ersten Tag zwischen 50 und 70 Verletzte. „Zu einem bestimmten Zeitpunkt verstanden wir, dass das Ziel des Angriffs der Hamas-Kommandeur Ayman Nofal war“, sagte er gegenüber +972 und Local Call. „Sie töteten ihn und auch viele Menschen, die nicht wussten, dass er dort war. Ganze Familien mit Kindern wurden getötet.“

Eine weitere Geheimdienstquelle berichtete +972 und Local Call, dass die Armee Mitte Dezember ein Hochhaus in Rafah zerstörte und dabei „Dutzende von Zivilisten“ tötete, um zu versuchen, Mohammed Shabaneh, den Kommandeur der Rafah-Brigade der Hamas, zu töten (es ist nicht klar, ob er bei dem Angriff getötet wurde oder nicht). Oft, so die Quelle, verstecken sich die hochrangigen Kommandeure in Tunneln, die unter zivilen Gebäuden hindurchführen, sodass die Entscheidung, sie mit einem Luftangriff zu töten, zwangsläufig auch Zivilisten tötet.

„Die meisten der Verletzten waren Kinder“, sagte Wael Al-Sir, 55, Zeuge des groß angelegten Angriffs, von dem einige Bewohner des Gazastreifens glauben, dass es sich um ein Attentat handelt. Er sagte gegenüber +972 und Local Call, dass die Bombardierung am 20. Dezember einen „ganzen Wohnblock“ zerstört und mindestens 10 Kinder getötet habe.

„Es gab eine völlig lockere Politik in Bezug auf die Opfer von [Bombenangriffen] – so locker, dass sie meiner Meinung nach ein Element der Rache hatte“, behauptete D., eine Geheimdienstquelle. „Der Kern dieser Politik war die Ermordung hochrangiger [Hamas- und PIJ-Kommandeure], für die sie bereit waren, Hunderte von Zivilisten zu töten. Wir hatten eine Berechnung: wie viele für einen Brigadekommandeur, wie viele für einen Bataillonskommandeur und so weiter.“
„Es gab Vorschriften, aber sie waren einfach sehr lasch“, sagte E., eine weitere Geheimdienstquelle. „Wir haben Leute mit Kollateralschäden im hohen zweistelligen, wenn nicht gar niedrigen dreistelligen Bereich getötet. Das sind Dinge, die vorher nicht passiert sind.“

Palästinenser begutachten ihre Häuser und versuchen, ihre Angehörigen nach einem israelischen Luftangriff in der Stadt Rafah im südlichen Gazastreifen aus den Trümmern zu retten, 22. Oktober 2023. (Abed Rahim Khatib/Flash90)

Eine derart hohe Rate an „Kollateralschäden“ ist nicht nur im Vergleich zu dem, was die israelische Armee früher für akzeptabel hielt, sondern auch im Vergleich zu den Kriegen, die die Vereinigten Staaten im Irak, in Syrien und in Afghanistan führen, außergewöhnlich.

General Peter Gersten, stellvertretender Befehlshaber für Operationen und Nachrichtendienste im Kampf gegen ISIS im Irak und in Syrien, erklärte 2021 gegenüber einer US-Verteidigungszeitschrift, dass ein Angriff, bei dem 15 Zivilisten zu Schaden kamen, von der üblichen Vorgehensweise abweicht; um ihn durchzuführen, musste er eine Sondergenehmigung vom Leiter des US-Zentralkommandos, General Lloyd Austin, einholen, der heute Verteidigungsminister ist.

„Bei Osama Bin Laden hatte man einen NCV [Non-combatant Casualty Value] von 30, aber wenn es sich um einen Kommandeur auf niedriger Ebene handelte, lag sein NCV normalerweise bei Null“, so Gersten. „Wir hatten die längste Zeit einen Wert von Null.“

„Uns wurde gesagt: „Bombardiert alles, was ihr könnt“.“

Alle für diese Untersuchung befragten Quellen sagten, dass die Angriffe der Hamas am 7. Oktober und die Entführung der Geiseln die Feuerpolitik der Armee und den Grad der Kollateralschäden stark beeinflusst haben. „Am Anfang war die Atmosphäre schmerzhaft und rachsüchtig“, sagte B., der unmittelbar nach dem 7. Oktober zur Armee eingezogen wurde und in einem Zieloperationsraum diente. „Die Regeln waren sehr milde. Sie zerstörten vier Gebäude, wenn sie wussten, dass sich die Zielperson in einem von ihnen befand. Es war verrückt.

„Es gab eine Dissonanz: Einerseits waren die Leute hier frustriert, dass wir nicht genug angriffen“, so B. weiter. „Andererseits sieht man am Ende des Tages, dass weitere tausend Menschen im Gazastreifen gestorben sind, die meisten von ihnen Zivilisten.“

„In den Reihen der Profis herrschte Hysterie“, sagte D., der ebenfalls unmittelbar nach dem 7. Oktober eingezogen wurde. „Sie wussten überhaupt nicht, wie sie reagieren sollten. Das Einzige, was sie zu tun wussten, war, wie die Verrückten zu bombardieren, um zu versuchen, die Fähigkeiten der Hamas zu zerstören.“

Verteidigungsminister Yoav Gallant spricht vor israelischen Soldaten in einem Bereitstellungsraum unweit des Gaza-Zaunes, 19. Oktober 2023. (Chaim Goldberg/Flash90)

D. betonte, dass ihnen nicht ausdrücklich gesagt wurde, das Ziel der Armee sei „Rache“, aber er brachte zum Ausdruck, dass „sobald jedes Ziel, das mit der Hamas in Verbindung gebracht wird, legitim ist und fast jeder Kollateralschaden genehmigt wird, es klar ist, dass Tausende von Menschen getötet werden. Selbst wenn offiziell jedes Ziel mit der Hamas in Verbindung gebracht wird, verliert es jede Bedeutung, wenn die Politik so leichtfertig ist.“
A. benutzte auch das Wort „Rache“, um die Atmosphäre innerhalb der Armee nach dem 7. Oktober zu beschreiben. „Niemand hat darüber nachgedacht, was man danach tun wird, wenn der Krieg vorbei ist, oder wie es möglich sein wird, in Gaza zu leben und was man damit machen wird“, sagte A.. „Uns wurde gesagt: Jetzt müssen wir die Hamas fertig machen, egal was es kostet. Was immer ihr könnt, bombardiert sie.“
B., der ranghöchste Geheimdienstmitarbeiter, sagte, dass er im Nachhinein glaube, dass diese „unverhältnismäßige“ Politik der Tötung von Palästinensern in Gaza auch Israelis gefährde, und dass dies einer der Gründe sei, warum er sich zu einem Interview bereit erklärt habe.
„Kurzfristig sind wir sicherer, weil wir der Hamas schaden. Aber ich denke, langfristig sind wir weniger sicher. Ich sehe, wie all die trauernden Familien im Gazastreifen – und das sind fast alle – in zehn Jahren die Motivation erhöhen werden, sich der Hamas anzuschließen. Und es wird für [die Hamas] viel einfacher sein, sie zu rekrutieren.“
In einer Erklärung an +972 und Local Call dementierte die israelische Armee vieles von dem, was uns die Quellen berichtet haben, und behauptete, dass „jedes Ziel einzeln untersucht wird, während eine individuelle Bewertung des militärischen Vorteils und des Kollateralschadens, der durch den Angriff zu erwarten ist, vorgenommen wird … Die israelische Armee führt keine Angriffe durch, wenn der Kollateralschaden, der durch den Angriff zu erwarten ist, im Verhältnis zum militärischen Vorteil zu hoch ist.“

SCHRITT 5: BERECHNUNG DER KOLLATERALSCHÄDEN
„Das Modell war nicht mit der Realität verbunden.“

Den Geheimdienstquellen zufolge hat die israelische Armee bei der Berechnung der Anzahl der Zivilisten, die in jedem Haus neben einem Ziel getötet werden sollten – ein Verfahren, das in einer früheren Untersuchung von +972 und Local Call untersucht wurde – mithilfe automatischer und ungenauer Instrumente gearbeitet. In früheren Kriegen verbrachten die Geheimdienstmitarbeiter viel Zeit damit, zu überprüfen, wie viele Menschen sich in einem Haus befanden, das bombardiert werden sollte, wobei die Anzahl der Zivilisten, die getötet werden könnten, in einer „Zieldatei“ aufgeführt wurde. Nach dem 7. Oktober wurde diese gründliche Überprüfung jedoch weitgehend zugunsten der Automatisierung aufgegeben.

Im Oktober berichtete die New York Times über ein von einer speziellen Basis im Süden Israels betriebenes System, das Informationen von Mobiltelefonen im Gazastreifen sammelt und dem Militär eine Live-Schätzung der Zahl der Palästinenser liefert, die aus dem nördlichen Gazastreifen nach Süden geflohen sind. Brigadegeneral Udi Ben Muha erklärte gegenüber der Times: „Es ist kein 100-prozentig perfektes System – aber es liefert die Informationen, die man braucht, um eine Entscheidung zu treffen.“ Das System funktioniert nach Farben: Rot markiert Gebiete, in denen sich viele Menschen aufhalten, und Grün und Gelb markieren Gebiete, die relativ frei von Bewohnern sind.

Palästinenser gehen auf einer Hauptstraße, nachdem sie aus ihren Häusern in Gaza-Stadt in den südlichen Teil des Gazastreifens vertrieben worden sind, 10. November 2023. (Atia Mohammed/Flash90)

Die Quellen, die mit +972 und Local Call sprachen, beschrieben ein ähnliches System zur Berechnung von Kollateralschäden, das verwendet wurde, um zu entscheiden, ob ein Gebäude in Gaza bombardiert werden sollte. Sie sagten, dass die Software die Anzahl der Zivilisten errechnete, die vor dem Krieg in jedem Haus wohnten – indem sie die Größe des Gebäudes bewertete und die Liste der Bewohner überprüfte – und dann diese Zahlen um den Anteil der Bewohner reduzierte, die das Viertel angeblich evakuiert hatten.


Wenn die Armee beispielsweise davon ausging, dass die Hälfte der Bewohner eines Viertels weggezogen war, zählte das Programm ein Haus, in dem normalerweise 10 Personen wohnten, als ein Haus mit fünf Bewohnern. Um Zeit zu sparen, so die Quellen, überprüfte die Armee die Häuser nicht wie bei früheren Operationen, um herauszufinden, ob die Schätzung des Programms tatsächlich zutreffend war, sondern um festzustellen, wie viele Menschen tatsächlich dort lebten.


„Dieses Modell hatte nichts mit der Realität zu tun“, behauptete eine Informationsquelle. „Es gab keine Verbindung zwischen den Personen, die sich jetzt, während des Krieges, in dem Haus aufhielten, und denjenigen, die vor dem Krieg als dort wohnend angegeben waren. [Einmal haben wir ein Haus bombardiert, ohne zu wissen, dass sich darin mehrere Familien versteckt hielten.
Die Quelle sagte, dass die Armee zwar wusste, dass solche Fehler auftreten können, aber dennoch dieses ungenaue Modell angewandt wurde, weil es schneller war. Die Quelle sagte, dass „die Berechnung der Kollateralschäden völlig automatisch und statistisch war“ – und sogar Zahlen lieferte, die keine ganzen Zahlen waren.

SCHRITT 6: BOMBARDIERUNG EINES FAMILIENHAUSES
„Du hast eine Familie ohne Grund getötet“

Die Quellen, die mit +972 und Local Call sprachen, erklärten, dass zwischen dem Moment, in dem Ortungssysteme wie „Where’s Daddy?“ einen Offizier darauf hinweisen, dass eine Zielperson ihr Haus betreten hat, und der eigentlichen Bombardierung manchmal eine beträchtliche Lücke klafft – was dazu führt, dass ganze Familien getötet werden, ohne dass das Ziel der Armee getroffen wird. „Es ist mir schon oft passiert, dass wir ein Haus angegriffen haben, aber die Person gar nicht zu Hause war“, sagte eine Quelle. „Das Ergebnis ist, dass man eine Familie ohne Grund getötet hat.“
Drei Geheimdienstquellen erklärten gegenüber +972 und Local Call, dass sie Zeuge eines Vorfalls waren, bei dem die israelische Armee das Privathaus einer Familie bombardierte und sich später herausstellte, dass das Ziel des Attentats gar nicht im Haus war, da keine weitere Überprüfung in Echtzeit durchgeführt wurde.

Palästinenser erhalten die Leichen von Angehörigen, die bei israelischen Luftangriffen getötet wurden, im Al-Najjar Krankenhaus im südlichen Gazastreifen, darunter viele Säuglinge und Babys 6. November 2023. (Abed Rahim Khatib/Flash90)

„Manchmal war [die Zielperson] vorher zu Hause und ging dann nachts woanders schlafen, z. B. im Untergrund, und Sie wussten nichts davon“, sagte eine der Quellen. „Es gibt Zeiten, in denen man den Standort doppelt überprüft, und es gibt Zeiten, in denen man einfach sagt: ‚Okay, er war in den letzten paar Stunden im Haus, also kann man einfach bombardieren.'“

Ein anderer Informant beschrieb einen ähnlichen Vorfall, der ihn so betroffen machte, dass er für diese Untersuchung befragt werden wollte. „Wir gingen davon aus, dass die Zielperson um 20.00 Uhr zu Hause war. Schließlich bombardierte die Luftwaffe das Haus um 3.00 Uhr morgens. In dem Gebäude, das wir bombardiert haben, waren noch zwei andere Familien mit Kindern.

In früheren Kriegen im Gazastreifen hat der israelische Geheimdienst nach der Ermordung menschlicher Ziele eine Bombenschadensanalyse (BDA) durchgeführt – eine routinemäßige Überprüfung nach dem Angriff, um festzustellen, ob der ranghohe Kommandeur getötet wurde und wie viele Zivilisten mit ihm zusammen ums Leben gekommen sind. Wie in einer früheren Untersuchung von +972 und Local Call aufgedeckt wurde, beinhaltete dies das Abhören von Telefongesprächen von Angehörigen, die ihre Lieben verloren hatten. Im gegenwärtigen Krieg wurde dieses Verfahren jedoch zumindest in Bezug auf die mithilfe der künstlichen Intelligenz markierten Militanten abgeschafft, um Zeit zu sparen, heißt es. Die Quellen sagten, sie wüssten nicht, wie viele Zivilisten bei den einzelnen Angriffen tatsächlich getötet wurden, und bei den verdächtigen Hamas- und PIJ (Palästinensische Islamische Jihad)-Kämpfern mit niedrigem Rang, die durch KI gekennzeichnet sind, wüssten sie nicht einmal, ob das Ziel selbst getötet wurde.

Quelle: +972Magazin

Autor:

Ein Mensch der keine Feindseligkeit gegen jemanden hat. Ein Mensch der Respekt vor allen Menschen, Völker, Religionen und Weltansichten hat. Ein Mensch der Freiheit und Gerechtigkeit anstrebt.

Hinterlasse einen Kommentar