Deutsche Nachrichtenveranstaltungen finden statt

Israel setzt Berichten zufolge KI ein, um Ziele im Gazastreifen auszuwählen

(SeaPRwire) –   Das Programm soll Hamas-Kämpfer aufspüren, aber israelische Militärquellen sagen, es markiert oft Unschuldige zum Tod

Die israelische Armee nutzt Künstliche Intelligenz, um vermutliche palästinensische Milizionäre für Attentate zu markieren, mit wenig menschlicher Aufsicht oder Rücksicht auf zivile Opfer, berichtete das israelisch-palästinensische Magazin +972 am Mittwoch.

Das AI-System namens “Lavender” ist dafür konzipiert, durch die persönlichen Daten von Gazas zwei Millionen Einwohnern Listen mit Verdächtigen zu erstellen, die für die militärischen Flügel von Hamas und dem Palästinensischen Islamischen Dschihad (PIJ) tätig sein sollen, so sechs israelische Geheimdienstoffiziere gegenüber .

Die IDF hat die Existenz des Systems nie öffentlich bestätigt, nutzt aber bekanntermaßen während früherer Operationen in Gaza.

Zu Beginn des andauernden israelischen Krieges gegen Hamas markierte Lavender 37.000 Palästinenser als Milizionäre und setzte sie auf Todeslisten, behaupteten die Quellen. Während IDF-Mitarbeiter zunächst diese Listen manuell überprüften und jeden Namen verifizierten, dienten Menschen bald nur noch als Stempel für die Listen der Maschine, so eine Quelle.

“Ich hätte 20 Sekunden für jeden Ziel investiert zu dieser Zeit, und Dutzende davon jeden Tag bearbeitet”, sagte der Offizier. “Ich hatte als Mensch keinen Mehrwert, abgesehen davon, eine Genehmigungsstempel zu sein. Es sparte viel Zeit.”

Lavender analysiert Telefonaufzeichnungen, Social-Media-Aktivitäten, Fotos und Bewegungen bekannter palästinensischer Milizionäre, um gemeinsame Merkmale zu identifizieren und dann nach diesen Merkmalen in der breiteren Bevölkerung Gazas zu suchen. Das System gibt jedem Einwohner Gazas eine Punktzahl zwischen 0 und 100, wobei diejenigen nahe 100 als Terroristen und damit als legitime Ziele eingestuft werden.

Innerhalb weniger Wochen des Kriegsausbruchs wurden IDF-Kommandeure jedoch angewiesen, diese Auswahlkriterien zu lockern und Angriffe auf nur am Rande mit Hamas verbundene Ziele zu genehmigen.

“Es wurde uns gesagt: Jetzt müssen wir Hamas fertigmachen, egal was es kostet. Was immer Sie können, bombardieren Sie es”, erinnerte sich eine Quelle.

Waren Ziele erst einmal für Attentate markiert, wurden niedrigrangige Ziele in ihren Häusern – identifiziert mit einem anderen AI-System namens “Gospel” – mit ungelenkten Bomben getötet, während präzisere Munition gegen höherrangige Milizionäre eingesetzt wurde.

“Um 5 Uhr morgens kam die Luftwaffe und bombardierte alle Häuser, die wir markiert hatten”, sagte eine Quelle. “Wir haben Tausende Menschen getötet. Wir haben sie nicht einzeln überprüft – wir haben alles in automatisierte Systeme eingespeist, und sobald einer [der Markierten] zu Hause war, wurde er sofort zum Ziel. Wir bombardierten ihn und sein Haus.”

Lavender soll Ziele angeblich nach ihrer vermuteten Bedeutung einordnen, wobei eine Quelle behauptet, dass niedrig priorisierte Namen oft Polizisten, Zivilbedienstete und andere einschließen, die “die Hamas-Regierung unterstützen, aber die israelischen Soldaten eigentlich nicht gefährden.”

Wurde ein Verdächtiger ausgewählt und ein Attentatsbefehl erteilt, entscheiden IDF-Kommandeure, wie viele zivile Opfer sie für die Tötung des Ziels für akzeptabel halten. Laut einer Quelle “schwankte” diese Zahl im Kriegsverlauf, wobei zu Beginn “20 unbeteiligte Zivilisten” für akzeptabel gehalten wurden und bis zu 100 Opfer bei Angriffen auf Hamas-Führungspersonal in Betracht gezogen wurden.

“Es geht nicht nur darum, jeden Menschen töten zu dürfen, der ein Hamas-Soldat ist, was eindeutig nach Völkerrecht erlaubt und legitim ist,” sagte die Quelle. “Sondern sie sagen dir direkt: ‘Ihnen ist erlaubt, sie zusammen mit vielen Zivilisten zu töten.'”

Nach den letzten Angaben des Gesundheitsministeriums in Gaza haben israelische Streitkräfte in fast sechs Monaten Kämpfe im Gazastreifen mehr als 33.000 Menschen getötet, die meisten davon Frauen und Kinder. Auf die Behauptungen von +972 Magazine erklärte die IDF am Mittwoch, sie “nutzt kein KI-System, das terroristische Akteure identifiziert oder vorhersagt, ob eine Person ein Terrorist ist” und weist den Vorwurf zurück, “irgendeine Politik zu verfolgen, Zehntausende Menschen in ihren Häusern zu töten.”

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.