âAssistenzâ beim Bombardement in Gaza: Was bedeutet âKĂŒnstliche Intelligenzâ im urbanen Krieg?
Bereits Ende November 2023 hatte der israelische Journalist Yuval Abraham im +972Mag @972mag und der hebrĂ€ischen Zeitung Local Call einen vielbeachteten Bericht veröffentlicht, wonach die israelische Armee (IDF) in groĂem MaĂstab #KĂŒnstlicheIntelligenz (KI) einsetze, um Ziele zu identifizieren, die anschlieĂend in #Gaza bombardiert werden. Im Mittelpunkt stand damals ein System namens âHabsoraâ, auf Englisch meist mit âThe Gospelâ ĂŒbersetzt. Der Beitrag basierte im Wesentlichen auf Aussagen aktiver und ehemaliger israelischer MilitĂ€rs, die im weiteren Sinne mit der Zielauswahl beschĂ€ftigt waren und angaben, â#Habsoraâ basiere auf KI und ermögliche es, in groĂer Geschwindigkeit Ziele zu âproduzierenâ. Die Anwendung von #Habsora und anderen datenverarbeitenden Systemen hat demnach dafĂŒr gesorgt oder dazu beigetragen, dass der IDF bei ihrer massiven Luftkampagne ĂŒber dicht besiedeltem Gebiet nicht die Ziele ausgingen und dieses massive #Bombardement in seiner IntensitĂ€t ĂŒberhaupt durchgefĂŒhrt werden konnte. Zugleich habe es dazu gefĂŒhrt, dass Angriffe mit erwartbar hohen zivilen Opferzahlen, z.B. auf sog. âPower Targetsâ (mehrstöckige zentrale WohngebĂ€ude oder VerwaltungsgebĂ€ude) ĂŒberhaupt ausgefĂŒhrt worden seien. Bereits damals wurde der Vorwurf geĂ€uĂert und mit Zitaten unterlegt, wonach die automatisch generierten Ziele zwar nochmal von Menschen bestĂ€tigt, dafĂŒr aber jeweils nur sehr kurze Zeit aufgewendet worden wĂ€ren. Die Darstellung schien durchaus plausibel angesichts der etwa 1.000 Ziele, die in der ersten Woche tĂ€glich auf einer FlĂ€che angegriffen wurden, welche nur etwas gröĂer ist, als das Gebiet der Stadt MĂŒnchen. Nach weiteren zwei Wochen hatte sich die Zahl der aus der Luft angegriffenen Ziele bereits auf 12.000 erhöht und wurde bis 11. Dezember sogar mit 22.000 angegeben.
Völkerrechtlich wĂ€ren die IDF bei jedem Angriff, bei dem auch mit zivilen Opfern zu rechnen ist, verpflichtet, den absehbaren militĂ€rischen Nutzen mit den erwartbaren zivilen Opfern in ein VerhĂ€ltnis zu setzen und abzuwĂ€gen. Diese Verpflichtung dĂŒrfte bei nahezu allen Zielen bestanden haben und ihre Einhaltung lĂ€sst sich angesichts der schieren Masse angegriffener Ziele kaum plausibel darstellen â es sei denn, die AbwĂ€gung wĂ€re auf der Grundlage automatisiert ausgewerteter Daten und maschinell erstellter Empfehlungen erfolgt, wie es der Beitrag von Ende November 2023 nahelegt. Die Informationsstelle Militarisierung @imi hat deshalb Mitte Dezember vermutet dass die IDF sogar ein Interesse daran gehabt haben könnten, dass der groĂflĂ€chige Einsatz von KI bei der Zielfindung bekannt wird, um ihrem Vorgehen zumindest oberflĂ€chlich den Anstrich einer â neuartigen â #völkerrechtlichï»żen LegitimitĂ€t zu verleihen, wonach groĂe Teile der gebotenen âAbwĂ€gungâ an vermeintlich âintelligenteâ datenverarbeitende Systeme delegiert wurden. Die #Opferzahlen, die zum Zeitpunkt dieser ersten Veröffentlichung kursierten, unterschieden sich kaum von denen, die bei einer vollkommen willkĂŒrlichen #Bombardierung eines dicht besiedelten Gebietes erwartbar wĂ€ren. Der Autor Yuval Abraham bezifferte diese bis zum #Waffenstillstand vom 23. November auf 14.800, wovon etwa 6.000 Frauen und 4.000 Kinder gewesen seien. Die #IDF hingegen schĂ€tzten die Zahl der getöteten Militanten etwa zum gleichen Zeitpunkt auf 1.000 bis 3.000.
(...)
https://www.trueten.de/archives/13184-Assistenz-beim-Bombardement-in-Gaza-Was-bedeutet-Kuenstliche-Intelligenz-im-urbanen-Krieg.html #Israel #Lavendar