#Habsora

Estelle Platiniestelle@techhub.social
2025-02-03

@datadon @israel army and #Microsoft đŸ§¶

"Since Oct. 7, the Israeli military has relied heavily on cloud and AI services from Microsoft and its partner OpenAI, while the tech giant’s staff embed with different units to support rollout, a joint investigation reveals."
Yuval Abraham: 972mag.com/microsoft-azure-ope

#StartUpNation #TechBros #innovation #efficiency #DefundIsrael #patriotism #JewishSupremacy #MilInt #military #army #IDF #Unit8200 #Lavender #LavenderAI #Gaza #warCrimes #israel #tech #technology #AI #Habsora #Microsoft #ethnicCleansing #militaryAI #972Mag #Cloud #OpenAI #IDF

2025-01-27

Targeted Killing oder das Versprechen die ‘Richtigen’ zu treffen
Read more: ground-zero.khm.de/targeted-ki
Article by Susanne Grabenhorst & Christian Heck, FIfF-Kommunikation 4/24

@fiff_de #IDF #WheresDaddy #Israel #Gaza #KI #Habsora #Abraham #972mag #Lavender #Kriegsverbrechen #IoMT #MDO #MDTF #AWS #NCW

Feilner ITFeilnerIT
2024-12-29

Remember ? This may have been another testing ground for a bigger scope of usage. Just like the Germans tested air raids in the Spanish civil war...
"Israel’s AI can produce 100 bombing targets a day in Gaza. Is this the future of war?"
, , : ,
theconversation.com/israels-ai

prasoonprasoon
2024-09-18

Israel is joining the first global AI convention, here’s why that’s dangerous: mondoweiss.net/2024/09/israel-

"For months, has used advanced AI systems like “” and “” to target and kill civilians in Gaza, all while celebrating its role in drafting a treaty that claims to ensure responsible governance. This contradiction not only exposes a troubling hypocrisy but also raises serious questions about the int'l community’s commitment to genuine accountability.

@palestine

Estelle Platiniestelle@techhub.social
2024-08-12

"The Israeli army is using Amazon’s cloud service to store surveillance information on Gaza’s population, while procuring further AI tools from Google and Microsoft for military purposes, an investigation reveals."

By Yuval Abraham: 972mag.com/cloud-israeli-army- @military @idf

#StartUpNation #TechBros #innovation #efficiency #DefundIsrael #patriotism #JewishSupremacy #MilInt #military #army #IDF #Unit8200 #Lavender #LavenderAI #Gaza #warCrimes #israel #tech #technology #AI #Habsora #Google #Microsoft #AWS #Amazon #ethnicCleansing #militaryAI #972Mag #Cloud

2024-07-16

Intelligente Systeme, Targeted Killings, GlÀserne Gefechtsfelder < Seekabel Sommertalk mit Christian Heck @ jfc Medienzentrum, Köln | 17. Juli, 19:00 - 21:00
... ein Einblick in die relativ junge Geschichte technologischer Rationalisierung von #Krieg durch datengetriebene Vorhersagen und Entscheidungsfindungen. Der kurze Vortrag zeigt worauf die Forderung, die Praxis des „Targeted Killing“ mit unterstĂŒtzenden #KI Systemen als #Kriegsverbrechen einzustufen basiert, welche zivilgesellschaftlichen Herausforderungen sie mit sich bringt und lĂ€dt zur Diskussion ein.
Mehr Info, siehe: jfc.info/event/seekabel-sommer
@fiff_de #IDF #WheresDaddy #Israel #Gaza #KI #Habsora #Abraham #972mag #Lavender

2024-05-22

Comment l'#intelligenceartificielle utilisée par l'armée israélienne (#Habsora) décuple le nombre de morts civils bombardés à #gaza

agirparlaculture.be/habsora-la

Forum Informatik fĂŒr Friedenfiff_de@mastodon.bits-und-baeume.org
2024-04-29

PM: Senkung der Hemmschwelle durch den Einsatz von KĂŒnstlicher Intelligenz – #Lavender und Co. sind als #Kriegsverbrechen einzustufen.

Wir fordern, die Praxis des „Targeted Killing“ mit unterstĂŒtzenden KI-Systemen als Kriegsverbrechen einzustufen. Die derzeitige Nutzung von intelligenten Systemen und Mensch-Maschine-Schnittstellen in geheimdienstlichen und militĂ€rischen Sicherheitsapparaten muss gestoppt werden.

Wir stellen dazu ein #Positionspapier vor, das der AufklĂ€rung der Öffentlichkeit und als Grundlage fĂŒr weitere Diskussionen und politische Forderungen dienen soll.

blog.fiff.de/warnung-senkung-d

#WheresDaddy #Israel #Gaza #KI #Habsora #Abraham #972mag

Cover des PDFs
Don Trueten :antifa:thomas@mastodon.trueten.de
2024-04-28

„Assistenz“ beim Bombardement in Gaza: Was bedeutet „KĂŒnstliche Intelligenz“ im urbanen Krieg?

Bereits Ende November 2023 hatte der israelische Journalist Yuval Abraham im +972Mag @972mag und der hebrĂ€ischen Zeitung Local Call einen vielbeachteten Bericht veröffentlicht, wonach die israelische Armee (IDF) in großem Maßstab #KĂŒnstlicheIntelligenz (KI) einsetze, um Ziele zu identifizieren, die anschließend in #Gaza bombardiert werden. Im Mittelpunkt stand damals ein System namens „Habsora“, auf Englisch meist mit “The Gospel” ĂŒbersetzt. Der Beitrag basierte im Wesentlichen auf Aussagen aktiver und ehemaliger israelischer MilitĂ€rs, die im weiteren Sinne mit der Zielauswahl beschĂ€ftigt waren und angaben, „#Habsora“ basiere auf KI und ermögliche es, in großer Geschwindigkeit Ziele zu „produzieren“. Die Anwendung von #Habsora und anderen datenverarbeitenden Systemen hat demnach dafĂŒr gesorgt oder dazu beigetragen, dass der IDF bei ihrer massiven Luftkampagne ĂŒber dicht besiedeltem Gebiet nicht die Ziele ausgingen und dieses massive #Bombardement in seiner IntensitĂ€t ĂŒberhaupt durchgefĂŒhrt werden konnte. Zugleich habe es dazu gefĂŒhrt, dass Angriffe mit erwartbar hohen zivilen Opferzahlen, z.B. auf sog. „Power Targets“ (mehrstöckige zentrale WohngebĂ€ude oder VerwaltungsgebĂ€ude) ĂŒberhaupt ausgefĂŒhrt worden seien. Bereits damals wurde der Vorwurf geĂ€ußert und mit Zitaten unterlegt, wonach die automatisch generierten Ziele zwar nochmal von Menschen bestĂ€tigt, dafĂŒr aber jeweils nur sehr kurze Zeit aufgewendet worden wĂ€ren. Die Darstellung schien durchaus plausibel angesichts der etwa 1.000 Ziele, die in der ersten Woche tĂ€glich auf einer FlĂ€che angegriffen wurden, welche nur etwas grĂ¶ĂŸer ist, als das Gebiet der Stadt MĂŒnchen. Nach weiteren zwei Wochen hatte sich die Zahl der aus der Luft angegriffenen Ziele bereits auf 12.000 erhöht und wurde bis 11. Dezember sogar mit 22.000 angegeben.

Völkerrechtlich wĂ€ren die IDF bei jedem Angriff, bei dem auch mit zivilen Opfern zu rechnen ist, verpflichtet, den absehbaren militĂ€rischen Nutzen mit den erwartbaren zivilen Opfern in ein VerhĂ€ltnis zu setzen und abzuwĂ€gen. Diese Verpflichtung dĂŒrfte bei nahezu allen Zielen bestanden haben und ihre Einhaltung lĂ€sst sich angesichts der schieren Masse angegriffener Ziele kaum plausibel darstellen – es sei denn, die AbwĂ€gung wĂ€re auf der Grundlage automatisiert ausgewerteter Daten und maschinell erstellter Empfehlungen erfolgt, wie es der Beitrag von Ende November 2023 nahelegt. Die Informationsstelle Militarisierung @imi hat deshalb Mitte Dezember vermutet dass die IDF sogar ein Interesse daran gehabt haben könnten, dass der großflĂ€chige Einsatz von KI bei der Zielfindung bekannt wird, um ihrem Vorgehen zumindest oberflĂ€chlich den Anstrich einer – neuartigen – #völkerrechtlichï»żen LegitimitĂ€t zu verleihen, wonach große Teile der gebotenen „AbwĂ€gung“ an vermeintlich „intelligente“ datenverarbeitende Systeme delegiert wurden. Die #Opferzahlen, die zum Zeitpunkt dieser ersten Veröffentlichung kursierten, unterschieden sich kaum von denen, die bei einer vollkommen willkĂŒrlichen #Bombardierung eines dicht besiedelten Gebietes erwartbar wĂ€ren. Der Autor Yuval Abraham bezifferte diese bis zum #Waffenstillstand vom 23. November auf 14.800, wovon etwa 6.000 Frauen und 4.000 Kinder gewesen seien. Die #IDF hingegen schĂ€tzten die Zahl der getöteten Militanten etwa zum gleichen Zeitpunkt auf 1.000 bis 3.000.

(...)

trueten.de/archives/13184-Assi #Israel #Lavendar

Der Screenshot zeigt Seite 1 des Artikels in dem IMI Beitrag
Estelle Platiniestelle@techhub.social
2024-04-07

B., the senior officer, claimed that in the current war, “I would invest 20 seconds for each target at this stage, and do dozens of them every day. I had zero added value as a human, apart from being a stamp of approval. It saved a lot of time.”

According to B., a common error occurred “if the [Hamas] target gave [his phone] to his son, his older brother, or just a random man. That person will be bombed in his house with his family. This happened often. These were most of the mistakes caused by Lavender,” B. said.

972mag.com/lavender-ai-israeli @israel @data đŸ§¶

#duty #protocol #conformance #AIRisks #riskApproach #risks #dehumanisation #AIWar #technoCriticism #ethics #efficiency #innovation #Targeting #industrialization #intelligence #AirForce #casualties #DataScience #DataScientist #SIGINT #Unit8200 #patriotism #JewishSupremacy #CrowdSourcing #OSINT #CROSINT #MilInt #military #army #ES2 #IDI #IDF #Unit8200 #Lotem #Habsora #Lavender #dataDon #dataGovernance #Gaza #Hamas #warCrimes #israel

Reuters, 2023 - Technologists with the Israeli army's Matzpen application and data operations unit work at their station, at an IDF base in Ramat Gan, Israel Palestine
Estelle Platiniestelle@techhub.social
2024-04-06

It was easier to locate the individuals in their private houses.

“We were not interested in killing operatives only when they were in a military building or engaged in a military activity. On the contrary, the IDF bombed them in homes without hesitation, as a first option. It’s much easier to bomb a family’s home. The system is built to look for them in these situations.”

Yuval Abraham reports: 972mag.com/lavender-ai-israeli

(to follow) đŸ§¶#longThread @palestine @israel @ethics @military @idf @terrorism

#AIWar #technoCriticism #ethics #efficiency #innovation #Targeting #industrialization #intelligence #casualties #dev #history #data #EDA #planning #OSINT #military #army #C4I #ES2 #IDI #IDF #genocide #Lotem #Habsora #Lavender #dataDon #dataGovernance #tech #techCulture #engineering #AI #generativeAI #fix #externalities #productivity #bias #AIWarfare #AIEthics #AIRisks #collateralDamage #dehumanisation #airStrikes #bombing #counterTerrorism #israel #Gaza #Hamas #warCrimes #JewishSupremacy

2024-01-21

"Another source said that (...) the goal was to “kill as many Hamas operatives as possible,” for which the criteria around harming Palestinian civilians were significantly relaxed. As such, there are “cases in which we shell based on a wide cellular pinpointing of where the target is, killing civilians. This is often done to save time, instead of doing a little more work to get a more accurate pinpointing,” said the source.""

#habsora #ai

2024-01-21

"“This is a machine that, with the help of AI, processes a lot of data better and faster than any human, and translates it into targets for attack,” Kochavi went on. “The result was that in Operation Guardian of the Walls [in 2021], from the moment this machine was activated, it generated 100 new targets every day. You see, in the past there were times in Gaza when we would create 50 targets per year. And here the machine produced 100 targets in one day.”"

#habsora #ai

2024-01-21

" ‘A mass assassination factory’: Inside Israel’s calculated bombing of Gaza"
972mag.com/mass-assassination-

"Permissive airstrikes on non-military targets and the use of an artificial intelligence system have enabled the Israeli army to carry out its deadliest war on Gaza"

#habsora #ai

2023-12-09

Une "usine Ă  assassinats de masse" : tout sur le logiciel qui sĂšme la mort Ă  Gaza

Les destructions colossales infligĂ©e dans la bande de Gaza alimentent les accusations de riposte disproportionnĂ©e d'IsraĂ«l et de possibles crimes de guerre, formulĂ©es par les opinions publiques mondiales, plusieurs États et responsables de l'ONU.

Un important article du magazine israĂ©lien “+972” paru le 30 novembre a mis la lumiĂšre sur le recours par l’armĂ©e israĂ©lienne Ă  un programme d’intelligence artificielle pour dĂ©signer des cibles de bombardements nommĂ© #Habsora, l’Evangile.

L’emploi de cette technologie pourrait jouer un rĂŽle dans la quantitĂ© inĂ©dite de morts et de destructions.
Si l’on ne possĂšde pas suffisamment d’information sur cet outil pour pouvoir dire si on a affaire Ă  un tournant dans l’art de la guerre, il soulĂšve nĂ©anmoins un certain nombre de questions Ă©thiques et juridiques.

On s’éloigne notamment de la notion de pertes accidentelles, puisque le logiciel fournit une estimation du nombre de pertes civiles que causera l’élimination d’une cible militaire.
Le commandement lance l’opĂ©ration sciemment.
La frontiĂšre entre consĂ©quences visĂ©es intentionnellement et consĂ©quences prĂ©vues sans ĂȘtre recherchĂ©es devient floue.

#Gaza #AI #IA #Evangile #972Magazine

video.liberta.vip/w/9bEzzPtfxf

Client Info

Server: https://mastodon.social
Version: 2025.04
Repository: https://github.com/cyevgeniy/lmst