Bloomberg publiceerde een rapport over AI-systemen die door de IDF worden gebruikt en die het aantal doelen dat de IDF kan bestuderen en aanvallen vermenigvuldigen.

Bloomberg publiceerde zondag een rapport over het kunstmatige intelligentieplatform “Fire Factory” van de IDF dat wordt gebruikt in combinatie met een ander AI-platform, om het aantal doelen dat de IDF tegelijkertijd kan bestuderen en aanvallen, sterk te vermenigvuldigen.
De Jerusalem Post publiceerde in april een uitgebreid rapport over dezelfde doelwit- en AI-systemen na een bezoek aan het eigenlijke kantoor van de commandant van de Fire Factory, IDF-kolonel “S.”.
Het rapport van de Post ging dieper in op hoe de ‘AI-doelenbank’ en het AI-platform de balans hebben veranderd van elke strijd die de IDF zou kunnen voeren met Hezbollah of Hamas, bijvoorbeeld omdat de IDF nu het aantal doelwitten in de doelenbank kan verdubbelen in de loop van een conflict, in plaats van zonder doelwitten te geraken.
Daarnaast traceerde het Post-rapport de evolutie in het gebruik van AI door de jaren heen, en vooral sinds 2019 en 2021.
Wat nieuw was in het Bloomberg-rapport, waarin IDF-kolonel “Uri” van de divisie Informatietechnologie werd geïnterviewd, was de meer gedetailleerde verkenning van ethiek.
IDF recruits at the Military Intelligence language school (credit: IDF SPOKESPERSON’S UNIT)

 

In het rapport van Bloomberg staat: “Hoewel beide systemen onder toezicht staan van menselijke operators die individuele doelwitten en luchtaanvalsplannen doorlichten en goedkeuren, is de technologie volgens een IDF-functionaris nog steeds niet onderworpen aan enige internationale of nationale regelgeving.”
“Voorstanders beweren dat de geavanceerde algoritmen de menselijke capaciteiten kunnen overtreffen en het leger kunnen helpen om het aantal slachtoffers tot een minimum te beperken, terwijl critici waarschuwen voor de mogelijk dodelijke gevolgen van het vertrouwen op steeds meer autonome systemen,” aldus het rapport.
The Post heeft topambtenaren van de IDF en andere relevante regeringsfunctionarissen geraadpleegd over ethische kwesties, waarbij de functionarissen precies datgene beweerden wat Bloomberg hierboven citeert: mensen nemen nog steeds de beslissingen en de overweldigende ethische impact van de doelwitbank en het AI-platform is om preciezer te zijn en minder fouten te maken, zodat er minder burgers worden gedood.
Het Bloomberg-rapport gaat echter nog een niveau verder in de veronderstelling van een operatie waarbij de AI-doelwitbank daadwerkelijk een fout maakt waardoor burgers worden gedood.
Wie kan er dan worden vervolgd?
De waarheid is dat er geen antwoord is op deze vraag.
Aanklagers zouden achter de commandant S aan kunnen gaan die verantwoordelijk is voor de doelwitbank, maar zijn achtergrond is meer die van een chef inlichtingendienst en het zou moeilijk zijn om hem verantwoordelijk te houden voor technologische fouten die buiten zijn expertise vallen.
Kolonel Uri en andere technologie-eenheden zouden daarentegen meer verantwoordelijkheid kunnen hebben voor de technologische aspecten van het platform die direct of indirect tot de fout zouden kunnen leiden.
Maar deze technologen zijn meer betrokken bij de productiefase en hebben misschien helemaal niets te maken met de feitelijke doelbeslissing, dus hoe kunnen zij verantwoordelijk worden gehouden?
Op de vraag hoe hij een AI-platform dat te snel en te complex beweegt om door een menselijk brein te kunnen worden gevolgd, zou kunnen controleren, antwoordde hij: “Soms, wanneer je complexere AI-componenten, neurale netwerken en dergelijke introduceert, is het behoorlijk ingewikkeld om te begrijpen wat er door het AI-platform heen ging.
“En soms ben ik bereid om te zeggen dat ik tevreden ben met traceerbaarheid, niet met uitlegbaarheid. Dat wil zeggen, ik wil begrijpen wat voor mij cruciaal is om te begrijpen over het proces en het te controleren, zelfs als ik niet begrijp wat elke ‘neuron’ aan het doen is,” vertelde Uri aan Bloomberg.
Alles wat kolonel Uri zei komt erop neer dat het heel moeilijk zou zijn om in een criminele omgeving te beweren dat hij volledig begreep wat en waarom de AI een beslissing nam. Hij zou in staat kunnen zijn om de verschillende belangrijke gegevenspunten te traceren die de AI doornam voordat het tot zijn analyse kwam, maar dat zou waarschijnlijk bij lange na geen basis zijn voor vervolging.
En de speler die het minst vervolgd zou kunnen worden is de drone piloot die de trekker overhaalt, omdat hij gewoon een beslissing uitvoert waarvan hij weet dat die is goedgekeurd door zowel de AI als een inlichtingenofficier van de IDF.
Als er geen manier is om iemand te vervolgen, noch de trekker overhaalt, noch zijn commandant, noch de technologische architect, is dat dan niet een handige constructie van een paradigma dat verantwoording onmogelijk maakt?
Opnieuw vertelden de IDF en andere regeringsfunctionarissen de Post dat het aantal fouten drastisch is gedaald dankzij de precisie van de AI.
Eerder deze maand werden meer dan 20 drone luchtaanvallen uitgevoerd in Jenin, waarbij slechts 12 Palestijnen werden gedood, die allemaal strijders waren, en geen enkele burger.
De conflicten met Gaza in augustus 2022 en mei 2023 hadden ook minuscule aantallen burgerslachtoffers in vergelijking met eerdere conflicten, en in de meeste gevallen waarin burgers werden gedood, kenden IDF inlichtingen- en juridische functionarissen de risico’s en keurden ze goed op basis van het feit dat het militaire voordeel opweegt tegen de schade aan een beperkt aantal burgers (zoals familieleden van topterroristen).
Dit waren geen fouten van de AI.
Toch zal er op een gegeven moment waarschijnlijk een AI-fout gemaakt worden die burgers doodt, zelfs als onwaarschijnlijke nachtmerriescenario’s in de stijl van een “Terminator”-film waarin AI’s zich tegen mensen keren, nooit werkelijkheid worden.
Als de IDF een piek in aanklachten wegens oorlogsmisdaden wil voorkomen, zou ze nu al moeten beginnen met het uitwerken van een format om iemand in zo’n geval ter verantwoording te roepen, waarbij gelijkgestemde landen in de VS en de EU bereid zijn om het proces te erkennen.

_________________________________________________________

Bronvermelding:

Datum:
16-7-2023

Auteur:
Yonah Jeremy Bob

Beeld:
Soldiers of the IDF’s Shahar Unit. (photo credit: IDF SPOKESPERSON’S UNIT)

Website:
www.jpost.com

EN / NL/ עב