Science >> Wetenschap >  >> anders

Israël wordt ervan beschuldigd AI te gebruiken om duizenden mensen in Gaza aan te vallen, omdat killer-algoritmen het internationale recht voorbijstreven

Krediet:Pixabay/CC0 Publiek Domein

Het Israëlische leger gebruikte een nieuw systeem voor kunstmatige intelligentie (AI) om lijsten te genereren van tienduizenden menselijke doelwitten voor mogelijke luchtaanvallen in Gaza, volgens een rapport dat vorige week werd gepubliceerd. Het rapport is afkomstig van de non-profitorganisatie +972 Magazine, die wordt beheerd door Israëlische en Palestijnse journalisten.



Het rapport citeert interviews met zes niet nader genoemde bronnen in de Israëlische inlichtingendienst. De bronnen beweren dat het systeem, bekend als Lavender, samen met andere AI-systemen werd gebruikt om vermoedelijke militanten aan te vallen en te vermoorden – velen in hun eigen huizen – waarbij grote aantallen burgerslachtoffers vielen.

Volgens een ander rapport in de Guardian, gebaseerd op dezelfde bronnen als het +972-rapport, zei een inlichtingenofficier dat het systeem "het gemakkelijker maakte" om grote aantallen aanvallen uit te voeren, omdat "de machine het koel deed".

Terwijl legers over de hele wereld racen om AI te gebruiken, laten deze rapporten ons zien hoe het eruit zou kunnen zien:oorlogvoering op machinesnelheid met beperkte nauwkeurigheid en weinig menselijk toezicht, met hoge kosten voor burgers.

Militaire AI in Gaza is niet nieuw

Het Israëlische leger ontkent veel van de beweringen in deze rapporten. In een verklaring aan de Guardian zei het dat het "geen gebruik maakt van een systeem van kunstmatige intelligentie dat terroristische agenten identificeert". Er staat dat Lavender geen AI-systeem is, maar “gewoon een database die tot doel heeft inlichtingenbronnen te vergelijken”.

Maar in 2021 meldde de Jerusalem Post dat een inlichtingenfunctionaris zei dat Israël zojuist zijn eerste ‘AI-oorlog’ had gewonnen – een eerder conflict met Hamas – door gebruik te maken van een aantal machine learning-systemen om gegevens te doorzoeken en doelen te produceren. In hetzelfde jaar werd onder een pseudoniem een ​​boek gepubliceerd met de titel The Human-Machine Team, dat een visie schetste op AI-aangedreven oorlogvoering, door een auteur die onlangs bleek het hoofd te zijn van een belangrijke Israëlische clandestiene inlichtingeneenheid.

Vorig jaar zei een ander +972-rapport dat Israël ook een AI-systeem gebruikt, genaamd Habsora, om potentiële militante gebouwen en faciliteiten te identificeren om te bombarderen. Volgens het rapport genereert Habsora 'bijna automatisch' doelwitten, en een voormalige inlichtingenofficier beschreef het als 'een massamoordfabriek'.

Het recente +972-rapport claimt ook een derde systeem, genaamd Where's Daddy?, dat door Lavender geïdentificeerde doelen in de gaten houdt en het leger waarschuwt wanneer ze naar huis terugkeren, vaak naar hun familie.

Dood door algoritme

Verschillende landen wenden zich tot algoritmen op zoek naar een militair voordeel. Het Project Maven van het Amerikaanse leger levert AI-targeting die is gebruikt in het Midden-Oosten en Oekraïne. Ook China haast zich om AI-systemen te ontwikkelen om gegevens te analyseren, doelen te selecteren en te helpen bij de besluitvorming.

Voorstanders van militaire AI beweren dat dit snellere besluitvorming, grotere nauwkeurigheid en minder slachtoffers in oorlogsvoering mogelijk zal maken.

Toch meldde Middle East Eye vorig jaar dat een Israëlische inlichtingendienst zei dat het ‘helemaal niet haalbaar’ was om elk door AI gegenereerd doel in Gaza door mensen te laten beoordelen. Een andere bron vertelde +972 dat ze persoonlijk "20 seconden zouden investeren voor elk doelwit", wat slechts een "stempel" van goedkeuring zou zijn.

Het antwoord van de Israëlische strijdkrachten op het meest recente rapport zegt dat "analisten onafhankelijke onderzoeken moeten uitvoeren, waarin zij verifiëren dat de geïdentificeerde doelen voldoen aan de relevante definities in overeenstemming met het internationaal recht".

Wat de nauwkeurigheid betreft, beweert het laatste +972-rapport dat Lavender het proces van identificatie en kruiscontrole automatiseert om er zeker van te zijn dat een potentieel doelwit een hoge militaire figuur van Hamas is. Volgens het rapport heeft Lavender de targetingcriteria versoepeld om lager personeel en zwakkere bewijsstandaarden erbij te betrekken, en maakte het fouten in "ongeveer 10% van de gevallen".

Het rapport beweert ook dat een Israëlische inlichtingenofficier dit zei vanwege de Where's Daddy? Volgens het systeem zouden doelen ‘zonder aarzeling, als eerste optie’ in hun huizen worden gebombardeerd, wat tot burgerslachtoffers zou leiden. Het Israëlische leger zegt dat het "de claim met betrekking tot elk beleid om tienduizenden mensen in hun huizen te doden ronduit verwerpt".

Regels voor militaire AI?

Nu militair gebruik van AI steeds gebruikelijker wordt, zijn ethische, morele en juridische problemen grotendeels een bijzaak geworden. Er zijn tot nu toe geen duidelijke, universeel aanvaarde of juridisch bindende regels over militaire AI.

De Verenigde Naties discussiëren al meer dan tien jaar over ‘dodelijke autonome wapensystemen’. Dit zijn apparaten die zonder menselijke tussenkomst richt- en schietbeslissingen kunnen nemen, ook wel bekend als "killerrobots". Vorig jaar was er enige vooruitgang.

De Algemene Vergadering van de VN stemde voor een nieuwe ontwerpresolutie die ervoor moet zorgen dat algoritmen “niet de volledige controle mogen hebben over beslissingen die moord betreffen”. Afgelopen oktober brachten de VS ook een verklaring uit over het verantwoorde militaire gebruik van AI en autonomie, die sindsdien door vijftig andere staten is onderschreven. Vorig jaar vond ook de eerste top over het verantwoord gebruik van militaire AI plaats, gezamenlijk georganiseerd door Nederland en de Republiek Korea.

Over het geheel genomen hebben de internationale regels over het gebruik van militaire AI moeite om gelijke tred te houden met de ijver van staten en wapenbedrijven voor hightech, op AI gebaseerde oorlogsvoering.

Het 'onbekende' onder ogen zien

Sommige Israëlische startups die AI-producten maken, maken naar verluidt een verkoopargument van hun gebruik in Gaza. Toch suggereert de rapportage over het gebruik van AI-systemen in Gaza hoe ver AI tekortschiet in de droom van precisieoorlogvoering, maar in plaats daarvan ernstige humanitaire schade veroorzaakt.

De industriële schaal waarop AI-systemen zoals Lavender doelen kunnen genereren, verdringt ook effectief mensen in de besluitvorming.

De bereidheid om AI-suggesties te accepteren zonder enige menselijke controle vergroot ook de reikwijdte van potentiële doelwitten, waardoor grotere schade wordt aangericht.

Een precedent scheppen

De rapporten over Lavender en Habsora laten ons zien waartoe de huidige militaire AI al in staat is. De toekomstige risico’s van militaire AI kunnen nog verder toenemen.

De Chinese militaire analist Chen Hanghui heeft bijvoorbeeld een toekomstige ‘slagveld-singulariteit’ voor ogen, waarin machines beslissingen nemen en acties ondernemen in een tempo dat te snel is voor een mens om te volgen. In dit scenario blijven er weinig meer over dan toeschouwers of slachtoffers.

Een studie die eerder dit jaar werd gepubliceerd, klonk opnieuw als een waarschuwing. Amerikaanse onderzoekers voerden een experiment uit waarin grote taalmodellen zoals GPT-4 de rol van landen speelden in een wargaming-oefening. De modellen raakten bijna onvermijdelijk verstrikt in wapenwedlopen en escaleerden conflicten op onvoorspelbare manieren, waaronder het gebruik van kernwapens.

De manier waarop de wereld reageert op het huidige gebruik van militaire AI – zoals we in Gaza zien – zal waarschijnlijk een precedent scheppen voor de toekomstige ontwikkeling en het gebruik van de technologie.

Aangeboden door The Conversation

Dit artikel is opnieuw gepubliceerd vanuit The Conversation onder een Creative Commons-licentie. Lees het originele artikel.