Welk gebouw, gebied of straat er wordt gebombardeerd in Gaza, niet laten bepalen door mensen, maar door een robot. Dat is wat Israël nu doet, door AI te gebruiken. Experts maken zich er grote zorgen over.

Het computerprogramma heet 'Habsora,' schrijft de Britse krant The Guardian. Habsora is Hebreeuws voor gospel, de 'blijde boodschap'. Door allerlei data aan het systeem te voeren, leert het hoe een Hamasstrijder eruitziet. Die data wordt bijvoorbeeld verzameld door onbemande drones die boven de Gazastrook vliegen. Het doelwit wordt dan naar het Israëlische leger gestuurd, die de aanval inzet.

Ontmenselijking

Aan de TU Delft onderzoekt Stefan Buijsman de Ethiek en Filosofie van AI-systemen. Hij maakt zich zorgen over de inzet van The Gospel. "Wanneer je AI inzet om doelwitten te identificeren, dan ontmenselijkt dat de tegenstander. Je maakt van je tegenstander een reeks cijfers op een beeldscherm, in plaats van dat je kijkt naar de mensen die je wilt uitschakelen."

"Dit gebeurt natuurlijk in elke oorlog. Je kunt pas een ander mens doodschieten als je afscheid hebt genomen van het simpele feit dat het een ander mens is. Maar dit helpt wel om het op grotere schaal te doen zonder dat je je direct bewust hoeft te zijn van de consequenties van je handelingen."

Israël laat AI-systeem aanvalsdoelen bepalen in Gaza

Autonomie binnen bereik

Peter Wijninga van Den Haag Centrum voor Strategische Studies maakt zich minder druk om de ontmenselijking van de tegenstander. Dat is volgens hem van alle tijden. "Vraag een Oekraïnse soldaat wat hij van de Russen vindt en je weet voldoende. En dat speelde ook in de Tweede Wereldoorlog."

Maar dat een autonoom wapensysteem dankzij The Gospel weer een stap dichterbij is, baart hem wel zorgen. "Defensie houdt aan dat het besluit om geweld toe te passen een menselijk besluit is, dus dat laten we niet door een autonoom systeem doen. Maar dat is met deze software wel mogelijk."

Bekijk ook

Veel en snel

Het doel van het Israëlische systeem is om het leger van veel doelwitten te voorzien, vertelt Buijsman. "In Israël ligt de nadruk nu op kwantiteit. En daarom is de controle door mensen weggedrukt. Er kijkt voor de vorm nog wel iemand naar, maar het is vooral veel en snel doelwitten leveren."

Al is voor die snelheid ook weer wat te zeggen, vertelt Peter Wijninga. "Wanneer Hamas een raketinstallatie boven de grond haalt, dan weet je dat ze er mee op Israël zullen schieten. Dit systeem kan dan het doelwit prioriteit geven boven een strijder met een machinegeweer. Daarmee kan dit system potentieel Israëlische levens redden."

De tweestatenoplossing in het Israëlisch-Palestijns conflict uitgelegd

AI in het leger

Hoewel onderzoeker Buijsman kritisch is op het gebruik van AI voor doelwitselectie, ziet hij wel veel voordelen voor militaire doeleinden.

"Maar de focus moet dan liggen op ondersteuning en ervoor zorgen dat je de menselijke besluitvorming verbetert. Niet dat je de nadruk legt op het opvoeren van het aantal doelwitten en zoveel mogelijk mensen, ongeacht waar ze in de rangorde van Hamas zitten, uitschakelen."

Burgerslachtoffers

Volgens het Israëlische leger zorgt The Gospel ervoor dat het aantal burgerslachtoffers beperkt blijft. Bijvoorbeeld wanneer het leger een plek aanvalt en burgers oproept om te vertrekken.

"Het algoritme evalueert dan hoeveel burgers er nog op de plek zijn. Het geeft ons een groen, geel of rood signaal. Zoals een stoplicht", zegt onderzoeker Buijsman

Bekijk ook

Vragen? Stel ze!

Heb je nog vragen of wil je reageren? Stuur ons dan hier een berichtje in onze chat. Elke donderdag vertellen we in de Doe mee-nieuwsbrief wat we met alle reacties doen. Wil je die in je mail? Meld je dan hier aan.