Niet een mens, maar een zelfdenkende computer kan bepalen of de trekker van een wapen wordt overgehaald. 150 Nederlandse wetenschappers riepen vandaag op om deze zogenoemde autonome wapens te verbieden.

De groep wetenschappers wil dat er internationale afspraken worden gemaakt over dit soort wapens. Ze komen nu met de oproep, omdat de Nederlandse regering binnenkort het beleid op dit onderwerp opnieuw gaat bepalen.

Wapens worden bestuurd door computers

Internationaal is discussie over deze wapens en een mogelijk verbod. Ons buurland België is bijvoorbeeld voor een verbod, maar de regering in Nederland is terughoudender. Maar wat zijn dit eigenlijk voor wapens?

"Volledig autonome wapens zijn wapensystemen die zelf een doel kunnen herkennen", zegt defensie-expert van het Haags Centrum voor Strategisch Studies Peter Wijninga. "Als het wapen het doel herkent, kan het zelf beslissen om tot aanval over te gaan. Bijvoorbeeld door te schieten, een bom af te werpen of een raket af te vuren." Er komt bij een autonoom wapen dus geen mens meer aan te pas, een computer maakt de beslissingen.

Ook Nederland heeft deze wapens

"Er zijn nog niet zoveel van deze wapens en degenen die er zijn, zijn vooral defensieve wapens", zegt Wijninga. Ook in Nederland hebben we deze. "Bijvoorbeeld de 'goalkeepers' aan boord van Nederlandse marineschepen." Dat systeem herkent het als raketten worden afgevuurd op onze schepen en kan die raketten uitschakelen, zonder tussenkomst van een mens.

"Maar dat is wel allemaal binnen bepaalde grenzen. Een 'goalkeeper' van een schip wordt alleen gebruikt als het projectiel binnen een bepaalde afstand komt, waarvan je kan vaststellen dat hij het schip gaat raken", legt Wijninga uit.

Voordelen van autonome wapens

Ook wordt er naar de snelheid gekeken. Daardoor is de kans klein dat je iets onschuldigs uit de lucht schiet. Het gebruik van zo'n autonoom wapen heeft dan ook voordelen. "De reactie gaat veel sneller dan een mens dat kan."

"Maar waar de wetenschappers zich druk om maken, zijn de wapens met een offensieve en een aanvallende taak. Je kan dan denken aan een drone." Volgens Wijninga is de technologie er al. Zo kun je voertuigen ongestuurd laten rondrijden en er bijvoorbeeld een mitrailleur op monteren.

'Het besluit om te schieten moet menselijk zijn'

Er zitten risico's aan het gebruiken van een autonoom wapen. "Omdat er een fout gemaakt kan worden, en dan kan het verkeerde doel worden beschoten", zegt Wijninga.

Een computer kan immers niet inschatten of hij de juiste beslissing maakt. Dat is ook de reden dat er nog veel twijfel over bestaat. Maar er is ook een ethische reden: "De mens vindt dat het besluit om iets te doden een menselijk besluit moet zijn."

Ruimte voor twijfel

Een mens laat ook ruimte voor twijfel over, vertelt Wijninga. "Mensen kunnen bepaalde omstandigheden in aanmerking nemen. Waardoor het doel bijvoorbeeld het voordeel van de twijfel krijgt. Die denkt: 'Het lijkt er allemaal wel op, maar ik vertrouw het niet, dus ik schiet niet.' Een computer kan zo'n beslissing niet maken. Een computer is binair, 0 of 1, ja of nee."

Volgens Wijninga is internationale regelgeving op dit gebied wel belangrijk. "Als je internationaal met een grote meerderheid van landen afspreekt om autonome wapens uit te sluiten, heb je wel rechtsgrond om andere landen aan te pakken." Als landen zich er niet aan houden, kan je bijvoorbeeld sancties opleggen. Ook kunnen landen elkaar erop aanspreken.

Lees ook