Autonome wapens — de stille AI-wapenwedloop die niemand goedkeurde
Een wapen dat zelf beslist wie het doodt — dat was zo recent nog sciencefiction. In 2026 is het in verschillende vormen operationeel. We hadden er als internationale gemeenschap regels over kunnen maken. We deden het niet. En nu hebben we een technologie die verder gaat dan wie ook precies voor ogen had.
In maart 2020 rapporteerde een panel van VN-experts over een incident in Libië. Een Turks-gemaakte Kargu-2-drone had tijdens gevechten autonoom een menselijke doelwit aangevallen. Geen menselijke beslissing in het moment van de aanval. De drone had zelf de doelwit geïdentificeerd, de beslissing genomen, en uitgevoerd. De rapporteurs beschreven het als mogelijk het eerste gedocumenteerde gebruik van een autonoom wapen dat zelfstandig doodde.
Het Turkse leger ontkende enige problemen. Het incident kreeg gelimiteerde media-aandacht. Geen internationale veroordeling van betekenis. Geen verandering in internationaal verdrags-recht. Geen rem op het groeiende gebruik van vergelijkbare systemen.
Zes jaar later is dit niet meer een specifiek incident maar een categorie. Autonome wapens worden regelmatig ingezet in conflicten. De rode lijn die veel mensen dachten dat we als mensheid zouden trekken — "geen machine mag zelfstandig over leven en dood beslissen" — is niet expliciet overschreden. Maar ze is ook niet vastgelegd. Ze is gewoon vervaagd.
Wat er is en waar
De term "Lethal Autonomous Weapons Systems" (LAWS) dekt een breed spectrum. Aan de ene kant: volledig autonome kill-bots die sciencefiction-achtig klinken. Aan de andere kant: defensieve systemen zoals raketverdedigingssystemen (Israel's Iron Dome, Amerikaanse Phalanx) die al decennia autonoom reageren op inkomende raketten.
De zorgwekkende evolution zit in het middengebied. Drones en kruisvluchten met increasingly geavanceerde autonome modi. Systemen die zelf doelwitten identificeren, classificeren, en aanvallen — met menselijke supervisie "in" of "op" de loop, maar niet noodzakelijk in elke individuele beslissing.
Concrete voorbeelden van 2020-2026:
Kargu-2 drones (Turkije, 2020). Gedocumenteerd in Libië. Kunnen autonoom specifieke doelwitten aanvallen na initiële missie-programmering.
AI-gestuurde drones in Oekraïne-oorlog (2022-heden). Zowel Oekraïense als Russische zijde gebruiken drones met increasingly autonome functies. Oekraïne heeft specifiek geïnvesteerd in anti-jamming-autonomy — drones die doelen kunnen aanvallen zelfs als communicatie-verbindingen worden verstoord.
Lavender-systeem (Israël, 2023-heden). Volgens rapportages van The Guardian en +972 Magazine, een AI-systeem dat Hamas-combattanten identificeert in Gaza. De targeting-beslissing heeft menselijk toezicht, maar de omvang en snelheid suggereren effectieve autonomie in praktijk. Omstreden gebruik met hoge cijfers van civiele slachtoffers.
Chinese autonome wapens. Officiële publicaties zijn beperkt, maar militaire shows hebben systemen getoond die als semi-autonoom worden geclassificeerd. Concrete operationele inzet is moeilijker te bevestigen.
Amerikaanse Project Replicator (2023-heden). Het Pentagon's programma voor "attritable" (opofferbare) autonome systemen — grote aantallen goedkope autonome drones voor zwerm-operaties. Doel: duizenden operationeel in de komende jaren.
Dit zijn maar de meest zichtbare voorbeelden. Veel ontwikkeling gebeurt clasificerend.
De juridische leegte
Internationaal recht over autonome wapens is fragmentarisch en zwak. Bestaande kaders:
International Humanitarian Law (Geneefse Conventies, etc.). Vereist dat aanvallen proportional, discriminerend (burgers vs combattanten), en noodzakelijk zijn. Theoretisch geldt dit voor elke wapentechnologie, ook autonoom. Praktisch: wie handhaaft dat bij een specifieke drone-aanval?
VN Convention on Certain Conventional Weapons (CCW). Sinds 2014 voert de CCW formele discussies over LAWS. In 2019 werd een groep regeringsexperten (GGE) opgezet. In 2024-2025 blijft de discussie zonder concrete resultaten. Consensus-vereiste betekent dat enkele landen (VS, Rusland, China, Israël) effectieve vetorecht hebben over bindende beperkingen.
VN-resolutie. In november 2023 stemde de Algemene Vergadering voor een resolutie die opriep tot dringende actie op LAWS. 164 landen voor, 5 tegen (waaronder Rusland en India), 8 onthoudingen. Maar de resolutie is niet-bindend. Het creëert politieke druk maar geen juridische verplichting.
Nationale wetgeving. Zeer beperkt. Enkele landen hebben intern beleid over autonome wapens (zoals Amerikaanse DoD-richtlijn die "appropriate levels of human judgment" vereist), maar deze zijn flexibel interpreteerbaar.
Het netto-resultaat: bijna geen enkele harde internationaal-juridische grens. De technologie ontwikkelt zich sneller dan het recht. En de instellingen die het recht zouden moeten vormen, lopen vast op machtsconflicten.
De Campaign to Stop Killer Robots
Sinds 2013 voert een coalitie van NGO's een campagne voor een internationaal verbod op autonome wapens. Human Rights Watch, Amnesty International, en vele andere organisaties nemen deel. Hun doel: een verdrag vergelijkbaar met het verdrag over chemische wapens of anti-personeel-landmijnen.
Ze hebben verschillende successen behaald. Publieke bewustzijn gecreëerd. Specifieke landen overgehaald om publiek standpunt tegen LAWS in te nemen. Techbedrijven gemobiliseerd (meer dan 4000 AI-onderzoekers tekenden een open brief in 2018 tegen autonome wapens).
Wat ze niet hebben gebruikt: een bindend internationaal verdrag. De politieke realiteit is complex. Landen die militair afhankelijk zijn van krachtige conventionele strijdkrachten vrezen strategisch nadeel. Landen met zwakkere strijdkrachten zien autonome wapens soms als een manier om kloven te dichten. Consensus is moeilijk.
Activisten worden soms gefrustreerd. Vergelijk met anti-persoonlijke landmijnen: dat verbod (Ottawa-verdrag, 1997) werd in relatief korte tijd bereikt, ondanks aanvankelijke tegenstand. Waarom werkt het niet hier?
Mogelijke redenen: landmijnen zijn specifieker en duidelijker gedefinieerd. Autonomie is een spectrum. Een Phalanx defensie-systeem en een volledig autonome kill-bot zijn technisch niet fundamenteel anders, maar ethisch volledig verschillend. Dat maakt het definiëren van een verbod moeilijk.
De ethische kernvragen
Onder alle diplomatieke complicaties zitten fundamentele ethische vragen.
Kan een machine proportioneel oordelen? Proportionaliteit in oorlog vereist inschatten of civiele schade gerechtvaardigd is door militair voordeel. Dit is complex menselijk oordeel, contextueel. Kan een algoritme dat adequaat doen? Huidige AI heeft tekortkomingen in contextuele nuances.
Kan een machine discriminerend oordelen? Tussen combattanten en burgers, tussen militaire en civiele doelen. In moderne conflicten (asymmetrisch, stedelijk, bevolking-gemengd) is dit uitzonderlijk lastig. Een kind met een speelgoedgeweer. Een ambulance gebruikt voor wapenvervoer. Een menigte waar een enkele gewapende persoon tussen staat. Menselijke soldaten worstelen ermee. Kan AI het?
Wie is verantwoordelijk? Als een autonoom wapen een fout maakt en burgers doodt, wie is aansprakelijk? De programmeur? De commandant die het inzette? Het land dat het bouwde? Het huidige juridische kader voor oorlogsmisdaden vereist menselijke beslissers om aansprakelijk te stellen. Autonome systemen ondermijnen dat.
Dignity en laatste oordeel. Ethici zoals Peter Asaro hebben beargumenteerd dat het fundamentele probleem niet alleen effectiviteit is, maar waardigheid. Mensen zouden het recht moeten hebben om niet door machines te worden gedood. Dit is een moreel argument dat los staat van functionele overwegingen.
Deze vragen worden serieus genomen in academische ethiek. Militaire planners zien ze vaak als onpraktisch — in oorlog telt effectiviteit. De verschillen in perspectief zijn diep.
Wat de toekomst kan brengen
Zonder substantiële juridische of politieke interventie zullen autonome wapens waarschijnlijk verder verspreiden en krachtiger worden. Enkele scenario's:
Status quo voortgezet. LAWS worden gebruikt in conflicten waar gebruikers bereid zijn internationale kritiek te accepteren (of waar internationale aandacht beperkt is). Er komen geen duidelijke verdragsgrenzen. Technologie rijpt. Elk volgend conflict bevat meer autonomie.
Incrementele afspraken. Specifieke subcategorieën worden gereguleerd (bijvoorbeeld: anti-personeel autonome wapens specifiek verbieden, terwijl andere categorieën toegestaan blijven). Een zwakkere maar nog steeds betekenisvolle regulatoire ontwikkeling.
Crisis-gedreven verandering. Een groot incident (autonome wapens die massale civiele slachtoffers veroorzaken onder onvoorspelbare omstandigheden) dwingt tot internationale actie. Verdragsgrenzen worden gecreëerd, maar reactief.
Strategische wapenwedloop. Grote machten (VS, China, Rusland) zien autonomie als strategisch onvermijdelijk en investeren massaal. Geen regulering omdat iedereen op eigen voordeel inzet. Een nieuwe categorie van strategische capaciteit ontstaat vergelijkbaar met nucleaire wapens.
AI-safety-gedreven zelfbeperking. Als AI-safety zorgen (specifiek rond geavanceerde systemen) serieus worden genomen, ontstaat druk om autonome wapens ook te beperken. Geopolitieke verschuivingen kunnen dit mogelijk maken — maar zijn niet verzekerd.
Welk scenario realiteit wordt, weten we nog niet. De huidige trendlijn is zorgwekkend — richting status quo voortgezet of strategische wapenwedloop.
De bredere betekenis
Los van specifieke technologie roept de LAWS-kwestie een bredere vraag op: waarom lukt het niet om AI-wapens te reguleren terwijl we nucleaire wapens wel hebben gereguleerd (onvolledig, maar significant)?
Het antwoord zit mogelijk in de specifieke eigenschappen. Nucleaire wapens zijn duidelijk onderscheidend. Ze vereisen specifieke infrastructuur die te monitoren is. Gebruik heeft catastrofale gevolgen die direct zichtbaar zijn.
AI-wapens zijn anders. Ze bestaan op een spectrum. Monitoring is moeilijk — elke computer kan theoretisch AI-software draaien. Individuele gebruiken kunnen beperkt zijn, zelfs als het patroon over tijd problematisch wordt.
Deze asymmetrie tussen oude en nieuwe wapensoorten maakt traditionele arms-control-benaderingen minder effectief. We hebben mogelijk nieuwe regulatoire instrumenten nodig — zoals transparency-regimes, audit-systemen, andersoortige vertrouwen-opbouwende maatregelen. Maar die zijn nog niet ontwikkeld op schaal.
De individuele verantwoordelijkheid
Voor onderzoekers in AI is er een specifieke vraag: wil je werken aan technologie die ongewild in wapensystemen kan terechtkomen?
Veel AI-technologieën zijn dual-use. Computer vision-onderzoek kan zowel medische diagnose verbeteren als raketafvuur-systemen doen. Natuurlijke taalverwerking kan klantenservice automatiseren of desinformatie genereren.
Sommige onderzoekers hebben besloten om niet aan specifieke militaire toepassingen te werken. Anderen vinden dat ze beter zelf kunnen helpen met ethische afwegingen dan zich volledig terugtrekken.
Voor bedrijven speelt een vergelijkbare vraag. Google trok zich in 2018 terug uit Project Maven (een militair AI-contract) na protest van werknemers. Microsoft had interne discussies over HoloLens-contracten met het Amerikaanse leger. Deze dilemma's zullen blijven.
Voor consumenten is de verantwoordelijkheid indirecter maar bestaat. Welke bedrijven ondersteun je? Welke politiek stem je voor? Welke internationale regelgeving support je?
De stille dringendheid
Het ongemakkelijke aan de LAWS-situatie is dat het niet dramatic genoeg is om continue aandacht te krijgen. Een spectaculair incident met nucleaire wapens zou wereldnieuws zijn voor maanden. Een incident met een autonome drone in een ver conflict krijgt een paar dagen aandacht en verdwijnt dan.
Dat maakt het moeilijker om politieke druk op te bouwen. Maar de realiteit is dat technologie en doctrine zich ontwikkelen onafhankelijk van mediaspotlight. Elke militaire simulatieoefening, elke testvlucht, elke nieuwe versie van een autonome systeem — ze vormen collectief de toekomst van oorlog.
In 2026 zijn we op een kritiek punt. De technologie is geïntroduceerd en wordt gebruikt. De diplomatieke besluitvorming loopt achter. De ethische dilemma's zijn erkend maar niet opgelost.
Historisch gezien worden wapentechnologieën na een tijd meestal gereguleerd — chemische wapens, biologische wapens, sommige nucleaire toepassingen, anti-persoonlijke landmijnen. Niet perfect, maar significant. Of autonome wapens die lijst zullen bereiken, of een fundamenteel ander patroon zullen volgen, weten we niet.
Wat we wel weten: ze worden gebouwd. Ze worden gebruikt. En de wereld waarin ze normaal zijn, vormt zich nu — zonder de brede democratische discussie die beslissingen van deze omvang zouden verdienen.
Dat is, bij vergelijking, misschien het belangrijkste kenmerk van de huidige AI-era. Niet alleen dat AI gebouwd wordt, maar dat we beslissingen over haar toepassingen maken zonder ze expliciet als beslissingen te nemen. De autonome wapens-kwestie is het scherpste voorbeeld. Maar het is niet het enige.
Veelgestelde vragen
Wat is het verschil tussen een drone en een autonoom wapen?+
Een drone (in klassieke zin) wordt op afstand bestuurd door een mens. Een autonoom wapen neemt zelfstandig beslissingen. De grens vervaagt — veel moderne militaire drones hebben semi-autonome modi.
Waar worden ze gebruikt?+
Gedocumenteerd: Turkije in Libië (2020), Azerbeidzjan vs Armenië (2020), Oekraïne tegen Rusland (sinds 2022), Israël in Gaza (sinds 2023). Andere conflicten hebben vermoedelijk vergelijkbare systemen, maar minder gepubliceerd.
Waarom werken verdragen niet?+
De grote militaire machten (VS, Rusland, China) vrezen strategisch nadeel als ze zich beperken terwijl concurrenten niet. Zonder consensus van deze landen is bindend internationaal recht moeilijk. CCW-gesprekken lopen zonder doorbraak sinds 2014.
Wat is de ethische kern?+
Meer dan één. (1) Proportionaliteit: kunnen machines proportioneel reageren in complexe situaties? (2) Discriminatie: kunnen ze burgers en combattanten onderscheiden? (3) Verantwoordelijkheid: wie is aansprakelijk bij fouten? (4) Dignity: mag een machine überhaupt die beslissing nemen?