De verwachte AI-verkiezing — en waarom ze niet kwam
Experts voorspelden tsunami. De wat opstond was een golfslagje. Maar terwijl iedereen de grote dreiging verwachtte, gebeurde er iets subtielers waar we minder op waren voorbereid. Drie jaar later blijkt dat de belangrijkste verandering langzamer komt dan aangekondigd.
Eind 2023 en begin 2024 klonk in de internationale media een bijna eenparig alarmsignaal. 2024 zou een verkiezingsjaar zonder weerga worden — meer dan 60 landen, ruim 4 miljard mensen die konden stemmen. Tegelijk waren AI-gegenereerde deepfakes voor het eerst op massale schaal beschikbaar: gratis tools waarmee iedereen een overtuigende video of audio van een politicus kon maken. De combinatie leek apocalyptisch. Democratieën zouden worden overspoeld door synthetische content. Vertrouwen zou ineenstorten. Uitslagen zouden worden gemanipuleerd.
Het gebeurde niet zo.
De Amerikaanse verkiezingen liepen. Biden trok zich terug, Harris werd genomineerd, Trump won. De Europese verkiezingen gebeurden. India stemde. Indonesië. Mexico. Brazilië had peilingen. Geen van deze democratische gebeurtenissen werd gedefinieerd door AI-gemanipuleerde content. Er waren incidenten — sommige spraakmakend — maar geen van de scenario's van totale destabilisatie werd werkelijkheid.
Wat betekent dat? Had de expertgemeenschap het mis? Is AI minder gevaarlijk voor democratie dan gedacht? Of gebeurde er iets subtielers dat we in 2026 pas beginnen te zien?
De concrete incidenten
Het is niet zo dat er niks gebeurde. Een inventaris van de belangrijkste AI-gerelateerde verkiezingsincidenten van 2024:
New Hampshire robocall (januari 2024). Een AI-gegenereerde audio van Joe Biden werd verspreid via automatische telefoontjes naar Democratische kiezers in New Hampshire. De boodschap moedigde hen aan om niet te stemmen in de primary. Het was technisch overtuigend. Een politieke consultant werd later aangeklaagd. Hij kreeg boetes van 6 miljoen dollar en mocht nog 20 jaar niet werken in campagnefinanciering.
Slowakije (september 2023, net buiten het 2024-jaar maar in dezelfde periode). Twee dagen voor de verkiezingen circuleerde een AI-gegenereerde audio waarin kandidaat Michal Šimečka beweerde verkiezingsfraude te plannen en het bierprijsbeleid te willen manipuleren. Het verspreidde zich snel. Šimečka verloor de verkiezingen nipt. Oorzakelijk verband is moeilijk te bewijzen, maar de timing was verdacht.
India (2024). Tijdens de grootste verkiezingen ter wereld circuleerden tientallen deepfakes. Een beroemde werd in Bollywood-stijl gemaakt van Aamir Khan die tegen Modi sprak — fake, maar breed verspreid. Ook deepfakes van overledenen (Jayalalithaa, eerdere politiek leider) die campagne voerden voor hun partij. Effect op uitslag onduidelijk.
Taiwan (januari 2024). In aanloop naar de presidentsverkiezingen verschenen AI-gegenereerde video's met Chinese desinformatie, waaronder fake uitspraken van kandidaat William Lai. Taiwan heeft sterke fact-checking-infrastructuur en de effecten werden snel gemitigeerd.
Plus tientallen, mogelijk honderden, kleinere incidenten in Mexico, de Filipijnen, Argentinië, Venezuela, Europese lidstaten.
De incidenten waren echt. Ze hadden lokaal impact. Maar de cumulatieve impact op democratische uitslagen — voor zover meetbaar — was beperkt.
Waarom het niet erger werd
Drie factoren hebben waarschijnlijk bijgedragen aan de relatieve rustige uitkomst.
Detectie en label-beleid. Grote platforms (Meta, YouTube, TikTok, X) voerden in 2023-2024 beleid in rond synthetische media. Verplichte labeling, verwijdering van bepaalde categorieën, watermarks op AI-gegenereerde content. Niet perfect, maar het verhoogde de transparantie voor gebruikers.
Publieke bewustwording. Door alle waarschuwingen wisten veel mensen dat deepfakes mogelijk waren. Dat maakte ze waakzamer. Als een video op sociale media viraal ging met een ongehoorde uitspraak van een politicus, was "is dit nep?" een eerste vraag bij veel kijkers. Dat vermindert de impact van fakes.
Technische limieten. De generatie van 2024 van deepfake-tools was overtuigend maar niet perfect. Professionele deepfakes vroegen technische expertise. Simpele deepfakes bleven vaak herkenbaar. De katalytische "iedereen kan een perfecte fake maken in vijf minuten"-wereld was technologisch dichterbij dan ooit, maar nog niet volledig werkelijkheid.
De combinatie van deze drie factoren betekende dat de meest catastrofale scenario's niet uitkwamen. Dat was geen automatisme — het was het resultaat van veel werk door fact-checkers, platforms, onderzoekers en burgerorganisaties.
Maar wat wél gebeurde
Hier wordt het interessanter en zorgwekkender. Terwijl iedereen op dramatische deepfakes lette, gebeurde er iets veel stiller.
Bulk-desinformatie. Wat in 2024 massaal opkwam was niet één spectaculaire deepfake maar duizenden, tienduizenden, AI-gegenereerde artikelen, posts, reacties. Per onderwerp, per doelgroep, in meerdere talen. "Sockpuppet"-accounts op sociale media werden drastisch goedkoper om te onderhouden. Waar vroeger een troll-farm mensen nodig had om content te schrijven, kon in 2024 AI dat doen — sneller, goedkoper, in meer talen tegelijk.
Wat is erger: één virale deepfake die grondig wordt weerlegd, of duizend subtiele desinformatie-posts die in de achtergrond de sfeer vormen? Onderzoek suggereert steeds meer dat het tweede. Het is de bulk, niet het spectaculaire, dat polariseert.
Hypertargeting. AI maakt het mogelijk om berichten specifiek af te stemmen op microsegmenten van kiezers. Niet "één boodschap voor alle moeders van middelbare leeftijd" maar duizenden varianten, elk aangepast op recente zorgen van specifieke sociale groepen, bijna individueel. De ethische vragen hier zijn enorm. De regelgeving loopt jaren achter.
De liar's dividend. Dit is misschien het grootste en minst besproken effect. Als mensen weten dat deepfakes bestaan, kunnen oneerlijke actoren echte beschuldigende video's afdoen als "gewoon nog een fake". Trump heeft dit al meerdere keren gedaan met echte uitspraken. Ook buitenlandse leiders, businessmensen, allerlei mensen met iets te verbergen. De term "liar's dividend" werd in 2018 gemunt door juristen Chesney en Citron. In 2024-2026 is het een brede praktijk geworden.
Het subtiele effect
Terwijl dramatische deepfakes relatief beperkt bleven, kraakte er iets anders onder de oppervlakte: algemeen mediavertrouwen. Uit polls in 2024-2025 bleek dat mensen significant minder geneigd waren authentieke nieuwsvideo's te geloven dan voor de AI-golf. Niet omdat de video's veranderd waren, maar omdat het besef dat ze gemanipuleerd hadden kunnen worden, twijfel zaaide.
Dat is misschien wel de diepste schade. Niet dat specifieke fakes kiezers overtuigden. Maar dat het hele mediumcategorie "overtuigend visueel bewijs" voor veel mensen is gedevalueerd. Als alles nep kan zijn, gaan mensen selectief geloven — en wat ze selectief geloven, is meestal wat in hun bestaande wereldbeeld past.
Dat is niet AI's fout in enge zin. Het is het gevolg van een technologische mogelijkheid die onze epistemische infrastructuur uitdaagt. We hadden die infrastructuur al verzwakt door decennia social media. AI heeft haar tot een nieuw breekpunt gebracht.
De regelgeving
Verschillende jurisdicties hebben gereageerd. De EU AI Act (2024) heeft specifieke bepalingen over deepfakes — verplichte labeling, verbod op bepaalde manipulatieve technieken in politieke context. Amerikaanse staten (California, Texas en anderen) hebben eigen wetten aangenomen. De FEC (Federal Election Commission) heeft guidelines uitgegeven. Zuid-Korea heeft zelfs de strengste regels — 90 dagen voor verkiezingen is alle deepfake-content verboden.
De effectiviteit is gemengd. Wetten kunnen producenten aansprakelijk stellen, maar op het internet is bronbepaling moeilijk. Veel content komt via VPN of vanuit jurisdicties zonder vergelijkbare regels. Platforms dragen deels verantwoordelijkheid maar worstelen met schaal.
Wat 2026 leert
Drie jaar na de "AI-verkiezingsapocalyps" die niet kwam, hebben we drie dingen geleerd:
Ten eerste: acute catastrofes gebeurden niet, maar dat was het resultaat van actief werk door vele partijen. Fact-checkers, journalistiek, platforms, onderzoekers — zij deden het moeizame werk dat de worst-case-scenarios afwendde. Dat werk is duur en wordt onderschat.
Ten tweede: de chronische problemen zijn erger dan we dachten. Bulkdesinformatie, hypertargeting, liar's dividend — deze zijn minder zichtbaar dan dramatische deepfakes maar mogelijk schadelijker op lange termijn. Ze zijn ook moeilijker te reguleren en te bestrijden.
Ten derde: onze democratieën hebben veel ingebouwde veerkracht. Decentralisatie van stembureaus, onafhankelijke pers, gespreide besluitvorming — deze structuren zijn niet perfect maar ze bieden veel punten waarop desinformatie moet landen en door moet breken. Eén fake video kan niet hele systemen omverwerpen.
De rustige conclusie
We hebben twee lessen over technologie-angst. De eerste: voorspellingen van technologische rampen zijn vaak dramatischer dan de werkelijkheid. De tweede: rustige veranderingen achter de schermen zijn vaak groter en moeilijker te zien dan de spectaculaire gebeurtenissen die alle aandacht krijgen.
AI heeft onze verkiezingen niet gebroken. Het heeft misschien iets ergs gedaan: het heeft ons mediavertrouwen geërodeerd op een manier die langzamer maar dieper gaat. Het heeft campagne-methoden veranderd op manieren die we nog lang niet volledig doorgronden. Het heeft oneerlijke actoren een nieuw retorisch wapen gegeven (de "it's a deepfake"-verdediging) waardoor echte misstanden makkelijker te ontkennen zijn.
Of dat erger is dan een wereldschokkende fake video die de verkiezing had gekanteld? Dat is een open vraag. Een dramatische catastrofe wekt tenminste duidelijke reactie op. Een sluipende erosie is misschien de gevaarlijkere soort verandering.
2024 was niet het jaar waarin AI de democratie kapot maakte. Maar het was mogelijk het jaar waarin AI begon de bodem eronder weg te rollen, stil en onzichtbaar, op een manier die ons pas later zal duidelijk worden.
De aarde gaat trillen niet alleen bij aardbevingen. Soms zakt ze gewoon, langzaam, tot je plotseling niet meer staat waar je dacht.
Veelgestelde vragen
Welke grote deepfake-incidenten vonden plaats?+
De bekendste: een robocall in januari 2024 met Joe Biden's stem die Democraten ontmoedigde te stemmen in New Hampshire. Ook: een deepfake-audio van de Slowaakse politicus Michal Šimečka vlak voor de verkiezingen in september 2023. Plus tientallen kleinere incidenten wereldwijd.
Had dit echt impact op uitslagen?+
Aannemelijk gering. Postverkiezingsanalyses suggereren dat specifieke deepfakes geen dominante factor waren. Maar onderzoek is inherent moeilijk — je kunt contrafactisch niet meten wat er zonder zou zijn gebeurd.
Wat is de 'liar's dividend'?+
De term, bedacht door juristen Robert Chesney en Danielle Citron, beschrijft hoe de mogelijkheid van deepfakes politici een uitweg geeft om echte beschuldigend materiaal af te doen als 'gefaked'. Dat voordeel voor oneerlijke actoren is mogelijk de grootste impact.
Zijn platforms beter geworden in detectie?+
Een beetje. Grote platforms (Meta, X, TikTok) hebben AI-detectiesystemen en labeling-beleid ingevoerd. Maar detectie loopt achter generatie, en nieuwe technieken blijven komen. Het is een voortdurende race.