Gezichtsherkenning — de zachte surveillance die we niet hebben afgesproken

Er is een technologie die sinds 2015 overal is geïntroduceerd zonder dat iemand om toestemming heeft gevraagd. Je gezicht is biometrische data, even uniek als je vingerafdruk, en het wordt dagelijks gescand en opgeslagen op manieren waar je geen overzicht over hebt.

Bewakingscamera's in stedelijke omgeving — symbool voor moderne surveillance

Er was een moment, ongeveer rond 2015, waarop gezichtsherkenning nog opwindende nieuwe technologie was. Wetenschappelijke papers. Demo's op conferenties. Soms een krantenartikel over een verdacht gearresteerd op basis van een scan. Voor de meeste mensen was het toch abstract — iets dat in James Bond-films gebeurde, niet in hun eigen leven.

Elf jaar later is het overal. Wanneer je door een luchthaven loopt, word je gescand. Als je in een grote winkel bent, zijn er camera's die niet alleen filmen maar analyseren. Wanneer je in een Duitse of Nederlandse stad staat, kunnen overheidscamera's gezichten registreren — niet altijd, niet overal, maar vaak genoeg dat de anonimiteit die we als vanzelfsprekend accepteren, niet meer volledig bestaat.

Dit alles is gebeurd zonder dat de meeste mensen het hebben gevraagd. Zonder een duidelijk publiek debat. Zonder een expliciete democratische keuze. Het is de zachtste, stilste surveillance-revolutie van onze tijd.

De techniek

Gezichtsherkenning werkt via een gestandaardiseerd proces. Een camera capture een gezicht. Een algoritme extract "features" — afstand tussen ogen, neusvorm, kaaklijn, tientallen andere parameters. Die features worden omgezet in een numerieke "embedding" — een vector van bijvoorbeeld 512 getallen. Die vector wordt vergeleken met vectoren in een database. Match? Dan identificatie.

De technologie is sinds 2012 (ImageNet-moment) dramatisch verbeterd. Eerder kon een systeem onder gunstige omstandigheden misschien 60-70% accuratesse halen. Moderne diepe neurale netwerken halen boven 99% in gecontroleerde omstandigheden. In de praktijk (slecht licht, bewegende personen, brillen, maskers) halen ze significant minder, maar nog steeds bruikbaar voor veel toepassingen.

Het cruciale punt: face-recognition werkt niet meer per apparaat dat één gezicht herkent. Het werkt op schaal. Een database met miljarden gezichten (Clearview AI claimt er tientallen miljarden te hebben) kan in seconden matchen tegen elke nieuwe scan. De technologie schaalt.

Waar het is — zichtbaar en minder zichtbaar

Luchthaven. CAT (Credential Authentication Technology) op Amerikaanse luchthavens. E-Gates in Schengen. Geautomatiseerde paspoortcontroles op veel internationale vliegvelden. Je ID-foto wordt vergeleken met je live gezicht.

Grenscontrole. Veel landen gebruiken gezichtsherkenning voor in- en uitreis. Biometrische paspoorten bevatten al dit gezicht als data.

Smartphone. Face ID op iPhones, vergelijkbare systemen op Android. Miljarden mensen ontgrendelen dagelijks hun telefoon met hun gezicht.

Sociale media. Facebook's facial recognition voor tag-suggesties is er geweest (en deels teruggetrokken na kritiek). Google Photos identificeert mensen automatisch in je fotobibliotheek.

Winkels. Steeds vaker. "Loss prevention" systemen die bekende dieven of "troublemakers" identificeren. Sommige supermarktketens gebruiken het op grote schaal. Juridisch vaak in een grijs gebied.

Politie. In de VS gebruiken honderden politiekorpsen Clearview AI of soortgelijke diensten. In het VK is er een actieve inzet in steden zoals Londen. In de EU is dit sinds de AI Act beperkter maar niet afwezig.

Publieke ruimte. China's uitgebreide CCTV-netwerk met gezichtsherkenning is beroemd. Minder bekend: veel westerse steden hebben camera-netwerken met deels-gekoppelde gezichtsherkenning voor specifieke doeleinden (bijvoorbeeld voetbalwedstrijden, grote evenementen).

Evenementen en pretparken. Disney World gebruikt gezichtsherkenning voor toegang. Sportstadions voor kaartcontrole. Muziekfestivals soms voor loss prevention.

Veel van deze toepassingen zijn voor gebruikers relatief onzichtbaar. Je merkt niet dat er een scan plaatsvindt. Je weet niet wat er met je gezicht-data gebeurt. Je kunt niet gemakkelijk opt-outen.

Het bias-probleem

Vanaf ongeveer 2018 ontstond een stroom van onderzoek die liet zien dat gezichtsherkenningssystemen systematische verschillen in accuratesse vertoonden over demografische groepen. Joy Buolamwini's werk (MIT) werd bekend — ze liet zien dat commerciële systemen van grote bedrijven (IBM, Microsoft, Face++) substantieel slechter werkten voor vrouwen en mensen met donkerdere huid.

Het NIST (National Institute of Standards and Technology) in de VS deed vervolgens een zeer grondig onderzoek in 2019. Hun bevindingen: de meeste systemen vertoonden disparate accuratesse. Sommige hadden 10-100x hogere foutpercentages voor bepaalde demografische groepen.

Dit is niet abstract. Het heeft echte slachtoffers geproduceerd. In 2020 werd Robert Williams, een zwarte man uit Michigan, gearresteerd op basis van een gezichtsherkenning-match. De match was fout. Hij bracht dertig uur door in de cel voor hij werd vrijgelaten. Meerdere andere gevallen van onterechte arrestaties op basis van gezichtsherkenning zijn gedocumenteerd — vrijwel allemaal mensen van kleur.

Onderzoek heeft de bias-problemen deels verklaard. Trainingsdatasets waren onevenredig wit en mannelijk. Belichtings-calibraties waren geoptimaliseerd voor blanke huid. Menselijke labelers namen onbewust hun eigen voorkeuren mee. Sinds 2020 zijn veel systemen verbeterd — grote leveranciers hebben hun datasets uitgebreid, hun accuratesse over demografische groepen gelijker gemaakt. Maar de problemen zijn niet helemaal verdwenen.

De EU AI Act

Europa heeft de hardste regelgeving over gezichtsherkenning aangenomen. De EU AI Act, voltooid in 2024 en in fasen in werking, classificeert gezichtsherkenning in publieke ruimtes als "verboden" voor real-time identificatie met zeer beperkte uitzonderingen (zoek naar specifieke verdachten van ernstige misdaden, na gerechtelijke goedkeuring).

Dit is een fundamenteel andere positie dan de Verenigde Staten of China. De EU heeft expliciet besloten dat massa-surveillance via gezichten een risico is dat niet gerechtvaardigd is door de voordelen. Dat is een waarden-keuze.

De uitvoering is complex. "Real-time identificatie" is specifiek gedefinieerd. Opslag en latere analyse zijn anders gereguleerd. Privé-bedrijven hebben andere regels dan overheden. Grenscontroles hebben uitzonderingen.

In het algemeen kan gezegd worden dat een Europese burger in 2026 minder risico loopt op ongewenste gezichtsherkenning dan een Amerikaanse of Chinese burger. Dat is een reëel verschil in de fundamentele kwaliteit van burgerschap.

Clearview AI — de controversiële speler

Eén bedrijf verdient specifiek aandacht. Clearview AI heeft tussen 2017 en 2020 stilletjes een database opgebouwd van miljarden gezichten, geschraapt van openbare sociale media zonder toestemming van de mensen in die foto's. Hun bedrijfsmodel: verkopen van zoekopdrachten aan politie, veiligheidsdiensten, bedrijven.

Toen Kashmir Hill van The New York Times in januari 2020 Clearview's bestaan onthulde, barstte een storm los. Privacy-organisaties, overheden en rechtbanken in meerdere landen hebben sindsdien actie ondernomen.

Resultaten: Clearview is verboden of gedeeltelijk ingeperkt in de EU (onder AVG), Canada, Australië, VK. In de VS is het in sommige staten beperkt maar blijft het breed beschikbaar voor politie. Het bedrijf bestaat nog, heeft miljarden gezichten in zijn database, en wordt dagelijks gebruikt door honderden law-enforcement-agencies.

Clearview is niet uniek. PimEyes, een kleinere concurrent, biedt vergelijkbare diensten voor publiek gebruik. Iedereen met internetbetaling kan een foto uploaden en zien waar dat gezicht elders op het web voorkomt — Facebook-profielen, oude nieuwsartikelen, stockfoto-sites. Dat is krachtige technologie in handen van willekeurige gebruikers.

De Chinese kant

Geen bespreking van gezichtsherkenning is compleet zonder China. Daar is de technologie geïntegreerd in bijna elk aspect van het publieke leven. Winkelen, betalen, treinen nemen, toegang tot gebouwen, veel overheidsdiensten — allemaal deels gezichts-gebaseerd.

De Chinese Social Credit System (gedeeltelijk, niet volledig een nationaal geïntegreerd systeem zoals sommige westerse beschrijvingen suggereren) gebruikt gezichtsherkenning als een van haar componenten. Uiguren in Xinjiang zijn specifiek onderworpen aan intensieve biometrische surveillance.

Voor westerse critici is China's gebruik een waarschuwing over wat er kan gebeuren als de technologie zonder sterke rechtsstaat-beperking wordt ingezet. Voor sommige Chinese burgers is het gewoon dagelijkse gemak — sneller toegang, minder frictie, grotere veiligheid op populaire plekken. Beide perspectieven zijn authentiek; de vraag is welke rechten we bereid zijn op te geven voor welke voordelen.

Het consent-probleem

De diepste vraag rond gezichtsherkenning is niet technologie of bias of bedrijfsmodel. Het is toestemming.

Voor de meeste andere vormen van persoonlijke data geldt — althans in principe — dat individuen moeten toestemmen voor verzameling en gebruik. Je gezondheidsdata, je financiële data, je communicatie — allemaal onder privacy-wetten vereisen expliciete toestemming in veel contexten.

Je gezicht werkt anders. Wanneer je in publiek loopt, ben je zichtbaar. Je kunt niet opt-outen van gezien-worden. Dat was historisch geen probleem omdat zien niet hetzelfde was als identificeren + opslaan + correlated met andere data. Gezichtsherkenning verandert dat. Zien wordt identifying. Anonimiteit in publieke ruimte — ooit iets vanzelfsprekends — vereist nu actieve bescherming.

Wat is redelijke toestemming in deze context? Strakke interpretatie: je kunt niet toestemmen voor iets dat plaatsvindt in openbare ruimte waar je niet kunt ontsnappen. Elke bus, elk café, elke straat met een camera vraagt geen toestemming. Mindere interpretatie: door in publiek te verschijnen, accepteer je dat je zichtbaar bent — inclusief voor algoritmes die je kunnen identificeren.

De juridische antwoorden hangen van land af. De EU kiest de strikter interpretatie. De VS is meer permissiever. De waarden-keuze daarachter is fundamenteel.

Wat er te doen is

Voor individuen zijn opties beperkt. Fysieke beschermingen (maskers, speciale glazen) werken deels maar niet volledig en zijn in veel situaties sociaal onmogelijk. Specifieke gadget-technologie om AI te verwarren (CV Dazzle make-up) is niet praktisch voor dagelijks leven.

Politieke en juridische actie is effectiever. Strengere regulering, democratische controle op politiegebruik, transparantie-eisen voor private bedrijven, strafrecht voor misbruik. De EU laat zien dat regulering mogelijk is. Volgen andere jurisdicties?

Voor degenen die bezwaren hebben, is er ook de politieke rol. Kiezen voor politici die privacy serieus nemen. Ondersteunen van organisaties zoals EDRi of AI Now Institute die beleidswerk doen. Meedoen aan publieke consultaties wanneer overheden hun gezichtsherkenningsbeleid herzien.

De ongemakkelijke realiteit

De technologie bestaat. Ze werkt steeds beter. Ze zal niet verdwijnen. Dat is een harde waarheid waarmee elke beleidsdiscussie moet beginnen.

De vraag is niet of er gezichtsherkenning is. De vraag is wat de wereld waarin we met gezichtsherkenning leven, eruit ziet. Wie krijgt toegang tot welke databases? Onder welke omstandigheden? Met welke transparantie? Met welke accountability?

Die vragen hebben democratische antwoorden nodig. Te vaak worden ze beantwoord door technocraten, bedrijven, of overheden zonder publieke discussie. De zachte surveillance wordt dan een feit voor het publiek debat er een mening over heeft gevormd.

In 2026 is dat de staat. Gezichtsherkenning is overal, meestal zonder onze bewuste toestemming, met aanhoudende kwaliteitsproblemen (bias), met beperkt juridisch kader buiten de EU, met commerciële dynamieken die nog weinig gereguleerd zijn.

Dat hoeft niet zo te blijven. Maar veranderen vereist actieve politieke betrokkenheid van mensen die deze gedachte nooit bewust hebben overwogen. Dat is de uitdaging van surveillance-democratie in het AI-tijdperk. Een uitdaging die we nog niet goed aannemen — mede omdat de technologie onzichtbaarder is dan haar implicaties.

Elke keer dat je door een deur loopt, kan er een systeem zijn dat noteert dat jij dat was. Over tien jaar kan dat bewijs nog bestaan, vergeleken worden met andere momenten, gedeeld met andere databases.

Dat is geen science fiction meer. Dat is gewoon vandaag. En het werd mogelijk omdat we er niet hard genoeg over hebben gesproken toen het allemaal begon.

Veelgestelde vragen

Werkt gezichtsherkenning altijd?+

Nee. Accuratesse varieert per systeem, belichting, beeldkwaliteit en demografie. Beste systemen halen 99%+ accuratesse in gecontroleerde omstandigheden. In real-world-setting met slechte beelden is accuratesse significant lager, met hoge valse-positief-rates voor sommige demografische groepen.

Heeft de politie toegang tot mijn gezicht?+

In veel landen (VS, VK, Australië): ja, vaak via Clearview AI of vergelijkbare databases die miljarden publieke foto's hebben verzameld. In EU is dit veel beperkter door AVG en AI Act. Toch kan de politie vaak via tussenstappen toegang krijgen.

Kan ik me beschermen?+

Beperkt. Specifieke make-up patronen ('CV Dazzle'), speciale brillen, maskers kunnen sommige systemen in de war brengen, maar niet alle. Verstandigere beschermingen zijn politiek: wetgeving, transparantie, limieten op overheidsgebruik.

Wat zijn de wettelijke grenzen?+

Europa: EU AI Act beperkt realtime-gezichtsherkenning in publieke ruimtes zeer sterk, met specifieke uitzonderingen. VS: fragmentair — sommige steden (San Francisco, Portland) hebben specifieke verboden, andere staten en steden staan het breed toe. China: grootschalig gebruik in staatscontext.

Deel dit artikel
LinkedIn ↗ X / Twitter ↗ Mail ↗
Laten we praten

Vragen die je eigen project betreffen?

Elke call begint met luisteren. Vertel waar je staat, dan denken we samen verder.

Binnen 24u een reactie. Altijd persoonlijk.