Algoritmes die ons vormen — de onzichtbare AI die we dagelijks gebruiken

ChatGPT is zichtbaar. Je weet dat je met AI praat. Maar de grote impact van AI op ons leven zit verborgen in algoritmes die niemand ChatGPT noemt — aanbevelingen op TikTok, YouTube, Instagram. Die bepalen wat we zien, wat we lezen, wie we worden.

Persoon scrollt eindeloos door een feed — metafoor voor aanbeveling-algoritmes

Mensen praten over ChatGPT alsof het de AI is die hun leven verandert. In één opzicht klopt dat. In een belangrijker opzicht niet. De AI die het meest heeft gevormd wat wij dagelijks zien, lezen, voelen, en waarover we denken, heeft niets met chatten te maken. Ze draait al tien jaar lang stilletjes op de servers van TikTok, YouTube, Instagram, Facebook, Netflix, Spotify, en miljoenen andere platforms.

Het zijn de aanbeveling-algoritmes. Ze hebben geen naam die we kennen. We klikken er niet bewust op. Maar ze beslissen — elke dag, tientallen keren per persoon — wat we te zien krijgen. En door dat te beslissen, vormen ze onze informatie-omgeving op manieren die we nauwelijks begrijpen.

Wat zijn ze precies?

Een aanbeveling-algoritme is een AI-systeem dat voorspelt welke content een individuele gebruiker waarschijnlijk waardeert, en dan content in die volgorde presenteert. De input: alles wat over die gebruiker bekend is. Eerder bekeken items. Hoe lang ze zijn blijven hangen. Wat ze hebben geliked, gedeeld, becommentarieerd. Met wie ze interacteren. Welke apparaten, welke tijden, welke netwerken.

De output: een geordende lijst met content, elke plaats gekozen op basis van wiskundige voorspelling van waarschijnlijke engagement.

De "engagement"-doelstelling is cruciaal. Bijna alle commerciële platforms optimaliseren hierop — tijd op platform, click-through-rates, delen, reacties. Dat is wat meetbaar is en wat advertentie-inkomsten maximaliseert. Andere doelen (welzijn, feitelijkheid, diversiteit) zijn moeilijker te meten en krijgen meestal geen primaire plaats in de optimalisatie.

Waarom ze zo effectief zijn

Moderne aanbeveling-algoritmes zijn onder de motorkap complex. Ze gebruiken deep learning, dezelfde technologie die ChatGPT mogelijk maakt, om fijne patronen in gebruikersgedrag te identificeren.

TikTok's "Voor Jou"-algoritme wordt vaak als beste voorbeeld genoemd. Het kan nieuwe gebruikers in dagen — soms uren — inschatten. Het gebruikt subtiele signalen die minder ervaren algoritmes missen. Hoe lang kijk je een video voor je doorswipet? Swipet je achteruit om iets opnieuw te bekijken? Zet je het geluid uit bij specifieke categorieën? Op welk moment van de dag ben je meer geneigd tot specifieke soorten content?

Deze signalen — duizenden per gebruiker per sessie — voeden een model dat een verbluffend precies beeld bouwt. Het onderzoek dat ByteDance (TikTok's moedermaatschappij) over zijn algoritme publiceert, toont dat het individuele voorkeursprofielen bouwt die dieper gaan dan wat de meeste mensen zelf over zichzelf weten.

Dat is kracht. Het is ook een soort macht.

De systemische effecten

Voor individuele gebruikers voelen deze algoritmes vaak als een magische gift. Je krijgt precies wat je graag wil zien. Elke video is interessant. Elke song op Spotify past. Elke aanbevolen serie op Netflix is verleidelijk.

Op maatschappelijk niveau hebben ze bijwerkingen die minder rooskleurig zijn.

Filterbubbels. Je ziet steeds meer van wat je leuk vond. Dat zorgt voor een prettige ervaring maar kan isolerend werken. Politiek links krijgt steeds meer linkse content; politiek rechts steeds meer rechtse. Gedeelde ervaring wordt minder.

Onderzoek naar filterbubbels is gemengd. Pariser's oorspronkelijke 2011-boek beschreef het fenomeen alarmerend. Later onderzoek heeft laten zien dat de effecten reëel maar minder extreem zijn dan vermoed. Mensen hebben ook menselijke sociale netwerken die niet-gealgoritmiseerd zijn. Maar het effect is nog altijd meetbaar, en versterkt ander-bestaande trends.

Radicalisering. Sommige algoritmes tonen een patroon waarbij gebruikers geleidelijk naar extremere content worden geleid. YouTube's "rabbit hole"-effect is gedocumenteerd — onderzoekers lieten zien dat je, via slechts een paar "aanbevolen" klikken, van mainstream video's in toenemend extreme content terechtkwam. Dit was bijzonder zichtbaar in politieke content.

YouTube heeft hier beleid op aangepast (deels vanaf 2019) en de ergste trajecten afgezwakt. Maar het fenomeen is niet verdwenen. Andere platforms (TikTok bijvoorbeeld) hebben eigen patronen rond specifieke onderwerpen (zelfbeeld, eetstoornissen bij tieners).

Polarisatie. Algoritmes belonen content die sterke reacties oproept. Genuanceerde content is minder viraal dan verontwaardiging, woede, verontwaardigde kritiek. Over tijd trekt dat de platforms in een richting van emotioneel intensere content — wat het publieke debat polariseert.

Aandachtsvermoeidheid. Eindeloos scrollen produceert een specifieke vorm van mentale uitputting. Gebruikers rapporteren gevoel van tijd-verspilling, ongedefinieerde leegheid, moeite met concentratie op non-gealgoritmiseerde activiteiten (boeken lezen, lange gesprekken).

De TikTok-specialiteit

TikTok verdient specifieke aandacht vanwege hoe anders — en hoe effectief — zijn algoritme is.

Waar Facebook en Instagram voornamelijk voortbouwden op je sociale grafiek (content van mensen die je volgt), bouwt TikTok voornamelijk op je gedrags-grafiek. Wat je volgt doet er nauwelijks toe. Wat je hebt gekeken, hoe lang, met welke intensiteit — dat telt.

Dit heeft TikTok tot een specifiek soort platform gemaakt. Zeer effectief voor ontdekken van nieuwe content en creators. Zeer verslavend — veel gebruikers rapporteren TikTok als moeilijkst los te laten van alle social-apps. En zeer individuell personalizeerbaar — twee gebruikers kunnen volstrekt andere TikTok-ervaringen hebben gebaseerd op niet-zichtbare gedragsverschillen.

Voor content-creators betekent dit dat viraliteit minder afhangt van follower-count en meer van kwaliteit van de content. Een nieuwe creator met 100 followers kan een video maken die miljoenen mensen bereikt, als het algoritme het "waardig" acht. Dat is democratiserend in zekere zin.

Tegelijk betekent het dat ByteDance, als bedrijf, enorme invloed heeft op wat viraal wordt. Een algoritme-aanpassing kan de aandacht van honderden miljoenen mensen verschuiven. Dat is een soort macht dat in de geschiedenis van media vrijwel ongeëvenaard is. Zo veel mensen, zo direct, zo snel.

Politieke en geopolitieke dimensies

TikTok's Chinese eigendom heeft geleid tot geopolitieke zorgen. In de VS werd in 2024 wetgeving aangenomen die ByteDance zou kunnen dwingen om TikTok te verkopen aan een niet-Chinese eigenaar of een verbod te riskeren. Die zaak loopt.

De zorgen zijn niet enkel theoretisch. China's overheid heeft formele autoriteit over Chinese bedrijven zoals ByteDance. In theorie zou TikTok's algoritme kunnen worden gebruikt om Amerikaanse gebruikers specifiek bepaalde content te tonen — politiek pro-China, of anti-iets-wat-China-anti-is, of gewoon tegenstelling aan Amerikaanse nationale belangen.

Of dat ook gebeurt, is onzeker. Onderzoek is gedaan met gemengde resultaten. Sommige studies vonden dat bepaalde onderwerpen (Xinjiang, Taiwan, Tiananmen) onderrepresentatie leken te hebben op TikTok vergeleken met andere platforms. Andere studies vonden niets systematisch. De waarheid zit wellicht ergens tussenin — subtielere vormen van beleidsinvloed die moeilijk te bewijzen zijn.

Maar ook zonder manipulatie zit er een probleem in het algemene patroon: één bedrijf uit één land heeft grote invloed over wat honderden miljoenen mensen in andere landen dagelijks zien. Dat is een vorm van soft-power die we niet eerder op die schaal zijn tegengekomen.

De vraag van keuze

Een filosofisch lastige vraag rond deze algoritmes: in welke zin kiezen we wat we zien?

Aan de ene kant: we kiezen. We openen TikTok. We swipen door. We kunnen de app verlaten. Niemand dwingt ons.

Aan de andere kant: onze keuzes zijn voortdurend gevormd door wat we eerder zagen, wat ons wat bood, wat ons betrok. Het algoritme bepaalt wat er in onze beslissingsruimte ligt. Een oude filosoof (Rousseau misschien) zou zeggen: vrijheid vereist dat de omgeving waarin we kiezen ook onze keuze is. Als de omgeving is geoptimaliseerd om ons op een bepaalde manier te laten kiezen, is dat een subtiele maar betekenisvolle vorm van manipulatie.

Die vraag ligt onder heel veel van de discussie over algoritme-impact. Als gebruikers vrijwillig kiezen voor de content die ze zien, waar is dan het probleem? Maar als hun keuze zelf wordt gevormd door een industrieel proces dat voor engagement is geoptimaliseerd in plaats van voor welzijn, is "vrijwillig" minder overtuigend.

Wat er aan wordt gedaan

Regulering komt langzaam. De EU Digital Services Act (DSA, van kracht sinds 2024) eist dat grote platforms transparant zijn over hun aanbevelingsalgoritmes en gebruikers een niet-gepersonaliseerde feed-optie bieden. Dat is een begin.

Het effect is deels hoopvol. TikTok, Instagram, YouTube — allemaal bieden ze nu in de EU een "chronologische" of "niet-gepersonaliseerde" feed-optie. Maar weinig gebruikers kiezen die actief — de gealgoritmiseerde versie is aantrekkelijker.

Sommige beleidsmakers overwegen verder. Moet er leeftijdsverificatie zijn voor specifieke content? Zouden platforms hun algoritme moeten afstemmen op welzijn in plaats van alleen engagement? Moeten gebruikers meer controle krijgen over wat hun feed bepaalt?

Concrete antwoorden komen in 2026 nog traag. De technologie is sneller dan de politiek. Dat is een recurring theme bij AI.

Individuele bescherming

Voor individuele gebruikers zijn er wel praktische tegenmaatregelen.

Kies bewust niet-gepersonaliseerde feeds waar beschikbaar. Minder precies afgestemd, maar meer diversiteit.

Zet notificaties uit. De notificatie is het belangrijkste instrument om je terug te laten klikken. Wie notificaties uitzet, wordt minder door de app gestuurd.

Ontkoppel tijd van engagement. Gebruik harde limieten (apps zoals Screen Time). Stop als de tijd om is, ongeacht of je "klaar" bent.

Volg bewust mensen en onderwerpen. Een gerichte sociale graaf (wat je volgt) als correctie op de algoritme-graaf (wat je ziet).

Diversifieer je bronnen. Leg voor nieuws niet alles bij één platform. RSS-feeds, nieuwsbrieven, traditionele media naast sociale.

Geen van deze is een volledige oplossing. Allemaal samen helpen ze meer controle terugwinnen.

De bredere betekenis

Terwijl iedereen over ChatGPT praat, werkt de rustigere AI-revolutie al tien jaar lang. Aanbeveling-algoritmes hebben onze aandacht gevormd, onze emoties beïnvloed, ons wereldbeeld indirect bijgesteld — op manieren die we pas achteraf beginnen te begrijpen.

Dat deze AI's onzichtbaar zijn, maakt ze niet minder krachtig. Het maakt ze mogelijk krachtiger, omdat we geen reflex hebben om ze kritisch te beschouwen. ChatGPT noemen we bij naam, stellen we vragen aan, bespreken we. De TikTok-algoritme is er gewoon.

Als we serieus willen zijn over AI's impact op onze samenleving, moeten we zowel de zichtbare (chatbots, generatieve tools) als de onzichtbare (aanbevelingen, filtering, targeting) AI's mee nemen. De onzichtbare zijn mogelijk belangrijker, omdat ze al langer en breder actief zijn.

We staan niet aan het begin van de AI-impact op onze informatie-omgeving. We staan ergens in het midden. En wat we voor ons hebben — meer aanbeveling, meer personalization, meer engagement-optimalisatie — ontwikkelt zich niet automatisch in een richting die goed voor ons is.

Dat verandert alleen als we het willen. En dat willen, begint met het erkennen dat deze algoritmes er zijn, wat ze doen, en waarom ze die manier werken. Dit artikel is een begin. Er zijn lange gesprekken te voeren.

Veelgestelde vragen

Hoe werken deze algoritmes?+

In grote lijnen: je interactie met content (kijken, liken, delen, commentaar) wordt gebruikt om een model van jouw voorkeuren te bouwen. Nieuwe content wordt gerangschikt op basis van voorspelde waarschijnlijkheid dat je ermee zult interacteren. Sommige platforms optimaliseren voor meer specifieke metrics (bijvoorbeeld totale tijd op platform).

Waarom is TikTok zo effectief?+

Het Voor-Jou-algoritme begint vrijwel meteen te leren over nieuwe gebruikers. Binnen dagen kan het een zeer preciese voorkeursprofiel bouwen. Het gebruikt ook zeer subtiele signalen (hoelang je een video kijkt, hoe vaak je achteruit swipet) die andere platforms minder benutten.

Wat is een filterbubbel?+

De term (bedacht door Eli Pariser in 2011) beschrijft het fenomeen waarbij aanbeveling-algoritmes je blootstellen aan steeds meer van wat je al leuk vond, waardoor je geïsoleerd raakt van tegengestelde of diverse informatie. De realiteit is genuanceerder — niet alle algoritmes doen dit even erg — maar het fenomeen is reëel.

Kunnen we deze algoritmes 'onzichtbaar' maken zoals feature-filters?+

In sommige gevallen ja. Instagram heeft een chronologische feed-optie. YouTube heeft opties voor 'personalisation off'. TikTok is recent verplicht in de EU om een niet-gepersonaliseerde feed optie te bieden. Maar de meeste gebruikers maken geen gebruik van deze opties, vaak omdat ze minder 'leuk' zijn.

Deel dit artikel
X / Twitter ↗ Facebook ↗ Mail ↗
Laten we praten

Vragen die je eigen project betreffen?

Elke call begint met luisteren. Vertel waar je staat, dan denken we samen verder.

Binnen 24u een reactie. Altijd persoonlijk.