Geoffrey Hinton — hoe de vader van AI zijn eigen kind ging vrezen

Geoffrey Hinton bouwde een deel van de AI waar we nu mee leven. Hij heeft er veertig jaar aan besteed. In 2023 stopte hij bij Google om publieklijk te kunnen waarschuwen dat het werk dat hij hielp mogelijk maken, gevaarlijker kon zijn dan bouwers in het veld toegeven.

Wetenschapper in een bibliotheek — metafoor voor Hinton's carrière

In 1986 publiceerden drie onderzoekers — David Rumelhart, Geoffrey Hinton en Ronald Williams — een paper getiteld Learning representations by back-propagating errors. Het was geen bestseller buiten de AI-gemeenschap. Maar voor wie het las, was het een fundamentele doorbraak. Ze beschreven een wiskundig algoritme — backpropagation — dat neural networks in staat stelde om systematisch te leren uit voorbeelden. Zonder dat algoritme zou moderne AI niet bestaan.

Hinton was toen 38 jaar oud. Een Britse wetenschapper die naar Canada was verhuisd, werkend aan iets dat op dat moment niet hip was — neural networks werden in de jaren tachtig en negentig grotendeels uit de mode beschouwd. Hij bleef erin geloven. Decennia lang.

Veertig jaar later, in oktober 2024, kreeg hij op zijn 76e de Nobelprijs voor Fysica. Gedeeld met John Hopfield, voor hun samenwerkend werk aan de basis van neurale netwerken. Hinton was op dat moment niet meer bij Google. Hij was ontslag genomen — niet gepensioneerd, maar weggegaan — om vrijelijk over AI-risico's te kunnen praten. En op het moment dat hij de Nobelprijs ontving, was hij waarschijnlijk de meest invloedrijke waarschuwende stem over AI in de wereld.

Hoe komt iemand tot die plek? Van bouwer tot criticus van wat je zelf hielp maken?

De godfather-jaren

Hinton was niet alleen co-auteur van de backpropagation-paper. Hij leidde voor decennia kleine onderzoeksgroepen die neural network-onderzoek levend hielden toen de AI-community grotendeels andere richtingen volgde. Zijn studenten — Yann LeCun, Yoshua Bengio, Ilya Sutskever — werden zelf belangrijke figuren in de technologie.

In 2012 was het zijn lab in Toronto waar AlexNet werd ontwikkeld — de inzending die de ImageNet-competitie won en de deep learning-revolutie aanwakkerde. Hinton, Sutskever en Alex Krizhevsky waren de drie auteurs. Het was Hinton's werk, gedaan door zijn studenten, dat de wereld liet zien dat neural networks op industriële schaal werkten.

Een jaar later kocht Google hun bedrijfje DNNresearch. Hinton werd deeltijds aan Google verbonden. Hij hielp Google's research-infrastructuur opbouwen. Sutskever ging later naar OpenAI (en werd daar centraal bij GPT-3 en -4). Veel van het AI-veld dat nu bestaat, is deels opgebouwd door Hinton's directe invloed en zijn studenten.

In 2018 ontving hij (met Bengio en LeCun) de Turing Award — de meest prestigieuze prijs in de computerwetenschappen. Alle drie kregen de informele titel "godfathers of deep learning". Wat in de jaren negentig een buitenbeentje-onderzoek was, was nu de dominante richting in AI.

De vertrek

Op 1 mei 2023 publiceerde de New York Times een interview met Hinton. Hij had Google verlaten. Zijn expliciete reden: hij wilde over AI-risico's kunnen praten zonder dat zijn uitspraken werden gezien als Google's standpunt.

Het artikel, geschreven door Cade Metz, was explosief. Hinton — een van de meest gerespecteerde AI-figuren ter wereld — was publiek bezorgd geworden over de technologie die hij had helpen creëren.

Zijn zorgen, zoals hij ze toen verwoordde:

Korte termijn. Massale desinformatie. Verkiezingsmanipulatie. Deepfakes en nep-audio op schaal. Verlies van banen in kenniswerk. Onzekerheid over wat echt is.

Middellange termijn. Autonome wapens — drones die zelfstandig beslissingen nemen over leven en dood. Die technologie was in ontwikkeling bij verschillende militairen. Hinton vond dat vreselijk.

Lange termijn. En hier werd hij filosofisch. Hij wees op het feit dat we systemen bouwden die intelligenter worden, en dat we niet zeker wisten hoe we ze onder menselijke controle konden houden. "Het is een beetje alsof we nu intelligente wezens creëren die slimmer zijn dan wij, en we weten niet hoe we ze moeten beheersen."

Die laatste zorg — vaak existential risk of x-risk genoemd — was controversieel. Sommige AI-onderzoekers, zoals Yann LeCun (ook godfather, Hinton's vroegere samenwerker), waren het er niet mee eens. "We zijn nog niet eens in de buurt", zei LeCun meer dan eens. "Hinton overschat de capaciteiten van huidige modellen en ondertschat de afstand tot iets werkelijk intelligents."

Wat hij sindsdien heeft gezegd

In de drie jaar na zijn vertrek bij Google heeft Hinton uitgebreid gesproken — in interviews, op conferenties, in een reeks publieke lezingen. Zijn zorgen zijn consistent gebleven en in sommige opzichten scherper geworden.

Hij noemt specifieke probabiliteiten. In verschillende interviews heeft hij zijn persoonlijke inschatting gedeeld: ongeveer 10-20% kans dat geavanceerde AI binnen 30 jaar tot een existentiële catastrofe leidt. Niet zeker, maar significant genoeg om serieus te nemen. Hij vergelijkt het met risico's van nucleaire wapens of klimaatverandering — niet onvermijdelijk, maar reëel genoeg om massieve investering in preventie te rechtvaardigen.

Zijn centrale argument: als we systemen bouwen die slimmer zijn dan wij, hebben we geen garantie dat ze waarden zullen delen die met onze samenleven compatibel zijn. We kunnen proberen ze te programmeren of trainen, maar voldoende slimme systemen kunnen onze trainingsdoelen mogelijk ondergraven — of op manieren interpreteren die niet wenselijk zijn.

Hij wijst op historische analogieën. Als minder-slimme soorten (dieren) een slimmere soort krijgen (mensen), verandert die situatie zelden in het voordeel van de minder-slimmen. We zijn aan het proberen een situatie te creëren waarin we zelf die minder-slimme soort zijn, maar tegelijk controle willen behouden. Dat is een ongebruikelijk en niet-vanzelfsprekend doel.

De Nobelprijs

Op 8 oktober 2024 werd aangekondigd dat Hinton en Hopfield de Nobelprijs voor Fysica 2024 zouden ontvangen. Dat was niet onomstreden — sommigen meenden dat hun werk meer bij computer science dan bij fysica hoorde. Maar het Nobelcomité koos bewust om neural networks als significant fysisch onderwerp te erkennen.

In zijn Nobellezing sprak Hinton niet alleen over zijn werk, maar ook over zijn zorgen. Het was een ongebruikelijk ernstige lezing voor een Nobelprijs — geen optimistische wetenschappelijke triomftocht, maar een waarschuwing van een man die zijn hele carrière aan AI had gewijd.

Hij zei iets dat bleef hangen. "I used to think we had a lot of time. Now I think we may not have much time at all." Hij had zijn geloof in het tijdschema verschoven. Wat lang een "ooit in een verre toekomst"-zorg leek, was voor hem iets geworden voor de komende twee, drie decennia.

Dat was geen tinfoil-hat-doemdenken. Dit was de Nobelprijs-winnende wetenschapper, met vijf decennia ervaring in het veld, publiekelijk zeggend dat hij ongerust was.

Hinton versus LeCun

Een opvallende dynamiek in het huidige AI-veiligheidsdebat is de meningsverschil tussen Hinton en Yann LeCun. Beide zijn godfathers van deep learning. Beide kregen de Turing Award. Beide hebben decennia gewerkt aan de technologie die nu bestaat.

Ze verschillen diep van mening over x-risk.

LeCun's positie: huidige modellen zijn verre van echt intelligent. Ze imiteren intelligentie maar missen fundamentele kenmerken (causaal redeneren, lichamelijk begrip, lange-termijnplanning). De stap naar werkelijk gevaarlijke AI vereist doorbraken die we nog niet hebben. Vele decennia weg. X-risk-zorgen zijn overdreven.

Hinton's positie: we onderschatten continu hoe snel AI-capaciteiten groeien. Elke generatie modellen overtrof eerdere verwachtingen. De lijn tussen "nuttige AI" en "gevaarlijk superieure AI" is zachter dan we denken. Bovendien — zelfs als we 50 jaar hebben, is dat niet veel tijd om veiligheidsmechanismen te ontwikkelen.

Beide zijn rationeel onderbouwd. Beide zijn verdedigd door wetenschappers van topniveau. Deze discussie is niet op te lossen met verwijzing naar "de experts"; onder de experts bestaat reëel meningsverschil.

Wie gelijk heeft, weten we pas als de toekomst er is. Voor beleidsmakers betekent dat risk-aversion: zelfs als Hinton maar een beetje gelijk heeft, is investeren in veiligheid rationeel.

Wat zijn invloed is

Hinton's stap naar publieke waarschuwing heeft meetbaar effect gehad op het AI-veiligheidsdebat.

Hij heeft vele journalisten geïnspireerd om AI-risico's serieuzer te nemen dan voorheen. Zijn uitspraken worden in vrijwel elke belangrijke media-coverage over AI-safety geciteerd.

Hij heeft andere prominente onderzoekers aangemoedigd om openlijker te zijn. Yoshua Bengio — de derde Turing Award-winnende godfather — heeft zijn eigen zorgen versterkt geuit. Er is een soort "Hinton-effect" waarbij andere senior-onderzoekers zich veilig voelen om hun zorgen publiek te delen.

Hij heeft bijgedragen aan beleidsgesprekken. Hij werd opgenomen in adviesrondes rond AI-wetgeving. Zijn argumenten vormden deel van de basis voor de Executive Order op AI van de VS (2023), de EU AI Act, en verschillende andere belangrijke beleidsdocumenten.

Hij heeft ook investeringen aangewakkerd in AI-safety-onderzoek. Bedrijven zoals Anthropic, onderzoeksorganisaties zoals MIRI, academische groepen zoals Berkeley's CHAI — hebben allemaal toename in fondsen gezien mede door de algemene erkenning dat AI-veiligheid er serieuzer toe doet.

De persoonlijke kant

Voor Hinton persoonlijk is de zaak niet emotionele-neutraal. In interviews heeft hij gesproken over ambivalentie. Hij heeft veertig jaar aan AI gewerkt. Hij heeft duizend studenten opgeleid die nu in de industrie werken. Hij kan niet simpelweg zeggen "dit was een fout" zonder de waarde van zijn eigen leven te ontkennen.

Maar hij zei ook: "Als ik het over had moeten doen met de kennis van nu, had ik waarschijnlijk voor andere onderzoeksgebieden gekozen." Dat is niet een onbelastende uitspraak van iemand met zijn staat van dienst. Het is een erkenning dat wat hij heeft helpen bouwen, mogelijk meer risico's meebrengt dan hij indertijd besefte.

In andere momenten laat hij zien dat hij nog steeds trots is op wetenschappelijke doorbraken. Hij geniet van Nobelprijs-erkenning. Hij vindt de intellectuele reis waardevol. Maar hij weigert de ethische complicaties te negeren.

De eeuwige vraag

Hinton's positie brengt een eeuwige vraag over wetenschap en verantwoordelijkheid naar voren. Iedere wetenschapper wiens werk tot ambivalente gevolgen leidt — Oppenheimer bij nucleaire wapens, Einstein bij massa-energie-equivalentie, de natuurkundigen achter de ontwikkeling van kernwapens — heeft deze situatie gekend. Kun je verantwoordelijkheid dragen voor wat mensen met jouw ontdekking doen? Heb je een plicht om je werk publiek te bestrijden als je later tot andere inzichten komt?

Hinton koos voor de publieke bestrijding. Hij deed het relatief laat — veertig jaar nadat hij begon — maar hij deed het luid. Of dat in balans brengt wat hij mede heeft veroorzaakt, is een vraag die filosofen nog lang zullen behandelen.

Wat wel duidelijk is: een wetenschapper die publiek eerlijk is over zijn twijfels, voegt iets toe dat anders zou ontbreken. Hij laat zien dat de mensen die AI hebben gemaakt niet unaniem optimistisch zijn. Dat binnen het veld serieus nagedacht wordt over gevaren. Dat ambivalentie past bij wie deze technologie werkelijk kent.

Voor mensen die over AI beslissingen moeten nemen — beleidsmakers, kiezers, gewone mensen — is dat waardevolle informatie. Het is beter dat iemand die het beter weet dan de meesten, zijn zorgen uitspreekt, dan dat iedereen zwijgt en we als samenleving uit het donker moeten beoordelen.

Hinton's laatste zin in zijn Nobellezing: "I hope I am wrong." Hij hoopt ongelijk te hebben. Maar hij gelooft dat de kans op gelijk groot genoeg is om te moeten waarschuwen. Van een 76-jarige man die zijn leven heeft gewijd aan dit veld, is dat iets om naar te luisteren.

Hij zal niet lang meer actief zijn. Zijn werk zal blijven — in de industrie, in de zorgen, in de beleidsdiscussies. Wat hij heeft gegeven is meer dan een paar wetenschappelijke doorbraken. Hij heeft een model van intellectuele eerlijkheid gegeven — de bereidheid om je eigen leven-werk te problematiseren wanneer je ontdekt dat het meer meebrengt dan je dacht.

Dat is zeldzaam in een wereld die allergisch reageert op doorslaande overtuigingen. Hinton tonen hoe je trouwt blijft aan de waarheid zoals je haar op elk moment ziet — ook als die verandert. Dat is, misschien, de les die het langst bij ons blijft. Los van de wiskunde, los van de AI. De man die probeerde eerlijk te zijn, tot het laatst.

Veelgestelde vragen

Wat is backpropagation?+

Het wiskundige algoritme dat neural networks in staat stelt om te leren uit voorbeelden. Hinton co-ontwikkelde het in de jaren tachtig. Zonder backpropagation zou moderne deep learning niet bestaan.

Waarom stopte hij bij Google?+

Hij wilde vrijelijk over AI-risico's kunnen praten zonder dat zijn uitspraken werden opgevat als Google's officiële standpunt. In zijn eigen woorden: 'zodat ik kan praten over de risico's van AI zonder me zorgen te maken over hoe dat Google beïnvloedt.'

Wat zijn zijn specifieke zorgen?+

Verschillende, waaronder: misinformatie, economische ontwrichting, autonome wapens, en — meest controversieel — de mogelijkheid dat superintelligente AI menselijke controle zou kunnen ontglippen. Hij schat het risico op existentiële catastrofe rond 10-20% in de komende decennia.

Is zijn mening representatief voor het veld?+

Gedeeltelijk. Andere pioniers zoals Yoshua Bengio delen zijn zorgen. Anderen zoals Yann LeCun (ook 'godfather') zijn veel minder bezorgd. Het is niet consensus, maar Hinton's stem heeft aanzienlijk gewicht in de debatten.

Deel dit artikel
X / Twitter ↗ Facebook ↗ Mail ↗
Laten we praten

Vragen die je eigen project betreffen?

Elke call begint met luisteren. Vertel waar je staat, dan denken we samen verder.

Binnen 24u een reactie. Altijd persoonlijk.