Wanneer AI wetenschapper wordt — van eiwitten naar wiskunde
Tot kort geleden waren wetenschappelijke ontdekkingen iets menselijks. Je dacht, je hypothetiseerde, je experimenteerde. In 2024 deed een AI dat grotendeels zelf voor een wiskundig probleem dat decennia open had gestaan. Andere voorbeelden volgen. Wetenschap krijgt een nieuwe, nog niet benoemde vorm.
Op 14 december 2023 publiceerde DeepMind een paper in Nature. Titel: Mathematical discoveries from program search with large language models. De inhoud was, voor wie aandacht besteedde, verbluffend.
DeepMind's team had een systeem gebouwd dat het "FunSearch" noemde. Het combineerde twee componenten — een LLM (Google's PaLM 2) die code-varianten voor een wiskundig probleem voorstelde, en een evolutionair selectiemechanisme dat de beste varianten behield en verfijnde.
Ze richtten het systeem op het "cap set"-probleem — een open probleem in combinatoriek dat wiskundigen sinds de jaren zeventig bestudeerden. De vraag: wat is de grootst mogelijke verzameling punten in een bepaalde geometrische ruimte waar geen drie punten een specifieke soort lijn vormen?
Wiskundigen wisten de beste constructie die toen bestond. FunSearch vond een betere. Niet door brute force — de zoekruimte is astronomisch groot — maar door de LLM te gebruiken om "plausibele" codevarianten voor te stellen, die daarna werden getoetst en de beste behouden.
Dat was een nieuwe wiskundige bevinding, gemaakt door een AI-systeem. Niet door brute zoekkracht alleen. Door iets wat aan kleine, begeleide zoektocht deed binnen een onmogelijk grote ruimte — precies wat menselijke wiskundigen ook doen.
Wat dit betekende
Dit was niet de eerste keer dat AI in wetenschap werd gebruikt. Machine learning is al decennia een instrument in data-analyse. Maar FunSearch deed iets anders. Het maakte een nieuwe wiskundige ontdekking die eerder niet bestond.
Wiskundigen reageerden gemengd. Sommigen waren blij — nieuwe kennis is altijd welkom, zelfs van een onverwachte bron. Anderen waren sceptisch — is dit "wiskunde bedrijven" of "wiskunde vinden"? Sommigen wisten niet goed wat ze ermee aan moesten — hoe citeer je dit? Wie krijgt credit?
Die vragen zijn niet trivial. Wetenschap is grotendeels een sociale constructie. Wie ontdekt wat, bepaalt reputaties, prijzen, carrière-paden. Als een AI iets ontdekt, wie is dan de ontdekker? DeepMind? Het AI-systeem? De onderzoekers die het systeem ontwierpen?
In de praktijk krediteerden de auteurs van de paper het DeepMind-team, met erkenning aan het AI-systeem. Toekomstige conventies zijn nog in ontwikkeling.
Andere voorbeelden
FunSearch was niet alleenstaand. Vergelijkbaar werk kwam van andere hoeken.
AlphaGeometry (DeepMind, januari 2024). Een systeem dat meetkundige bewijzen vindt op olympisch niveau. Het haalde bijna-medaille-niveau op de International Mathematical Olympiad.
AlphaProof (2024-2025). Een uitbreiding die bewijzen kan leveren in formele wiskundige taal (Lean). Gebruikt voor het verifiëren van complexe bewijzen.
AI Co-Scientist (Google, februari 2025). Een systeem specifiek ontworpen voor biomedisch onderzoek. Het neemt een onderzoeksvraag, formuleert hypothesen, ontwerpt experimenten om die hypothesen te toetsen, en analyseert uitkomsten. Getest in samenwerkingen met echte laboratoria.
Materials discovery. Google DeepMind's GNoME (Graph Networks for Materials Exploration) identificeerde in 2023 meer dan 2 miljoen nieuwe stabiele materialen. Sommige zijn gesynthesiseerd en getest — sommige met praktische toepassingen.
Climate modeling. AI-versterkte weersvoorspelling (Google's GraphCast, andere) evenaart of overtreft traditionele numerieke modellen op veel taken, met veel lagere compute-kosten.
Elk van deze is een specifiek voorbeeld van AI die niet zomaar data-analyse doet, maar actieve rol speelt in het vinden van nieuwe wetenschappelijke inzichten.
Wat AI Co-Scientist doet
Google's AI Co-Scientist is een goed voorbeeld van de integratie. Het systeem gaat als volgt te werk:
Onderzoeksvraag ontvangen. De gebruiker (een arts, onderzoeker, biotech-bedrijf) formuleert een vraag, bijvoorbeeld: "Welke genmutaties zouden nuttig kunnen zijn als target voor behandeling van specifieke leukemie-vormen?"
Literatuur doornemen. Het systeem leest tienduizenden wetenschappelijke papers, trekt relevante informatie eruit, bouwt een begripsmodel van de staat van het onderzoek.
Hypothesen genereren. Gebaseerd op de literatuur en pattern-matching, stelt het 20-50 onderzoeksvragen voor die momenteel onbeantwoord zijn maar experimenteel testbaar.
Prioritering. Het systeem rangschikt de hypothesen op basis van novelty, testbaarheid, en potentiële impact.
Experiment-ontwerp. Voor de top-hypothesen werkt het een concreet experiment-protocol uit.
Mens-reviewen. De menselijke onderzoeker beoordeelt voorstellen, past aan, beslist welke door te voeren.
Het resultaat is niet "AI doet wetenschap" maar "AI versnelt wetenschap". Ideeën die normaal maanden van literatuurstudie en brainstorm kosten, worden in dagen gegenereerd. De onderzoeker kan dan focus leggen op beoordeling, experimentele uitvoering, en interpretatie.
De implicaties
Als AI effectiever wordt als onderzoekspartner, veranderen verschillende dynamics.
Versnelling van bevindingen. Meer hypothesen worden getest. Meer data wordt geanalyseerd. Ontdekkingen die decennia zouden duren, kunnen in jaren gebeuren.
Schaalbaarheid. Een laboratorium met AI-assistentie kan meer onderzoeksprogramma's parallel voeren. Onderbedeelde gebieden (zeldzame ziektes, niche-wiskunde) kunnen aandacht krijgen die menselijke onderzoekers alleen niet kunnen geven.
Verandering in wetenschappelijke carrières. Junior-onderzoekers die ooit hun eerste jaren besteedden aan literatuur-overzichten en hypothese-vorming, krijgen nu AI-assistentie voor die taken. Ze kunnen eerder naar creatiever werk. Maar het veranderd ook wat wetenschappelijk vakmanschap is.
Nieuwe soorten wetenschap. Problemen die te groot waren voor menselijke schaal (2 miljoen kandidaat-materialen screenen, bijvoorbeeld) worden aanpakbaar. Soorten onderzoek die voorheen economisch onhaalbaar waren, worden mogelijk.
De beperkingen
AI als wetenschapper heeft belangrijke beperkingen.
Beperking tot beschikbare data. AI kan nieuwe combinaties maken van bestaande kennis, maar niet het buiten-de-dozen denken dat soms tot radicale paradigma-verschuivingen leidt. Einsteins relativiteitstheorie kwam niet uit systematische search over bestaande fysica-ideeën.
Kwaliteit versus kwantiteit. AI kan duizenden hypothesen genereren. Of ze nuttig zijn, hangt van menselijke beoordeling. Veel van AI-gegenereerde "nieuwe" dingen zijn triviaal of onproductief.
Contextuele waarden. Wetenschap bepaalt richtingen partly op waarden (wat is belangrijk, waarom is het de moeite waard). AI heeft geen waardenoordeel — het kan niet beslissen of een specifiek onderzoeksgebied het budget waard is. Dat blijft menselijk.
Experimentele validatie. Een hypothese genereren is goedkoop. Haar experimenteel testen vaak duur en traag. De echte bottleneck in veel wetenschap is niet ideeën, maar middelen om ze te testen. AI helpt niet direct met die bottleneck.
De filosofische vraag
Als AI hypothesen kan formuleren, experimenten kan ontwerpen, data kan analyseren — wat is de rol van de menselijke wetenschapper dan? Sommige denkers suggereren dat we aan de vooravond van "autonomous scientific discovery" staan — AI die grotendeels zelf onderzoek doet, met menselijk toezicht.
Anderen zijn meer gereserveerd. Zij wijzen op de intrinsiek-menselijke aspecten van wetenschap — passie voor een probleem, intuïtie over welke richtingen productief zijn, sociale interactie met collega's, het delen van eurekamomenten. AI kan productief zijn als gereedschap, maar zonder die menselijke elementen verliest wetenschap iets essentieels.
Een middenweg is waarschijnlijk: AI versterkt menselijke wetenschap, maakt het efficiënter, opent nieuwe soorten onderzoek. Maar het vervangt niet de menselijke onderzoeker volledig — niet alleen vanwege technische beperkingen, maar vanwege wat wetenschap als menselijke activiteit betekent.
Wat komt
Voor 2026-2030 is realistisch:
- AI-assistentie in wetenschappelijk onderzoek wordt standaard. Labs die geen AI gebruiken worden uitzondering.
- Specifieke doorbraken door AI-systemen verschijnen regelmatig. Niet in elk veld — maar steeds meer.
- AI-gegenereerde wetenschap vraagt nieuwe peer-review-processen. Bestaande journals worstelen met hoe om te gaan met AI-co-auteurschap.
- Integratie met automatische laboratoria — robotica die experimenten uitvoert op basis van AI-ontwerp — versnelt in specifieke domeinen.
- Filosofische vragen over wat wetenschap is, worden praktisch urgent.
De optimistische lezing
Voor wie zorgen heeft over AI, is wetenschap een van de meest hoopvolle toepassingen. Onderzoek versnellen, meer medicijnen, beter begrip van klimaat, nieuwe materialen voor schone energie — dit soort voordelen kunnen enorm zijn.
De AlphaFold-moment van 2020 — waar een vijftig-jaar-oud probleem werd opgelost — is waarschijnlijk niet het laatste. In 2026-2040 zullen er meerdere "AlphaFold-momenten" komen, elk een doorbraak in een ander veld. Welke, kan niemand voorspellen. Maar dat ze komen, is steeds waarschijnlijker.
Dat is optimistisch. Het vereist wel dat we de wetenschappelijke cultuur zo inrichten dat AI-hulp optimaal wordt benut. Goede data-praktijken. Open toegang tot AI-tools voor onderbediende onderzoekers. Ethische toezicht. Menselijk oordeel op kruispunten.
Die inrichting is niet automatisch. Maar ze is haalbaar. En als we het goed doen, kan wetenschap in de komende decennia in een tempo vooruitgaan dat we nog nooit hebben gezien — met AI als partner, niet als vervanger, van menselijke onderzoekers.
Dat is misschien wel de meest onderbelichte goede kant van AI. Niet een AI die zoveel werk van ons overneemt. Maar een AI die ons, samen, in staat stelt beter te begrijpen hoe de wereld werkt.
Wetenschap was altijd een gesprek tussen mensen over de werkelijkheid. In 2026 heeft het gesprek een nieuwe deelnemer. Niet dominerend. Niet vervangend. Maar aanwezig, productief, soms verrassend inzichtelijk.
En dat, als we er goed mee omgaan, is een prachtig ding.
Veelgestelde vragen
Wat is FunSearch precies?+
Een systeem van DeepMind uit december 2023. Het combineert LLM's (die code-varianten voorstellen) met evolutionaire selectie (waarin voorstellen worden getest en de beste behouden). Het heeft nieuwe oplossingen gevonden voor combinatorische problemen die wiskundigen niet hadden gevonden.
Heeft AI echt 'origineel' wiskundig werk gedaan?+
In specifieke zin ja. FunSearch vond bijvoorbeeld nieuwe configuraties voor het 'cap set'-probleem die kleiner waren dan bekende constructies. Wiskundigen hadden decennia naar dit probleem gekeken. De AI vond een nieuwe oplossing.
Is dit creativiteit of alleen zoekmachine?+
Grensgeval. De AI zocht systematisch door een enorme ruimte van mogelijkheden, begeleid door een LLM die 'plausibele' kandidaten voorstelde. Of dit echt 'creativiteit' is of zeer geavanceerde search, is een filosofisch vraagstuk. Pragmatisch leverde het nieuwe wiskundige kennis op.
Gaat dit alle wetenschappers vervangen?+
Zeer onwaarschijnlijk op korte termijn. AI is sterk in specifieke, gestructureerde problemen. Echte wetenschap vereist intuïtie over onderzoeksrichtingen, interactie met mensen, creatieve sprongen over decennia heen. Maar AI als deel van het wetenschappelijke proces — dat is in 2026 al werkelijkheid.