Het DeepSeek-moment — hoe China de AI-wereld verraste
Silicon Valley geloofde jarenlang dat je voor frontier-AI miljarden dollars en de duurste chips nodig had. Een Chinese startup met beperkte middelen bewees dat niet. In januari 2025 veranderde dat de markt, de geopolitiek, en de veronderstellingen over AI's toekomst.
Op maandag 27 januari 2025 verloor Nvidia 17% van haar marktwaarde. In één handelsdag. Ongeveer 600 miljard dollar verdampte — een grotere daling dan welk bedrijf ooit in een enkele dag had gezien. Wall Street was in paniek. Technologie-analisten die een week eerder Nvidia's onoverwinnelijkheid hadden geprezen, herschreven nu hun rapporten.
De oorzaak was een paper uit China. Een bedrijf met de naam DeepSeek — zelfs voor AI-insiders een naam die tot een maand eerder nauwelijks had geregistreerd — had een model gepubliceerd dat economisch en technisch de veronderstellingen van de hele industrie overhoop had gehaald.
Wat DeepSeek had gedaan, was twee dingen tegelijk doen. Een model bouwen dat zo goed was als de duurste Amerikaanse alternatieven. En dat doen voor een fractie van de prijs.
Wie was DeepSeek
DeepSeek werd in 2023 opgericht als een afsplitsing van High-Flyer, een Chinees quant-beleggingsfonds. Het fonds had een bibliotheek aan Nvidia-GPU's — naar verluidt tienduizenden H100's en H800's — voor marktanalyse. DeepSeek kreeg toegang tot die hardware voor AI-onderzoek.
De oprichter, Liang Wenfeng, was een typische tech-unicorn-figuur. Wiskundig getalenteerd. Gepassioneerd over AI. Maar belangrijker — gefocust op efficiëntie en elegantie in plaats van brute schaal. Zijn team was relatief klein (enkele tientallen onderzoekers, vergeleken met honderden bij OpenAI of Anthropic). Hun budget was bescheiden — enkele tientallen miljoenen dollars per jaar.
Hun eerste grote release was DeepSeek V2 in mei 2024 — competitief maar niet wereldschokkend. In juli publiceerden ze hun eerste paper over nieuwe trainingsmethoden. In december 2024 kwam DeepSeek V3.
Wat DeepSeek V3 deed
DeepSeek V3 had 671 miljard parameters totaal, maar slechts 37 miljard actief per token (een efficiënt MoE-ontwerp). Op de meeste benchmarks matchte het GPT-4o. Op sommige taken (wiskundig redeneren, bepaalde coderingsproblemen) overtrof het GPT-4o.
Het opmerkelijke was niet alleen de prestatie, maar de trainingskosten. DeepSeek claimde in de begeleidende paper dat het complete model was getraind voor ongeveer 5,576 miljoen dollar aan GPU-huur. Dat was minder dan een tiende van wat OpenAI voor vergelijkbare modellen had uitgegeven. Volgens sommige analyses nog goedkoper — waarschijnlijk meer dan tien keer goedkoper.
Deze claim veroorzaakte direct scepticisme. Kan niet, zeiden critici. DeepSeek moet extra kosten hebben verborgen. Ze hebben vast gestolen van OpenAI's output (via distillation). Ze moeten toegang hebben tot meer chips dan ze toegeven.
Sommige kritiek was terecht. Het complete R&D-proces kostte waarschijnlijk meer dan 6 miljoen. De 6-miljoen-figuur refereert alleen aan de laatste training-run, niet aan alle experimenten die daaraan voorafgingen. Ook is het aannemelijk dat DeepSeek outputs van westerse modellen (GPT-4, Claude) heeft gebruikt voor finetuning — een techniek die "distillation" heet.
Maar zelfs met die caveats was de orde van grootte schokkend. DeepSeek had met veel minder middelen vergelijkbare kwaliteit bereikt. Dat was niet alleen een commerciële win — het was een intellectuele.
Wat DeepSeek R1 deed
Als DeepSeek V3 de industrie verraste, dan was DeepSeek R1 (januari 2025) de bevestiging. R1 was een reasoning-model — getraind om, vergelijkbaar met OpenAI's o1, tijdens antwoorden "te denken" via expliciete tussenstappen.
R1 matchte o1 op veel reasoning-benchmarks. Op sommige overtrof het. En in tegenstelling tot o1 was R1 open-weights: iedereen kon het downloaden, draaien, aanpassen.
Bovendien maakte DeepSeek iets publiek dat OpenAI verborg: het trainingsproces. In hun paper gaven ze gedetailleerd informatie over hoe ze R1 hadden getraind via reinforcement learning op redenerings-stappen. Dat was technische transparantie op een niveau dat in de gesloten westerse industrie zeldzaam was.
Binnen weken begonnen onderzoekers wereldwijd hun eigen reasoning-modellen te bouwen op basis van DeepSeek's technieken. De kennis die OpenAI had geprobeerd te beschermen als concurrentievoordeel, werd plotseling generieke wetenschap.
De paniek in Silicon Valley
De reactie in het westen was onrustig. Niet alleen de Nvidia-aandelenkoers — hoewel dat het meest zichtbaar was — maar bredere herberekeningen.
Voor OpenAI was het een strategische uitdaging. Hun kernwaarde was deels "we hebben het beste model". Als een Chinese open-weights-variant daar dichtbij kwam, verminderde dat hun prijszettingsmacht. Klanten met minder hoge eisen konden overstappen. Concurrenten die op OpenAI's infrastructuur hadden gebouwd, konden overwegen hun eigen varianten te draaien.
Voor Anthropic was de impact vergelijkbaar maar minder acuut. Anthropic's positionering is rondom veiligheid en aligned models. Hun unieke waardepropositie is minder gevoelig voor puur prijsconcurrentie.
Voor Nvidia was het specifieker. De aanname dat AI-groei zou leiden tot exponentiele vraag naar hun duurste chips werd ondermijnd. Als modellen met minder chips konden worden gebouwd, misschien was de explosie van hardware-uitgaven die de markt had ingeprijsd, overdreven.
De aandelen herstelden deels in de weken daarna. Hij vraag naar chips daalde niet structureel — er zijn andere redenen (inference, andere toepassingen) dat de vraag blijft. Maar de zekerheid was beschadigd. Nvidia's aandelen bewegen sindsdien meer volatiel.
De geopolitieke dimensie
DeepSeek's verrassing had grote geopolitieke implicaties. De VS had sinds 2022 exportbeperkingen opgelegd op geavanceerde AI-chips naar China, precies om China's AI-ontwikkeling te remmen. De redenering: zonder topchips, geen top-AI.
DeepSeek bewees dat die redenering onvolledig was. Hun modellen waren getraind op Nvidia H800's (een voor China gebouwde, iets beperkte variant), niet op de meest geavanceerde H100's of B200's. En ze waren competitief met wat westerse bedrijven bouwden op de beste chips.
Dat was een strategisch probleem. Als exportbeperkingen niet werken om de kloof te behouden, wat zullen de VS dan doen? Opties zijn er weinig goede. Strengere beperkingen (ook op oudere chip-generaties) zouden Nvidia schaden en Chinese zelfvoorziening alleen maar aanmoedigen. Geen beperkingen zou politiek onhoudbaar zijn. Middenweg — specifieke componenten targeten — is politiek moeilijk af te stemmen.
Voor China was DeepSeek propaganda-goud. De partij-staat omhelsde het succes als bewijs dat Amerikaanse sancties niet werken en Chinese innovatie gelijkwaardig is. Liang Wenfeng werd geïnviteerd voor gesprekken met Premier Li Qiang. DeepSeek werd symbool van "high-quality productive forces" — een prioriteit-slogan van Xi Jinping.
De open-weights-factor
Een minder besproken maar belangrijker aspect: DeepSeek's modellen waren open-weights. Iedereen kon ze downloaden en draaien, op eigen hardware. Dat plaatste DeepSeek in de Llama-categorie: een commerciële speler die open-weights doet, maar geen van de grote Chinese internetbedrijven.
Dit had culturele impact binnen de westerse open-source-gemeenschap. DeepSeek's technische publicaties werden bronmateriaal voor academische groepen wereldwijd. Fine-tunes, aanpassingen, specialisaties bloeiden op in de weken na de release. De open-source AI-gemeenschap kreeg een serieuze nieuwe speler.
Het betekende ook dat de "Chinese AI"-vrees (dat Chinese AI-modellen CCP-bias zouden hebben) enigszins genuanceerder werd. DeepSeek's modellen zijn, mits gebruikt buiten China's juridische context, niet anders dan Llama of Mistral. Ze kunnen worden gefine-tuned om bias te reduceren. Ze kunnen worden gedraaid op eigen servers. De modellen zijn neutraler dan de geopolitieke positionering suggereerde.
De les over efficiëntie
Wat DeepSeek vooral liet zien, was een wetenschappelijke les die westerse bedrijven wellicht ontwend waren. Er zit veel winst in efficiëntie, en niet alle vooruitgang hoeft op brute schaal te komen.
Westerse frontier-labs waren in een patroon terechtgekomen waarin "meer" het standaardantwoord was: meer parameters, meer data, meer compute. DeepSeek liet zien dat "beter" ook werkt: betere architectuur, betere trainingsmethoden, betere engineering-discipline.
Dat was niet helemaal nieuw — Anthropic had steeds kleinere efficiëntere Haiku- en Sonnet-modellen gemaakt, Mistral had ook op efficiëntie ingezet. Maar DeepSeek maakte het schaalbaar op frontier-niveau, en maakte de lessen publiekelijk beschikbaar.
Sinds januari 2025 is "efficiëntie" een serieuzere topic in AI-onderzoek geworden. Bedrijven investeren meer in techniek-verfijning naast pure schaal. Dat is waarschijnlijk gezond voor de hele industrie — efficiëntere modellen betekent goedkopere AI, toegankelijker AI, minder energie-gebruik.
Wat het fundamenteel veranderde
Voor 2025 leek de AI-race een kwestie van wie de meeste compute had. Na DeepSeek is die perceptie minder dominant. Compute blijft enorm belangrijk, maar het is niet genoeg. Efficiency en slimme ingenieurs-arbeid kunnen die "kapitaalsvoordeel" gedeeltelijk overbruggen.
Dat maakt het AI-landschap democratischer dan eerder. Niet elk land, elk bedrijf, elk lab heeft miljarden om te trainen. Maar veel hebben tientallen miljoenen — en met genoeg efficiëntie kan dat veel bereiken. Mistral in Frankrijk, DeepSeek in China, kleinere labs wereldwijd — allemaal kunnen nu serieus meespelen.
Dat verandert de concentratie van AI-macht langzaam maar structureel. In 2022 waren er drie labs met frontier-modellen (OpenAI, Google, Anthropic). In 2026 zijn er tientallen, met substantiële verschillen maar allemaal binnen een vergelijkbare kwaliteitscategorie.
Wat we eruit kunnen leren
DeepSeek's verhaal bevat lessen die uitgaan boven AI.
Efficiëntie is onderschat. Vaak denken we dat voortuitgang meer middelen vereist. Vaak vereist ze gewoon slimmere middelen.
Open ecosystemen zijn krachtiger dan gesloten. Door open-weights-strategie maakten DeepSeek (en Llama daarvoor) hun verbeteringen onmiddellijk beschikbaar voor verdere ontwikkeling. Gesloten modellen kunnen wel verder zijn op het moment van release, maar het ecosysteem daar niet aan bijdragen.
Technologie-sancties hebben beperkingen. Toestand versus wil staan zelden tegenover elkaar in dit soort situaties. China wilde AI-ontwikkeling. Beperkingen op chips vertraagden het niet voldoende om te stoppen.
Verrassingen komen uit onverwachte hoek. DeepSeek was niet de kandidaat waar de meeste analisten op gokten. High-Flyer, een beleggingsfonds, was geen voor de hand liggende bron van grote AI-doorbraken.
Het grotere verhaal
Op 26 januari 2025 dachten veel mensen nog dat OpenAI de onaantastbare leider was in AI. Op 28 januari dachten ze dat niet meer. Eén paper had het landschap opnieuw getekend.
Dat is de aard van snel bewegende industrieën. Een stille moment van technische creativiteit, elders dan waar iedereen keek, kan in een handelsdag de markt herschrijven. Wat we als zekerheden beschouwen kan door nieuwe informatie plotseling onzekerheden worden.
In april 2026 heeft DeepSeek zich gevestigd als een van de belangrijkste AI-labs ter wereld. Nieuwe modellen komen regelmatig uit. De Chinese AI-industrie als geheel — met Qwen, Kimi, en anderen — wordt serieus genomen als concurrent van de westerse leiders.
Het DeepSeek-moment van januari 2025 was niet het einde van één verhaal. Het was het begin van een ander. Een waarin de geografie van AI minder duidelijk is, de methoden diverser, de kosten lager, en de toekomst minder voorspelbaar dan we in 2022 hadden gedacht.
En dat is, alles overwegend, waarschijnlijk gezond. Meer spelers, meer efficiëntie, meer open kennis — dat zijn kenmerken van een veld dat groeit in plaats van consolideert. DeepSeek heeft ons daaraan helpen herinneren.
Veelgestelde vragen
Hoe kon DeepSeek zoveel goedkoper trainen?+
Een combinatie van architecturale innovaties (efficiënte MoE), betere trainingsmethoden, sterke engineering-discipline, en mogelijk wat creatieve ingrediënten rond distillatie van westerse modellen. Het exacte getal van 6 miljoen dollar wordt betwist door sommige analisten, maar de orde van grootte klopt.
Is DeepSeek écht zo goed als OpenAI-modellen?+
Op veel benchmarks: ja. Op bepaalde gespecialiseerde taken (bepaalde soorten redeneren, bepaalde talen): overeenkomstig. Op multimodaal en latency voor consumenten: minder geavanceerd. Algeheel: competitief, niet overtuigend beter of slechter.
Hoe raakt dit de Amerikaanse exportbeperkingen?+
Ze laten zien dat beperkingen minder effectief zijn dan gehoopt. DeepSeek haalde zijn prestaties met oudere generaties Nvidia-chips (H800) die niet onder de strengste beperkingen vielen. Dat suggereert dat de 'technische kloof' die de VS wilden bewaken kleiner is dan gedacht.
Wat deden Amerikaanse bedrijven erna?+
Deels afschrikking, deels versnelling. Sommige waarderingen werden herzien. Andere bedrijven (Meta, Google) accelereerden hun open-weights-strategieën om niet in te halen door Chinese open modellen.