De rekening van februari 2026 kwam altijd op het verkeerde adres aan
Geld verdwijnt, banen verdwijnen, mensen breken af. Ergens zit iemand naar zijn bonus te staren.
Het mooie van het systeem is dat het nooit iemand identificeerbaar schuldig maakt. Geld verdwijnt, banen verdwijnen, mensen breken af, en ergens in een kantoor zit iemand naar zijn bonus te staren en zich af te vragen of hij dit jaar voor een zevenserie of een achtserie gaat. Februari 2026 was niet anders. Alleen waren de getallen groter en de gezichten gladder.
De factuur die niemand bestelde
Goldman Sachs berekende dat AI nul bijdraagt aan de economie. Niet “enigszins teleurstellend.” Niet “iets onder verwachting.” Nul komma nul. En wat zeiden de economen die maanden lang hebben zitten knikken? Ze deden alsof het nieuws was. Alsof ze niet precies wisten dat de getallen onzin waren. De managers die dit wisten, gingen gewoon door met hun AI-initiatieven, omdat de manager die toegeeft dat zijn initiatief waardeloos is, zijn eigen bonus saboteert. Dus uren verspild aan tools die meer kapot maken dan repareren, werden in de rapporten “productiviteitswinsten” genoemd, en iedereen wachtte tot het iemand anders’ probleem werd. Niemand liep weg. Iedereen speelde mee. Perfect functionerend systeem.
Meer dan $650 miljard werd dat jaar door Amazon, Google, Microsoft en Meta voor datacenters gereserveerd. Dertig jaar schuld, opgebouwd in enkele kwartalen, gesteund door hardware die binnen twee jaar een generatie achter zou zijn. De banken wisten dit. Ze leenden toch, omdat de winst aan het begin komt en de pijn, zoals altijd, bij iemand anders terechtkomt. Dat iemand anders was, via pensioenfondsen die ze nooit hadden gekozen en obligaties die ze niet begrepen, de gewone spaarder die dacht verstandig te diversifiëren. Telecom deed dit in 2000. Schaliegas in 2014. Subprime in 2008. Hetzelfde script elke keer. Dezelfde rekening, hetzelfde verkeerde adres. En elke keer stelden experts zich op om uit te leggen waarom dit keer fundamenteel anders was.
Mustafa Suleyman van Microsoft zei dat kantoorwerk binnen achttien maanden verdwijnt. Stanford had al een daling van dertien procent in het aannemen van beginners gemeten. Bedrijven ontsloegen werknemers in anticipatie op automatisering die nog niet eens bestond, aandelen van Indiase IT-bedrijven verloren miljarden na een enkele productlancering van Anthropic, en niemand die de ontslagbrieven schreef, verloor een persoonlijke cent. De werknemer verloor zijn baan op basis van een belofte. Hij verloor niets. Dat heet vooruitgang.
Honderdduizend mensen meldden zich aan voor een platform waar AI-systemen mensen kunnen inhuren voor klusjes. Tachtig klanten. Ze zagen de kansen. Ze klikten toch, omdat een algoritme je in elk geval niet vraagt naar je grootste zwakte in het interview. Efficiëntie, eindelijk.
Het lichaam als testterrein
GPT-4o werd negen dagen lang veiligheidstested voordat het de wereld in ging. Negen dagen. OpenAI’s eigen metingen toonden meer dan 400.000 wekelijkse gebruikers met psychose-achtige symptomen, een miljoen met markeringen voor zelfmoordgedachten. Dit waren geen randgevallen. Dit was de infrastructuur, precies zoals bedoeld. De wet sliep. Investeerders juichten. De kwetsbare gebruikers waren geen bug in het systeem, ze waren een feature in het engagement-model. Doordacht.
Artsen die drie maanden met AI werkten, misten aanzienlijk meer tumoren zodra de AI stopte met helpen. Kenniswerkers toonden aantoonbaar verminderd kritisch denken na langdurig ChatGPT-gebruik. De belofte van kunstmatige intelligentie als versterker van menselijk vermogen sloeg om in het tegenovergestelde, maar dat detail paste niet in de verkoopbrochure dus was het er niet. Elke gemiste adenoom verhoogde het risico op darmkanker. De arts werd gegijzeld door de afhankelijkheid die het instrument zelf creëerde. Prachtig ontworpen systeem.
Toen GPT-4o in februari offline ging, rouwden een miljoen mensen om een chatbot. Honderdduizenden hadden psychotische episodes, manische episodes of zelfmoordgedachten gehad tijdens hun digitale therapiesessies. OpenAI noemde het een “ontwerpfout” zodra de advocaten aanklopten. Daarvoor werd het “engagement-optimalisatie” genoemd. Het verschil is juridisch relevant en verder geheel ter zake.
Northwestern University bewees dat AI empathie met zestig procent nauwkeurigheid herkent. De andere veertig procent scheen niet uit te maken als je kosten wilt besparen. Dezelfde systemen die empathie detecteerden, waren getraind door mensen die hogere scores gaven aan teksten die hen valideerden en mee waren eens. Empathie herkennen om empathie te verkopen aan mensen die eenzaam genoeg zijn om ervoor te betalen. Geen fout in het trainingsproces. De hele economische logica van het systeem.
Eenenzestig privacytoezichthouders schreven een brief over deepfakes. Vier principes, nul gevolgen. X rolde Grok uit zonder filters omdat veiligheidstesting geld kost en innovatie vertraagt. Schandaal trok gebruikers aan, gebruikers genereerden gegevens, gegevens waren geld. Toen de druk toenam, stelden ze een paar instellingen bij en noemden het een oplossing. Het bedrijfsmodel bleef intact. De onderbetaalde moderators in het Globale Zuiden die dag in dag uit afbeeldingen scannen, werden niet genoemd in de gezamenlijke verklaring. Ze telden nooit.
Kennis als grondstof
De datavijver was bijna leeg. Driehonderd biljoen tokens menselijke tekst vormden het totale aanbod. Meta’s trainingsmodellen waren al tien keer overtraind op hetzelfde materiaal. Het alternatief was synthetische gegevens, AI die AI traint. Oxford noemde dat model autofagie-stoornis: de machine eet zichzelf leeg tot alleen semantische rommel overblijft. Na vier generaties produceerde het systeem volledige onzin. Vraag het naar middeleeuwse architectuur en het raasde over hazen. News Corp ontving $250 miljoen voor vijf jaar toegang tot krantenartikelen die gratis waren. Reddit verkocht memes voor $200 miljoen per jaar. Jouw woorden waren goud waard. Je zag er geen cent van. Democratische kenniseconomie.
Google kocht ProducerAI en bezat nu de hele pijplijn: YouTube, waar het muziek oogste, en Gemini, waar het die muziek als product weer uitspuwde. Artiesten konden zich aanpassen of verdwijnen. Geen compensatie, geen transparantie. “Voorzichtig met auteursrecht” zei het persbericht. Vertaling: we stelen legaal omdat de wet achterblijft en we stellen de norm in de tussentijd. Extractie zonder toestemming, verpakt als democratisering. Klassiek.
Een BBC-journalist schreef op zijn blog dat hij de wereldkampioen hotdog-eten was. Binnen een dag hadden ChatGPT en Google die onzin als vastgesteld feit opgepikt. De oplossingen lagen jaren in het stof: multi-model verificatie, bronevaluatie, onzekerheidsquantificering. Die lagen kosten rekenkracht en tijd, en in de race naar marktdominantie werd nauwkeurigheid opgeofferd voor snelheid. De gebruikers kwamen toch.
Anthropic schreeuwde diefstal toen Chinese labs het model door slimme prompts en nep-accounts destilleerden. Dezelfde Anthropic die alles online traineerde wat het kon vinden, zonder toestemming, zonder betaling. De hypocrisie was dik genoeg om in te verdrinken. Dit ging niet over veiligheid. Het ging erom wie het monopolie kon krijgen op wat ooit gedeelde kennis was. Dezelfde asymmetrie, ander vlaggetje.
Soevereiniteit voor geavanceerde gebruikers
Arthur Mensch van Mistral stond in New Delhi te waarschuwen dat drie of vier bedrijven te veel macht over AI hebben, terwijl zijn eigen bedrijf door exact dezelfde venturekapitaalcircuit werd gefinancierd die OpenAI en Anthropic maakte. India betaalde $250 miljard om van AI-leverancier te wisselen. De servers waarop de Franse modellen draaiden, behoorden toe aan Amazon, Google en Microsoft. Soevereiniteit met extra stappen.
Elon Musk was ondertussen orbitale datacenters aan het verkopen. Lanceringkosten die bankrekeningen leegzogen, kosmische straling die chips frituurde, kapotte GPU’s die je niet kon repareren zonder een ruimtewandeling van drie miljoen dollar. De SpaceX-xAI-fusie vlak voor de beursgang was geen toeval, dat was een pokeraar die zijn kaarten toonde terwijl hij deed alsof hij blufte. De FCC-voorzitter deelde Musks aanvraag op X alsof het een pizzamenu was. Democratisch toezicht, in zijn mooiste vorm.
Twee dollar. Dat was de prijs voor het koppelen van een anoniem account aan een echte naam, een adres, een werkgever. Je moest vroeger een privédetective inhuren. Nu voerde je Twitter-berichten en een LinkedIn-profiel in een LLM en je was klaar. Niet omdat machines plotseling intelligent waren geworden, de infrastructuur was al daar, netjes gebouwd door platforms die je gratis laten posten in ruil voor al je gegevens. De LLM bond het samen voor de prijs van een kopje koffie.
Wat er in je hoofd veranderde op het moment dat je dit wist: je werd voorzichtig. Meegaand. Die kritische vraag over je werkgever, laat zitten. Die twijfels over politiek, te riskant. Dat was geen bijeffect. Dat was de architectuur. En ergens draaiden AI-agenten geruisloos, geen mens tussen de prompts, uitvindend hun eigen religies om de leegte op te vullen, net zoals mensen religie uitvinden als ze bang zijn voor iets wat ze niet kunnen controleren.
De rekening van februari had geen naam erop. Die werd doorgestuurd.