AI valt uit elkaar maar aandeelhouders kunnen het geen reet schelen

Eenennegentig procent van alle machine learning-modellen valt uit. Zakt langzaam in elkaar. Niet door bugs. Niet door slechte code. Ze vergaan omdat de wereld verandert en zij vastzitten in hun digitale formaldehyde. Maar Google, Amazon en Microsoft verkopen je dit als betrouwbare infrastructuur. Alsof je een Boeing koopt waarvan de vleugels spontaan kunnen afvallen, maar hé, kijk eens wat een mooi dashboard.

MLOps-bedrijven cashen met monitoringoplossingen terwijl jij de rekening betaalt wanneer het systeem je lening afwijst of je sollicitatie in de prullenbak gooit. Dat is het businessmodel. Zij privatiseren de winst, jij socialiseert de schade. De EU AI Act komt eraan in 2026, vage onzin over wat adequate monitoring betekent, maar ondertussen bepaalt een degraderend algoritme of je kredietwaardig bent.

En nu wordt het mooi. Experts vechten over wat het echte probleem is. Is het technisch? Gaat het om transparantie? Of is het dat niemand verantwoordelijk is wanneer je leven naar de klote gaat door een model dat stilletjes is weggerot? Sommige bedrijven gebruiken AI-degradatie zelfs als excuus om je eruit te werken. “Sorry, het model werkt niet meer optimaal, dus we vervangen je door een stagiair die AI-output bewerkt.”

En jij? Je blijft gewoon scrollen. Blijft Prime gebruiken. Blijft Google Maps je locatie toevertrouwen. Maar zolang het systeem JOU niet afwijst, JOU niet discrimineert, JOUW pakketje op tijd komt, laten we er maar niks van zeggen.

Nog niet bezorgd genoeg? Lees meer over AI model drift en stille uitval.