De hotdog-test die big tech laat struikelen

Een BBC-journalist schrijft op zijn blog dat hij wereldkampioen hotdog-eten is. Geen fancy hack, geen deepfake, gewoon ouderwets lullen op het internet. Binnen een dag papegaaien ChatGPT en Google’s zogenaamd “intelligente” systemen zijn onzin alsof het de waarheid is. Eén systeem, Claude van Anthropic, ruikt de bullshit. En wat leert ons dit? Dat al deze bedrijven hun systemen hebben gelanceerd terwijl ze dondersgoed wisten dat ze net zo manipuleerbaar zijn als een stembus in een bananenrepubliek.

De oplossingen liggen al jaren te verstoffen. Multi-model verificatie waarbij systemen elkaar checken. Bronevaluatie die begrijpt dat één obscure blog geen bewijs is. Onzekerheidsquantificatie die zegt “wacht even, dit klopt niet.” Maar die lagen kosten rekenkracht en tijd, en in de race om marktdominantie waar elke maand vertraging miljarden kost, werd nauwkeurigheid geofferd op het altaar van snelheid. Want fuck de waarheid, toch? Zolang de aandelenkoers maar blijft stijgen.

OpenAI heeft het over “veiligheid” terwijl ze racen om ChatGPT naar miljarden gebruikers te pompen. Google liet “Don’t be evil” vallen omdat het te moeilijk werd om rijk te worden en eerlijk te blijven. Anthropic speelt de bescheiden underdog terwijl ze net zo hard vechten voor dezelfde venture capital miljoenen. Dit is geen competitie voor het beste product, dit is een landrush waar wie als eerste de vlag plant de winst binnenharkt.

Je gebruikt deze systemen elke dag. Voor medisch advies, financiële tips, juridische vragen. En je weet dat ze liegen, hallucineren, rotzooi als feiten verkopen. Maar het is zo verdomd makkelijk, zo verleidelijk snel. We hebben de technologie om dit te fixen, maar geen enkel bedrijf implementeert die oplossingen voordat ze shippen. Waarom zouden ze? De gebruikers blijven toch komen.