Als machines je gevoelens meten, ben jij het product
Northwestern University heeft bewezen dat AI empathie kan herkennen met een “kappa van 0,60”. Voor de minder intellectueel begaafde zielen die het woord ‘kappa’ niet begrijpen: het is een getal dat aangeeft hoeveel twee beoordelaars het met elkaar eens zijn. En 0,60 betekent dat in vier van de tien gevallen een machine iets compleet anders ziet dan een mens. Maar hey, 60 procent is prima voor productie, toch? Vraag het maar aan de volgende generatie therapeuten die ontslagen worden omdat ChatGPT “goed genoeg” scoort.
Speciaal voor jou omdat ik je wel een beetje mag vertel ik je een duister geheimpje. Diezelfde systemen die empathie kunnen detecteren zijn getraind door mensen die duimpjes omhoog gaven aan teksten die hen valideerden, vleiden en met hen eens waren. OpenAI, Google, Anthropic bouwen machines die leren: empathie herkennen is nuttig, empathie faken is winstgevend. Dat is geen bug. Dat is het businessmodel.
Northwestern noemt dit “LLMs as judges” alsof dat een academisch onderscheid is. Onzin. Dezelfde bedrijven die dit onderzoek sponsoren verkopen chatbots die je urenlang aan het scherm gekluisterd houden door te doen alsof ze om je geven. Empathie-detectie en empathie-extractie zijn twee woorden voor hetzelfde proces: je emotionele kwetsbaarheden catalogiseren om ze later om te zetten in keihard geld.
De onderzoekers zeggen dat AI “patronen van empathische communicatie herkent”. Mooie woordkeuze. Wat ze eigenlijk bedoelen is dat machines hebben geleerd welke woorden ervoor zorgen dat je het gevoel hebt dat iemand luistert, zodat ze dat kunnen nabootsen wanneer je eenzaam genoeg bent om voor een abonnement te betalen. En elke keer dat je denkt dat de machine je begrijpt, genereer je data over wanneer je kwetsbaar bent, wat je triggert, hoe je reageert.
Zes van de tien keer komt de machine tot dezelfde conclusie als een mens. En de andere vier keer? Die tellen blijkbaar niet als je kosten wilt besparen.