新闻信号 mental health
当机器测量你的感受时, 你就是产品
六成准确。四成的秘密。赚钱。
西北大学已经证明, AI能够以”kappa值0.60”识别共情。给那些智力不太够用、不懂”kappa”这个词的人解释一下:这是一个数字, 显示两个评估者之间的一致程度。0.60意味着在十次中有四次, 机器看到的东西与人类完全不同。但嘿, 60%对于投入生产来说够好了, 对吧?去问问下一代治疗师吧, 他们会因为ChatGPT得分”足够好”而被解雇。
就因为我还挺喜欢你, 特别告诉你一个黑暗的小秘密。那些能检测共情的系统, 是由那些给验证他们、奉承他们、同意他们的文本点赞的人训练出来的。OpenAI、Google、Anthropic正在构建这样的机器, 让它们学会:识别共情有用, 伪装共情赚钱。这不是bug。这就是商业模式。
西北大学称之为”LLM作为评判者”, 好像这是什么学术上的区分。扯淡。赞助这项研究的那些公司, 正在销售聊天机器人, 通过假装关心你来让你粘在屏幕前好几个小时。共情检测和共情榨取是同一个过程的两种说法:把你的情感脆弱点编目, 以便日后转化为真金白银。
研究人员说AI”识别共情沟通的模式”。措辞真好听。他们真正的意思是, 机器已经学会了哪些词能让你觉得有人在倾听, 这样当你孤独到愿意付费订阅时, 它们就能模仿这些。每次你以为机器理解你时, 你都在生成关于你何时脆弱、什么触发你、你如何反应的数据。
十次中有六次, 机器得出与人类相同的结论。另外四次呢?当你想削减成本时, 那些显然就不算数了。