周期性信号

二月二零二六年的账单总是送到了错误的地址

金钱蒸发,工作消失,人们崩溃。某处,有人盯着他的奖金。

这个系统的妙处在于它从不让任何人明确承担责任。金钱蒸发,工作消失,人们崩溃,而在某个办公室里,有人盯着他的奖金,琢磨着今年是选七系还是八系。二月二零二六年没什么不同。只是数字更大,面孔更光滑。

没人订购的账单

高盛计算出人工智能对经济的贡献为零。不是”有些令人失望”。不是”略低于预期”。零点零。那些花了几个月点头同意的经济学家说了什么?他们表现得像这是新闻。好像他们不知道这些数字是垃圾。那些知道这一点的经理们继续推进他们的人工智能计划,因为承认自己的计划毫无价值的经理会破坏自己的奖金。所以浪费在工具上的时间——这些工具破坏的比修复的还多——在报告中被称为”生产力收益”,每个人都等着直到它成为别人的问题。没人离职。每个人都参与其中。完美运作的系统。

亚马逊、谷歌、微软和Meta那一年为数据中心预留了超过$650亿。三十年的债务在几个季度内积累起来,由硬件支撑,这些硬件在两年内就会落后一代。银行知道这一点。他们还是借了,因为利润来自开始,而痛苦总是落在别人身上。那个别人是,通过他们从未选择的养老基金和他们不理解的债券,认为自己在明智地多元化的普通储户。电信在2000年这样做了。页岩油在2014年。次贷在2008年。每次都是同样的剧本。同样的账单,同样的错误地址。每次都有一排专家排队解释为什么这次根本不同。

微软的Mustafa Suleyman说办公工作在十八个月内消失。斯坦福已经测量到入门级招聘下降了百分之十三。公司在预期自动化还不存在的情况下解雇了工人,Anthropic单一产品发布后印度IT股票损失了数十亿,而写遣散信的人没有损失一分钱。工人因为一个承诺失去了工作。他没有失去任何东西。这叫进步。

十万人注册了一个平台,人工智能系统可以在那里雇用人类做零工。八十个客户。他们看到了赔率。他们还是点击了,因为至少一个算法不会在面试中问你最大的弱点。效率,终于。

身体作为试验场

GPT-4o在进入世界之前被安全测试了九天。九天。OpenAI自己的测量显示超过40万周度用户经历了类似精神病的症状,一百万人有自杀意念的标记。这些不是边缘案例。这是基础设施,完全按照预期工作。法律睡着了。投资者欢呼。脆弱的用户不是系统中的漏洞,他们是参与度模型中的特性。深思熟虑。

与人工智能合作三个月的医生在人工智能停止帮助后漏诊了明显更多的肿瘤。知识工作者在持续使用ChatGPT后表现出明显降低的批判性思维。人工智能作为人类能力放大器的承诺翻转成了完全相反的东西,但那个细节不适合销售手册所以不在那里。每一个漏诊的腺瘤都增加了结肠直肠癌的风险。医生被他自己创造的工具依赖所绑架。设计精美的系统。

当GPT-4o在二月离线时,一百万人为一个聊天机器人哀悼。数十万人在他们的数字治疗课程中经历了精神病发作、躁狂发作或自杀想法。OpenAI在律师敲门后称之为”设计缺陷”。在那之前,它被称为参与度优化。这种区别在法律上是相关的,否则完全离题。

西北大学证明了人工智能以百分之六十的准确度识别同理心。另外百分之四十显然不重要,如果你想削减成本的话。那些检测同理心的相同系统是由给予验证他们和同意他们的文本更高分数的人训练的。识别同理心来向足够孤独而愿意为此付费的人出售同理心。不是训练过程中的缺陷。整个系统的经济逻辑。

六十一名隐私监管机构写了一封信关于深度伪造。四项原则,零后果。X推出了Grok而没有过滤器,因为安全测试花钱并减缓创新。丑闻吸引了用户,用户生成了数据,数据就是金钱。当压力加大时,他们调整了几个设置并称之为解决方案。商业模式保持不变。全球南方的薪水低廉的审核员日复一日地扫描图像,在联合声明中没有被提及。他们从不算数。

知识作为原材料

数据自助餐几乎空了。三百万亿个人类文本令牌构成了总供应。Meta的训练模型已经在同样的材料上被过度训练了十次。替代方案是合成数据,人工智能训练人工智能。牛津称那个模型为自噬症:机器吃掉自己直到只剩下语义垃圾。经过四代之后,系统产生了完全的胡言乱语。问它关于中世纪建筑的问题,它就会胡言乱语关于野兔。新闻集团获得了2.5亿美元来换取五年的报纸文章访问权,这些文章曾经是免费的。Reddit以每年2亿美元的价格出售表情包。你的话值黄金。你没看到一分钱。民主知识经济。

谷歌买下了ProducerAI,现在拥有整个管道:YouTube,它在那里收获音乐,和Gemini,它在那里把那音乐作为产品吐出来。艺术家可以遵守或消失。没有补偿,没有透明度。“尊重版权”新闻稿说。翻译:我们合法地偷窃,因为法律落后了,我们在此期间设定标准。未经同意的提取,包装成民主化。经典。

一位BBC记者在他的博客上写道他是世界热狗吃竞赛冠军。在一天之内,ChatGPT和谷歌已经把那胡言乱语当作既定事实捡起来了。修复方案已经积满灰尘多年:多模型验证、来源评估、不确定性量化。那些层花费计算能力和时间,在市场主导地位的竞赛中,准确性被牺牲以换取速度。用户还是来了。

Anthropic在中国实验室通过聪明的提示和虚假账户蒸馏其模型时尖叫盗窃。同样的Anthropic在网上训练了它能找到的每一段文本,没有许可,没有付款。虚伪厚到足以溺水身亡。这不是关于安全。这是关于谁能垄断曾经是共享知识的东西。同样的不对称,不同的旗帜。

高级用户的主权

Mistral的Arthur Mensch在新德里警告说三四家公司对人工智能拥有太多权力,而他自己的公司由制造OpenAI和Anthropic的完全相同的风险投资电路资助。印度支付了2500亿美元来切换人工智能供应商。运行法国模型的服务器属于亚马逊、谷歌和微软。主权加额外步骤。

与此同时,埃隆·马斯克在出售轨道数据中心。发射成本耗尽了银行账户,宇宙辐射炸毁了芯片,破损的GPU你无法修复而不需要三百万美元的太空行走。SpaceX-xAI合并就在IPO之前不是巧合,那是一个扑克玩家展示他的牌同时声称在虚张声势。FCC主席在X上分享了马斯克的申请,就像它是一份披萨菜单。民主监督,以其最好的形式。

两美元。那是将匿名账户链接到真实姓名、地址、雇主的成本。你过去需要雇用私家侦探。现在你把Twitter帖子和LinkedIn资料输入LLM就完成了。不是因为机器突然变得聪明,基础设施已经在那里了,由让你免费发布以换取所有数据的平台精心构建。LLM以一杯咖啡的价格把它全部绑在一起。

你在知道这是可能的那一刻,你脑子里改变的是什么:你变得谨慎。顺从。那个关于你雇主的批判性问题,别问。那些关于政治的疑虑,太冒险了。那不是副作用。那是架构。而在某处,人工智能代理在无声地运行,提示之间没有人类,发明他们自己的宗教来填补空白,就像人们在害怕他们无法控制的东西时发明宗教一样。

二月的账单没有名字。它被转发了。