La prueba del perrito caliente que hace tropezar a big tech
Un periodista de la BBC escribe en su blog que es el campeón mundial de comer perritos calientes. Sin hackeo sofisticado, sin deepfake, solo la vieja costumbre de decir tonterías en internet. En un día, los sistemas supuestamente “inteligentes” de ChatGPT y Google repiten su basura como si fuera el evangelio. Un sistema, Claude de Anthropic, huele la mierda. ¿Y qué nos enseña esto? Que todas estas empresas lanzaron sus sistemas sabiendo perfectamente que son tan manipulables como una urna electoral en una república bananera.
Las soluciones llevan años acumulando polvo. Verificación multi-modelo donde los sistemas se revisan entre sí. Evaluación de fuentes que entiende que un blog oscuro no es prueba. Cuantificación de incertidumbre que dice “espera, esto no cuadra.” Pero esas capas cuestan poder de cómputo y tiempo, y en la carrera por el dominio del mercado donde cada mes de retraso cuesta miles de millones, la precisión fue sacrificada en el altar de la velocidad. Porque que se joda la verdad, ¿no? Mientras el precio de las acciones siga subiendo.
OpenAI habla de “seguridad” mientras corre para bombear ChatGPT a miles de millones de usuarios. Google abandonó “Don’t be evil” porque se volvió demasiado difícil hacerse rico y mantenerse honesto. Anthropic juega al modesto perdedor mientras lucha igual de duro por los mismos millones de capital de riesgo. Esto no es una competencia por el mejor producto, es una fiebre del oro donde quien planta la bandera primero se lleva las ganancias.
Usas estos sistemas todos los días. Para consejos médicos, tips financieros, preguntas legales. Y sabes que mienten, alucinan, venden basura como hechos. Pero es tan jodidamente fácil, tan tentadoramente rápido. Tenemos la tecnología para arreglar esto, pero ninguna empresa implementa esas soluciones antes de lanzar. ¿Por qué lo harían? Los usuarios siguen viniendo de todos modos.