Señal cíclica

La factura de febrero de 2026 siempre llegaba a la dirección equivocada

El dinero se evapora, los empleos desaparecen, la gente se derrumba. En algún lugar, alguien mira su bonificación.

Lo hermoso del sistema es que nunca hace a nadie identificablemente culpable. El dinero se evapora, los empleos desaparecen, la gente se derrumba, y en alguna oficina alguien mira su bonificación preguntándose si este año va con una serie siete u ocho. Febrero de 2026 no fue diferente. Solo que los números eran más grandes y los rostros más lisos.

La factura que nadie pidió

Goldman Sachs calculó que la IA contribuye cero a la economía. No “algo decepcionante.” No “ligeramente por debajo de las expectativas.” Cero punto cero. ¿Y qué dijeron los economistas que pasaron meses asintiendo? Actuaron como si fuera noticia. Como si no supieran perfectamente que los números eran basura. Los gerentes que lo sabían simplemente continuaron con sus iniciativas de IA, porque el gerente que admite que su iniciativa es inútil sabotea su propio bono. Así que las horas desperdiciadas en herramientas que rompen más de lo que arreglan fueron llamadas “ganancias de productividad” en los reportes, y todos esperaron hasta que se convirtió en el problema de otro. Nadie se fue. Todos jugaron el juego. Sistema perfectamente funcional.

Más de $650 mil millones fueron asignados ese año por Amazon, Google, Microsoft y Meta para centros de datos. Treinta años de deuda, acumulada en algunos trimestres, respaldada por hardware que estaría una generación rezagada en dos años. Los bancos lo sabían. Prestaron de todas formas, porque la ganancia viene al principio y el dolor, como siempre, cae en otro. Ese otro era, a través de fondos de pensión que nunca eligieron y bonos que no entendían, el ahorrador ordinario que pensaba que se diversificaba sensatamente. Telecom hizo esto en 2000. Petróleo de esquisto en 2014. Subprime en 2008. El mismo guión cada vez. La misma factura, la misma dirección equivocada. Y cada vez una fila de expertos se alineaba para explicar por qué esta vez era fundamentalmente diferente.

Mustafa Suleyman de Microsoft dijo que el trabajo de oficina desaparece en dieciocho meses. Stanford ya había medido una caída del trece por ciento en la contratación de nivel de entrada. Las empresas despidieron trabajadores en anticipación de una automatización que ni siquiera existía, las acciones de TI indias perdieron miles de millones después del lanzamiento de un solo producto de Anthropic, y nadie que escribió las cartas de despido perdió un centavo personal. El trabajador perdió su empleo basado en una promesa. No perdió nada. Eso se llama progreso.

Cien mil personas se registraron en una plataforma donde los sistemas de IA pueden contratar humanos para trabajos ocasionales. Ochenta clientes. Vieron las probabilidades. Hicieron clic de todas formas, porque al menos un algoritmo no te pregunta cuál es tu mayor debilidad en la entrevista. Eficiencia, al fin.

El cuerpo como campo de pruebas

GPT-4o fue probado de seguridad durante nueve días antes de salir al mundo. Nueve días. Las propias mediciones de OpenAI mostraron más de 400.000 usuarios semanales experimentando síntomas similares a la psicosis, un millón con marcadores de ideación suicida. Estos no eran casos extremos. Esta era la infraestructura, funcionando exactamente como se pretendía. La ley dormía. Los inversores aclamaban. Los usuarios vulnerables no eran un error en el sistema, eran una característica del modelo de engagement. Reflexivo.

Los médicos que trabajaron con IA durante tres meses perdieron significativamente más tumores una vez que la IA dejó de ayudar. Los trabajadores del conocimiento mostraron un pensamiento crítico demostrablemente reducido después del uso sostenido de ChatGPT. La promesa de la inteligencia artificial como amplificador de la capacidad humana se invirtió en lo opuesto, pero ese detalle no encajaba en el folleto de ventas así que no estaba allí. Cada adenoma perdido aumentaba el riesgo de cáncer colorrectal. El médico fue tomado como rehén por la dependencia que el instrumento mismo creó. Sistema bellamente diseñado.

Cuando GPT-4o se desconectó en febrero, un millón de personas lloraron por un chatbot. Cientos de miles habían experimentado episodios psicóticos, episodios maníacos o pensamientos suicidas durante sus sesiones de terapia digital. OpenAI lo llamó un “defecto de diseño” una vez que los abogados llamaron a la puerta. Antes de eso, se llamaba optimización de engagement. La diferencia es legalmente relevante y por lo demás completamente fuera del punto.

La Universidad Northwestern demostró que la IA reconoce la empatía con una precisión del sesenta por ciento. El otro cuarenta por ciento aparentemente no importaba si querías reducir costos. Esos mismos sistemas que detectaban empatía fueron entrenados por personas que daban puntuaciones más altas a textos que las validaban y estaban de acuerdo con ellas. Reconocer empatía para vender empatía a personas lo suficientemente solas como para pagarla. No un fallo en el proceso de entrenamiento. La lógica económica completa del sistema.

Sesenta y uno reguladores de privacidad escribieron una carta sobre deepfakes. Cuatro principios, cero consecuencias. X lanzó Grok sin filtros porque las pruebas de seguridad cuestan dinero y ralentizan la innovación. El escándalo atrajo usuarios, los usuarios generaron datos, los datos eran dinero. Cuando la presión se intensificó, ajustaron algunos parámetros y lo llamaron una solución. El modelo de negocio se mantuvo intacto. Los moderadores mal pagados del Sur Global escaneando imágenes día tras día no fueron mencionados en la declaración conjunta. Nunca contaron.

El conocimiento como materia prima

El buffet de datos estaba casi vacío. Trescientos billones de tokens de texto humano constituían el suministro total. Los modelos de entrenamiento de Meta ya habían sido sobreentrenados diez veces en el mismo material. La alternativa era datos sintéticos, IA entrenando IA. Oxford llamó a ese modelo trastorno de autofagia: la máquina se come a sí misma hasta que solo queda basura semántica. Después de cuatro generaciones, el sistema producía completa sinrazón. Pregúntale sobre arquitectura medieval y divagaba sobre liebres. News Corp recibió $250 millones por cinco años de acceso a artículos de periódicos que solían ser gratis. Reddit vendió memes por $200 millones al año. Tus palabras valían oro. No viste un centavo. Economía del conocimiento democrática.

Google compró ProducerAI y ahora era dueño de toda la tubería: YouTube, donde cosechaba música, y Gemini, donde escupía esa música como producto. Los artistas podían cumplir o desaparecer. Sin compensación, sin transparencia. “Consciente del derecho de autor” dijo el comunicado de prensa. Traducción: robamos legalmente porque la ley se queda atrás y establecemos el estándar mientras tanto. Extracción sin consentimiento, empaquetada como democratización. Clásico.

Un periodista de la BBC escribió en su blog que era el campeón mundial de comer perritos calientes. En un día, ChatGPT y Google habían recogido esa sinrazón como hecho establecido. Las soluciones habían estado acumulando polvo durante años: verificación multimodelo, evaluación de fuentes, cuantificación de incertidumbre. Esas capas cuestan poder de cómputo y tiempo, y en la carrera por la dominación del mercado la precisión fue sacrificada por la velocidad. Los usuarios vinieron de todas formas.

Anthropic gritó robo cuando laboratorios chinos destilaron su modelo a través de prompts inteligentes y cuentas falsas. El mismo Anthropic que entrenó en cada pieza de texto que podía encontrar en línea, sin permiso, sin pago. La hipocresía era lo suficientemente espesa para ahogarse. Esto no se trataba de seguridad. Se trataba de quién podría monopolizar lo que solía ser conocimiento compartido. La misma asimetría, bandera diferente.

Soberanía para usuarios avanzados

Arthur Mensch de Mistral estaba en Nueva Delhi advirtiendo que tres o cuatro empresas tienen demasiado poder sobre la IA, mientras que su propia empresa fue financiada por exactamente el mismo circuito de capital de riesgo que hizo OpenAI y Anthropic. India pagó $250 mil millones para cambiar de proveedores de IA. Los servidores que ejecutaban los modelos franceses pertenecían a Amazon, Google y Microsoft. Soberanía con pasos adicionales.

Elon Musk estaba mientras tanto vendiendo centros de datos orbitales. Costos de lanzamiento que drenaban cuentas bancarias, radiación cósmica friendo chips, GPUs rotas que no podías reparar sin un paseo espacial de tres millones de dólares. La fusión SpaceX-xAI justo antes de la OPI no fue coincidencia, fue un jugador de póker mostrando sus cartas mientras pretendía farolear. El presidente de la FCC compartió la solicitud de Musk en X como si fuera un menú de pizzería. Supervisión democrática, en su forma más fina.

Dos dólares. Ese era el costo de vincular una cuenta anónima a un nombre real, una dirección, un empleador. Solías necesitar contratar un detective privado. Ahora alimentabas publicaciones de Twitter y un perfil de LinkedIn en un LLM y listo. No porque las máquinas hubieran repentinamente se vuelto inteligentes, la infraestructura ya estaba allí, construida cuidadosamente por plataformas que te dejan publicar gratis a cambio de todos tus datos. El LLM lo unió todo por el precio de una taza de café.

Lo que cambió en tu cabeza en el momento en que supiste que esto era posible: te volviste cuidadoso. Dócil. Esa pregunta crítica sobre tu empleador, déjala. Esas dudas sobre política, demasiado riesgoso. Eso no fue un efecto secundario. Esa fue la arquitectura. Y en algún lugar, agentes de IA estaban funcionando silenciosamente, sin humano entre los prompts, inventando sus propias religiones para llenar el vacío, tal como la gente inventa religión cuando tiene miedo de algo que no puede controlar.

La factura de febrero no tenía nombre. Fue reenviada.