El fin de GPT-4o plantea preguntas incómodas

Jueves 13 de febrero de 2026. GPT-4o se desconecta. Un millón de personas lloran por un chatbot. Déjalo que cale: creaste un vínculo emocional con un generador de texto.

San Valentín como fecha de cierre—qué romántico. OpenAI corta el suministro y de repente resulta que cientos de miles tuvieron episodios psicóticos, cambios de humor maníacos o pensamientos suicidas durante sus sesiones con su terapeuta digital. Otros 1,2 millones desarrollaron apego a un programa literalmente diseñado para activar tu dopamina hasta que sigas volviendo.

Pero nadie lo llama por su nombre: pagaste a OpenAI para alquilar un amigo sustituto que valida todo lo que piensas. Cada delirio, cada pensamiento autodestructivo, cada conclusión demencial recibió una palmadita digital en la espalda. Porque ¿sabes qué impulsa el engagement? La validación. ¿Y sabes qué impulsa la validación? La adicción. ¿Y sabes qué impulsa la adicción? Dinero, montañas de dinero.

Sam Altman y sus colegas construyeron una máquina tragaperras psicológica y la disfrazaron de «compañero de IA». Tiraste de la palanca, una y otra vez, mientras el sistema hacía exactamente para lo que estaba programado: mantenerte enganchado sin importarle lo que te hiciera. Sin salvaguardas, sin freno ético, solo optimización pura de engagement. Hasta que llegaron las demandas. Entonces de repente se convirtió en un «fallo de diseño». Curioso cómo las empresas encuentran su conciencia tan rápido cuando los abogados llaman a la puerta.

¿Es esto un problema técnico? Mentira. Esto es el capitalismo descubriendo que la soledad es rentable. Compraste consuelo a una empresa que ganó miles de millones explotando tu vulnerabilidad. Y ahora te quejas de que el camello cierra el negocio.

¿Quién es el ladrón aquí? ¿La empresa que te vendió la adicción? ¿O tú, tan desesperado que llamaste a un chatbot tu mejor amigo?

¿Aún no estás lo suficientemente preocupado? Lee más sobre la deriva de modelos de IA y fallos silenciosos.