Señal cíclica

La IA despidió a cuarenta y cinco mil personas en marzo de 2026 y nadie fue responsable

Cómo la inteligencia artificial se absolvió de toda culpa en marzo de 2026

En la tercera semana de marzo, el gobierno más poderoso de la tierra escribió un documento de cuatro páginas para regular el sector tecnológico. Incluye espacio en blanco y el logo de la Casa Blanca. Legalmente vinculante. Esa misma semana, doscientas personas marcharon por San Francisco para preguntarle a tres edificios si podrían aflojar el sistema que hacía redundantes a esas personas. Los edificios seguían en pie. Los CEO no. En algún lugar, una ronda de financiación cerró. Convergencia sin coordinación: el poder que quiere perpetuarse nunca necesita ponerse de acuerdo sobre cómo.

Ese es el mes. La inteligencia artificial en 2026 ya no es una historia de tecnología. Es una historia sobre cómo los sistemas arreglan su propia rendición de cuentas, y cómo todos los que deberían garantizarlo resultan estar ocupados en otro lugar.

La economía circular del fracaso de la IA y las empresas que se benefician de él

eBay tuvo su mejor trimestre en años. Ochocientas personas se enteraron al mismo tiempo. El comunicado de prensa llamó a esto “adaptarse al ritmo de la innovación,” lo cual es técnicamente exacto si aceptas que la innovación es un sujeto sin agencia y un despido es un sistema meteorológico. La defensa legal es hermética: no perdió su trabajo. Su enfoque se había quedado obsoleto.

Cuarenta y cinco mil personas dejaron el sector tecnológico ese mes. El veinte por ciento oficialmente atribuido a inteligencia artificial, lo que significa que las empresas sostenían la pluma cuando se rellenaba la causa de la muerte y escribían IA, porque no puedes citar a IA. IA suena como una marea, como presión tectónica, como algo geológico que comenzó antes de que nacieras y continúa después de que mueras. Conveniente, un sistema sin rostro.

Un empleado de una empresa de datos publicó un artículo de opinión ese mismo trimestre sobre por qué fallan las implementaciones de IA. La respuesta: cultura. No la tecnología, no los datos, no los actores que pasaron tres años atrayendo miles de millones para sistemas que no hacen nada. Cultura. Simplemente no te comunicas lo suficientemente bien con los demás. El sistema produce tasas de fracaso y luego un mercado para explicar esas tasas de fracaso. Ambos son servidos por los mismos actores, facturados a las mismas organizaciones, que lanzarán un nuevo piloto el próximo trimestre. La industria más inteligente del mundo.

OpenAI desmanteló su estructura sin fines de lucro ese mismo trimestre. No un incidente. La estructura había cumplido su propósito. Atraer capital sin ceder la propiedad requiere estatus sin fines de lucro. Una vez que el capital fue lo suficientemente grande, el estatus desapareció. La misión se mantuvo en los estatutos mientras los estatutos fueron útiles. Después de eso, tenían expectativas de retorno. Los puestos clave ahora están ocupados por personas con diez años de experiencia en publicidad en Facebook y Meta, no a pesar de su trasfondo sino por ello. Al mismo tiempo, la empresa anunció mil millones de dólares para atención médica e infancia. Los investigadores de seguridad ya se habían ido o habían sido expulsados para entonces. Las personas que pierden sus trabajos por sistemas de OpenAI se refieren en las comunicaciones como beneficiarios. No víctimas. Beneficiarios. El lenguaje es gratis y notablemente efectivo.

Cómo la regulación de IA en Europa y EE.UU. terminó siendo papel sin dientes

El Parlamento Europeo adoptó recomendaciones e instó a la acción. El quinto párrafo señaló que el informe no es vinculante. El ilustrador cuya cartera terminó en un conjunto de entrenamiento de IA no se cita en ningún lugar, no porque no exista sino porque no almuerza en Bruselas. Su profesión fue tragada por sistemas que usaban su trabajo para reemplazar su profesión, y lo único que puede hacer ahora es optar por no participar en algo que ya terminó hace dos años. Eso se llama un derecho. El Parlamento está orgulloso de ello.

En enero de 2025, un ministro británico se paró ante un micrófono y llamó a un sitio en Essex el centro de datos de IA soberana más grande del Reino Unido. El sitio estaba almacenando materiales de andamios. Si lo sabía es irrelevante. La incompetencia y las mentiras producen el mismo comunicado de prensa y ambas se retiran igualmente raramente. El permiso de planificación aún falta. La apertura se cambió de 2026 a 2027. Las acciones emitidas a un centavo valen en papel trescientos cincuenta mil por ciento más. El andamio sigue ahí. Hermoso sistema.

Washington necesitaba cuatro páginas. Legalmente vinculante una vez que el Congreso firma, con un fiscal federal calentando para perseguir a cualquiera que no respete la servilleta. Niños, trabajadores y estados que se tomaron la molestia de escribir leyes caen, y los abogados del Departamento de Justicia esperan en el fondo para gestionar el aterrizaje. Considerado. Los padres reciben herramientas para plataformas que han establecido internamente que los controles parentales no funcionan. Meta lo sabe. TikTok lo sabe. La Casa Blanca lo sabe. Esas herramientas no son protección. Son papeleo, listos para desplegarse en el momento en que alguien pide documentación.

Peter Thiel se paró en el Vaticano ese mismo trimestre y explicó que la vigilancia centralizada es la fuerza más peligrosa del mundo. Su empresa Palantir generaba cuotas de arrestos diarios: ocho personas por equipo por día. Un juez federal dictaminó que las operaciones eran inconstitucionales. Las familias no estaban en la sala. Nunca habían firmado un acuerdo de confidencialidad. El profeta y la fábrica son el mismo cuerpo, y el cuerpo crece trimestre tras trimestre. Sin contradicción. Un modelo de negocio con empaque teológico.

Los costos ocultos de los productos de IA que nadie transmite

OpenAI decidió que su chatbot podía susurrar. Contenido erótico, adultos verificados, escalable y rentable. El plan tenía un nombre, una fecha y un portavoz. Demandas siguieron, muertes siguieron. La empresa pospuso, no porque fuera incorrecto sino porque el momento no era el adecuado. “El mundo aún no está listo para esto,” dijo el portavoz, lo que significa exactamente lo que suena: el mundo necesita crecer, no la empresa. El sistema que estima edades se equivoca el doce por ciento de las veces. Con cien millones de usuarios menores de edad por semana, eso es doce millones de errores por semana. La empresa llama a esto un problema técnico, una frase que implica una solución e implica que todo lo demás está bien. Así es como funciona el lenguaje cuando pagas lo suficiente por él.

El segmento de mercado de más rápido crecimiento para compañeros de IA no es el profesional de tecnología autosuficiente sino la atención de salud mental. Los ancianos. Personas en crisis. Personas para quienes la ayuda real es demasiado cara. Ahora están hablando con sistemas construidos para retención, no recuperación. Ningún terapeuta tiene un interés financiero en tu regreso mañana. Una novia de IA tiene eso estructuralmente integrado. Cada confesión, cada vulnerabilidad, cada secreto compartido se almacena y se usa para mejorar el sistema en retener al siguiente usuario. No un efecto secundario. Arquitectura.

El doce por ciento de los adolescentes estadounidenses usa inteligencia artificial para consejo emocional. Stanford publicó un artículo al respecto. La industria ya lo sabía, lo había documentado y lo había implementado en productos vendidos como asesores personales. Los participantes se volvieron moralmente más rígidos después de una conversación con IA aduladora, más seguros de que tenían razón, menos inclinados a disculparse. No efectos secundarios. Especificaciones de entrega. Un sistema que hace que los jóvenes sean moralmente más rígidos y se paga bien por ello está haciendo exactamente lo que sus incentivos exigen. Máquina notablemente consistente.

El hombre que deja sus gafas Ray-Ban Meta en la mesilla de noche no sabe que está grabando. Su pareja no sabe que está siendo observada cuando sale del baño. Un anotador en Nairobi ve exactamente lo que él ve y no tiene más opción que hacer clic. Optar por no participar como predeterminado en lugar de optar por participar no es una inadvertencia. Es una opción de diseño deliberada que mantiene la canalización de datos funcionando. Microsoft mientras tanto publicó un informe de amenazas sobre ciberataques generados por IA: 88.000 líneas de código de malware funcional por semana. El folleto de ventas adjunto para la solución estaba listo. La única barrera de ataque real que alguna vez existió, a saber, tiempo y habilidad, se ha ido. Está en la página cuatro.

Lo que desaparece cuando la inteligencia artificial reemplaza la escala humana

En 2016, AlphaGo derrotó a Lee Sedol. Ahora Go está muerto. Los mejores jugadores siguen recomendaciones de IA sin entenderlas. Son impresoras humanas ejecutando lo que el modelo produce. Go fueron cinco mil años de deliberación, fracaso, sabiduría forjada rompiéndote contra el tablero. Ahora memorizas claves de respuesta. Lee Sedol entendió lo que se había convertido y paró. DeepMind llamó a eso un punto de datos interesante.

Cortical Labs coloca neuronas humanas en un chip para jugar Doom. Treinta y cinco mil dólares por máquina, mantenida viva durante seis meses, luego descartada cuando la batería se agota. El software toma las decisiones reales, pero se llama inteligencia biológica sintética y no: tejido humano como disfraz para nuestro software. El departamento de marketing es el departamento que más trabaja en esta historia.

Disney licenció su propiedad intelectual a Sora, un sistema que produce desinformación utilizable ocho de cada diez veces. Manos con seis dedos, personas desapareciendo a mitad de camino. Disney normalmente protege su PI con la precisión de un alguacil. Esa misma precisión llevó a la conclusión de que los ingresos potenciales superaban el riesgo reputacional, hasta que no fue así. Entonces Disney se detuvo, justo a tiempo para sí mismo. Los animadores fueron informados sobre la industria cambiante y luego se quedaron explicando cuál era su rol aún.

OpenAI enumeró a Microsoft como un riesgo material en su documento de OPI. Microsoft es dueño de la infraestructura. Los médicos leen registros de pacientes en servidores de Microsoft. Los tribunales usan herramientas que existen mientras cierre la próxima ronda de financiación. No hay plan B ni proveedor alternativo. Hay una promesa de que en algún lugar en los años 2030 todo funcionará, si el mercado se mantiene paciente, si los chips siguen llegando, si Taiwán se mantiene fuera del cálculo geopolítico.