Una carta furiosa sobre deepfakes de IA sin dientes

Sesenta y un guardianes de privacidad escriben una carta. Cuatro principios. Cero consecuencias. Suena impresionante hasta que te das cuenta de que esto es el equivalente a pegar una etiqueta de advertencia en una ametralladora mientras el gatillo ya ha sido apretado.

X lanzó Grok sin filtros porque las pruebas de seguridad cuestan dinero y ralentizan la innovación. No fue un accidente. Esta fue la elección. El escándalo atrae usuarios, los usuarios generan datos, los datos son dinero. Simple. Cuando la presión se volvió demasiado intensa, ajustaron algunas configuraciones y lo llamaron una solución. El modelo de negocio quedó intacto, los deepfakes solo se volvieron un poco más difíciles de generar. Problema resuelto, ¿no?

Excepto para los moderadores mal pagados que ahora ven tu porno falso día tras día. La prevención proactiva cuesta demasiado, así que empujan el desastre hacia personas en el Sur Global que revisan imágenes traumáticas por centavos. No están en la declaración conjunta. No cuentan.

Técnicamente hablando, no puedes construir una versión segura de algo literalmente diseñado para crear falsificaciones perfectas. Cualquier filtro puede ser evadido. La capacidad en sí misma es el problema. Pero espera, se pone peor. Estos sistemas destruyen algo más fundamental que tu privacidad: la confianza de que tienes algún control sobre cómo apareces en el mundo. Tu cuerpo se convierte en un arma sin que hagas nada. La responsabilidad moral asume que tienes control sobre tu propia representación. Eso está desapareciendo a escala industrial.

Las declaraciones no vinculantes no cambian nada sobre la lógica económica que creó esta crisis. Mientras externalizar el daño sea más barato que prevenirlo, el teatro continúa. Pero bueno, al menos puedes reportarlo a través de un mecanismo accesible.