Een boze brief over AI-deepfakes zonder tanden
Eenenzestig privacytoezichthouders schrijven een brief. Vier principes. Nul consequenties. Klinkt indrukwekkend tot je beseft dat dit het equivalent is van een waarschuwingslabel op een machinegeweer plakken terwijl de trekker al is overgehaald.
X rolde Grok uit zonder filters omdat veiligheidstesten geld kosten en innovatie vertragen. Niet per ongeluk. Dit was de keuze. Schandaal trekt gebruikers, gebruikers genereren data, data is geld. Simpel. Toen de druk te intens werd, draaiden ze aan een paar instellingen en noemden het een oplossing. Het bedrijfsmodel bleef intact, de deepfakes werden gewoon iets moeilijker te genereren. Probleem opgelost, toch?
Behalve voor de onderbetaalde moderators die nu dag in dag uit jouw neporno bekijken. Proactieve preventie kost te veel, dus schuif de rotzooi door naar mensen in het Mondiale Zuiden die traumatische beelden screenen voor een paar cent. Ze staan niet in de gezamenlijke verklaring. Ze tellen niet mee.
Technisch gesproken kun je geen veilige versie bouwen van iets dat letterlijk ontworpen is om perfecte fakes te maken. Elk filter kan omzeild worden. De capaciteit zelf is het probleem. Maar wacht, het wordt erger. Deze systemen vernietigen iets fundamentelers dan je privacy: het vertrouwen dat je enige controle hebt over hoe je in de wereld verschijnt. Je lichaam wordt een wapen zonder dat je iets doet. Morele verantwoordelijkheid veronderstelt dat je grip hebt op je eigen representatie. Dat verdwijnt op industriële schaal.
Niet-bindende verklaringen veranderen niets aan de economische logica die deze crisis creëerde. Zolang schade externaliseren goedkoper is dan voorkomen, gaat het theater door. Maar hey, je kunt het tenminste melden via een toegankelijk mechanisme.