كانت Meta تراقبك في حمامك
يتم تقديم الموافقة هنا كحقيقة تقنية: وافق المستخدم. لكن الموافقة تتطلب الفهم، والفهم يتطلب بيئة تعرف فيها ما يحدث. هذا غائب من الناحية الهيكلية. الرجل الذي يترك نظارات Meta على طاولة السرير لا يعرف أن نظارته تسجل. شريكته لا تعرف أنها تتعرض للمراقبة عندما تخرج من الحمام. والمُعلِّق في نيروبي يعرف بالضبط ما يراه، لكن ليس لديه خيار سوى الاستمرار في النقر.
الصورة الهيكلية تشير إلى آلية واحدة: سلسلة من المقاولين تمكن جمع البيانات على نطاق واسع بينما تتلاشى المسؤولية القانونية. “مصمم من أجل الخصوصية” ليس وصفاً لنظام. إنه منتج تسويقي يتناقض عن قصد مع كيفية عمل النظام فعلياً. في الوقت نفسه، تكشف الحاجة إلى التعليق البشري عن واقع تقني نادراً ما يُقال بصراحة: النماذج لا تتعلم بمفردها. تتعلم من العمل البشري المُصنَّف، وهذا العمل يتطلب أشخاصاً يشاهدون ما يلتقطه المستخدمون دون علم. عدم الاشتراك الافتراضي، بدلاً من الاشتراك، ليس إغفالاً في هذا الإعداد. إنه اختيار متعمد يحافظ على خط أنابيب البيانات. مع التعرف على الوجه كخطوة تالية، ينتقل هذا الخطر من الشخص الذي يرتدي النظارات إلى الجميع من حولهم.
ما يختفي في النهاية هو القدرة على معرفة متى تكون خاصاً. ليس من خلال انتهاك واحد، بل من خلال بيئة تجعل الحد الفاصل غير مرئي من الناحية الهيكلية. السؤال ليس ما إذا كان يجب على المستخدمين الانتباه بشكل أفضل. السؤال هو ما نوع المجتمع الذي نصبح عليه عندما لا يكون الانتباه كافياً لأن التكنولوجيا تعمل دائماً.