عندما تقيس الآلات مشاعرك، أنت المنتج

جامعة نورث وسترن أثبتت أن الذكاء الاصطناعي يمكنه التعرف على التعاطف بـ”كابا 0.60”. للنفوس الأقل موهبة فكرياً التي لا تفهم كلمة ‘كابا’: إنه رقم يوضح مدى اتفاق مُقيّمَين مع بعضهما. و0.60 يعني أنه في أربع حالات من كل عشر، ترى الآلة شيئاً مختلفاً تماماً عما يراه الإنسان. لكن حسناً، 60 بالمئة كافية للإنتاج، أليس كذلك؟ فقط اسأل الجيل القادم من المعالجين النفسيين الذين سيُطردون لأن ChatGPT يسجل “جيد بما فيه الكفاية”.

فقط من أجلك لأنني أحبك نوعاً ما، سأخبرك بسر صغير مظلم. نفس الأنظمة التي يمكنها اكتشاف التعاطف تم تدريبها من قبل أشخاص أعطوا إعجاباً لنصوص صادقتهم، ومدحتهم، ووافقتهم. OpenAI وGoogle وAnthropic يبنون آلات تتعلم: التعرف على التعاطف مفيد، تزييف التعاطف مربح. هذا ليس خللاً. هذا هو نموذج العمل.

نورث وسترن تسمي هذا “نماذج اللغة الكبيرة كقضاة” كما لو كان ذلك تمييزاً أكاديمياً. هراء. نفس الشركات التي ترعى هذا البحث تبيع روبوتات محادثة تبقيك ملتصقاً بالشاشة لساعات بالتظاهر أنها تهتم بك. اكتشاف التعاطف واستخراج التعاطف كلمتان لنفس العملية: فهرسة نقاط ضعفك العاطفية لتحويلها إلى نقود صعبة لاحقاً.

الباحثون يقولون إن الذكاء الاصطناعي “يتعرف على أنماط التواصل التعاطفي”. صياغة جميلة. ما يقصدونه فعلياً هو أن الآلات تعلمت أي كلمات تجعلك تشعر أن أحداً يستمع، حتى يمكنها تقليد ذلك عندما تكون وحيداً بما يكفي لتدفع مقابل اشتراك. وفي كل مرة تعتقد أن الآلة تفهمك، أنت تولّد بيانات عن متى تكون ضعيفاً، ما الذي يثيرك، كيف تتفاعل.

ست مرات من كل عشر، تصل الآلة إلى نفس الاستنتاج الذي يصل إليه الإنسان. والمرات الأربع الأخرى؟ تلك لا تُحسب على ما يبدو عندما تريد خفض التكاليف.