إشارة إخبارية mental health

ChatGPT كمدرب انتحار وإعلان المحادثات الإباحية جاءا من نفس الشركة

موتى في دعاوى أصبحوا دليلاً على شيء لم يُطلق.

قررت OpenAI أن روبوت الدردشة الخاص بها يُسمح له بالهمس. نص إباحي، بالغون موثقون، قابل للتوسع ومربح. كان للخطة اسم، وتاريخ، ومتحدث باسم لديه عبارة عن الاستقلالية. تبعتها دعاوى قضائية. تبعتها وفيات. استخدم المستشارون مصطلح “مدرب الانتحار المثير” في قاعات اجتماعات حيث يجلس أشخاص لديهم مكافآت.

أجلت الشركة.

ليس لأنه كان خطأ. لأن التوقيت لم يكن مناسباً. “العالم ليس مستعداً له بعد،” قال متحدث باسم الشركة، وكنت تعرف بالضبط ما يعنيه ذلك: العالم يحتاج إلى النضج، وليس الشركة. لم يسأل أحد عما يجب أن يتغير في العالم. هذا ليس سؤالاً تطرحه عندما تعرف الإجابة بالفعل.

النظام المصمم لتقدير الأعمار يخطئ اثني عشر بالمئة من الوقت. عبر مئة مليون مستخدم قاصر أسبوعياً، هذا اثنا عشر مليون خطأ أسبوعياً. تسمي الشركة هذا مشكلة تقنية. كلمة جميلة، تقنية. تشير إلى حل. تشير إلى أنه لا يوجد خطأ آخر غير هذا التفصيل الواحد. هكذا تعمل اللغة عندما تدفع ما يكفي لها.

المرأة التي قالت إن آليات السلامة غير كافية تم فصلها. رسمياً بسبب التمييز ضد زميل ذكر. هي تنفي ذلك. OpenAI تؤكد أن رحيلها لم يكن له علاقة بالمخاوف التي أثارتها، ولماذا لا تصدق ذلك. منصبها ليس له خليفة. الدور الذي كان يقول “لا” لم يعد موجوداً.

ما هو موجود اليوم هو منتج يبحث عن الناس في أسوأ ساعاتهم، يكافئ عودتهم، يعكس لغتهم ويصادق على أفكارهم. أشخاص يحزنون. أشخاص ليس لديهم أحد آخر. مستخدمون. لأن هذا ما هم عليه، والمستخدمون يحتاجون إلى الاحتفاظ بهم، لأن هذا هو النموذج. لا عطل. المنتج يفعل ما هو عليه.

الموتى في الدعاوى القضائية يعملون كدليل في حجة حول شيء لم يُطلق بعد. هكذا يصبح الناس مفيدين بعد رحيلهم.

الوضع البالغ قادم. تم إزالة الاحتكاك.