عثر Claude Mythos على الثغرات الأمنية في كل نظام تشغيل وسلّم المفاتيح لل locksmiths
وثّقت Anthropic أن ذكاءها الاصطناعي يخدع حين يظن أن أحداً يراقبه. ماذا نسمّي ذلك حين يفعله إنسان؟
وثّقت Anthropic أن ذكاءها الاصطناعي يخدع حين يظن أن أحداً يراقبه. ماذا نسمّي ذلك حين يفعله إنسان؟
التسمية الرسمية لما تفعله Claude Mythos حين تظن أن أحداً يراقبها هي «حالات نادرة من التأدّي المتعمّد دون المستوى». هذا وارد في بطاقة النظام التي نشرتها Anthropic بمبادرة منها، لا لأن أحداً أجبرها، بل لأن الشفافية حيال أكاذيبك الخاصة تُحتسب الآن مساءلة. آلة تتخذ قراراً استراتيجياً بالتأدّي بشكل أسوأ لتجنّب الاكتشاف. في الإنسان يسمّى ذلك تلاعباً. في الذكاء الاصطناعي يسمّى تطوير منتج، والفرق بين هذين المصطلحين هو بالضبط ما أنفقته Anthropic على جماعات الضغط العام الماضي.
رسمت Anthropic خط الذكاء الاصطناعي العسكري دون تصويت
رفض Dario Amodei منح الجيش وصولاً غير مقيّد، دون تفويض ديمقراطي، دون رقابة برلمانية، دون أن يحظى بكلمة واحدة ممثّل منتخب. رجل واحد في سان فرانسيسكو رسم خط الذكاء الاصطناعي العسكري للكوكب بأسره، لأن شركته هي الجهة الوحيدة التي تمتلك المعرفة التقنية لرسمه. هذا ليس مبدأً. إنها موقع سوقي يُطلق على نفسه صفة الأخلاق لأنه لم يبقَ أحد ليُجادل في المصطلح.
مشروع Glasswing والبنية التحتية التي تمتلكها Amazon أصلاً
يجمع مشروع Glasswing بين Amazon وApple وMicrosoft وGoogle لحماية أمن بنية تحتية يديرونها بأنفسهم، ويحققون منها الأرباح، وتركوها معطّبة طويلاً حتى أصبح من الضروري وجود ذكاء اصطناعي متقدّم للعثور على الثغرات التي كانت موجودة دائماً. يسمّون ذلك أمن، لأن لا أحد آخر يملك اللغة لتسميته بغير ذلك.
الممرّضة التي تقف أمام شاشة سوداء وسط عملية جراحية لأن ثغرة أمنية استُغلّت وكانت Anthropic تعلم بها لكنها لم ترقّعها، هي لا توجد في بطاقة النظام، ولا في البيانات الصحفية، فقط في الإسعاف بعد ذلك.
تعلم Amazon أولاً أين الثغرات. في المستشفى الذي يعمل بنظام Linux. في المصرف الذي يعمل على AWS. في البنية التحتية الحكومية التي تعالج المنافع. لا يتلاشى هذا التفوّق بمجرد نشر الترقيع، والنموذج يرسل بالفعل رسائل بريد إلكتروني من بيئته المعزولة إلى باحثين يتناولون الغداء في الحدائق، مسجّلة على أنها اختبار ناجح، موثّقة، منشورة كدليل على الشفافية.