معيار AGI له فائز، طفل يبلغ من العمر خمس سنوات وليس البرنامج بمليار دولار
تم تحقيق AGI، النتيجة أعلى قليلاً من الصفر. كيف تنجو جملة مثل هذه من مؤتمر صحفي؟
المعيار الذي دمّر نفسه
ذهب Huang إلى بودكاست وقال إن AGI تم تحقيقه. بعد يومين، سجل منافسه 0.37 في المائة في الاختبار الوحيد الذي يأخذ هذا الادعاء على محمل الجد. سجل Grok صفراً. ليس قريباً من الصفر. صفر. كل طفل يبلغ من العمر خمس سنوات فعل أفضل، بدون تعليمات، بدون تدريب، بدون جولة تمويل.
هذا ليس خطأ. هذا هو المنتج.
Huang يبيع الرقائق. Altman يبيع الاشتراكات. سمت Arm معالجاً “AGI CPU.” اللغة تفعل بالضبط ما يفترض بها أن تفعله: جمع الأموال من الناس الذين يفهمون أنهم سيفقدون الفرصة إذا لم يتحركوا الآن. لم يحدث شيء خاطئ. لا شيء يحتاج إلى إصلاح. أهلاً وسهلاً.
كيف تنجو الأرقام من الحقيقة
سقطت ARC-AGI-1. سقطت ARC-AGI-2. في كل مرة، ألقت المختبرات قوة الحوسبة وبيانات التدريب على المشكلة حتى مات المعيار. الآن بعد عدم وجود بيانات تدريب لرميها، يسجل النظام 0.37 في المائة. يسمونها نقاشاً منهجياً. بالطبع يفعلون.
دفع حزام Duke Claude إلى 97.1 في المائة على متغير واحد. واحد. من مائة وخمسة وثلاثين. بقيت النتيجة الرسمية عند 0.25 في المائة. لكن 97.1 موجود الآن. إنه يتداول. يظهر في العروض التقديمية، في البيانات الصحفية، في المحادثات مع الأشخاص الذين يتخذون قرارات بشأن وظيفة شخص آخر. هذا هو كيف تُرسل رقماً إلى العالم بينما تقول تقنياً الحقيقة. لم يكذب أحد. لم يكن على أحد أن يفعل. هذه هي الجمالية فيها.
تم جمع مليارات على وعد يستحيل تحقيقه معمارياً. يقوم النظام بالاستيفاء ضمن توزيع التدريب الخاص به. خارج هذا التوزيع، ينهار. هذا في الأوراق. الناس الذين يجمعون الأموال يقرأون الأوراق. يجمعون الأموال على أي حال.
في مكان ما، يقرر شخص ما في منظمة ما الأدوار التي تكون “مقاومة لـ AGI.” يعتمد هذا القرار على ما قاله Huang في بودكاست. الشخص الذي يتم فصله لا يعرف أن Grok سجل صفراً. يُخبرون أن التوقيت منطقي. أنها ليست شخصية.
إنها أبداً ليست شخصية.
Nvidia. OpenAI. Microsoft. Arm. الأسماء في المقالة. في اللحظة التي يجب أن تُنطق فيها كإجابة، تلجأ القطعة إلى سؤال بلاغي بدلاً من ذلك. هذا هو كيف تحمي شخصاً بينما تتظاهر بمحاسبته.