فاتورة فبراير 2026 وصلت دائماً إلى العنوان الخاطئ
الأموال تتبخر، الوظائف تختفي، الناس ينهارون. في مكان ما، يحدق شخص في مكافأته.
الشيء الجميل في النظام هو أنه لا يجعل أحداً مسؤولاً بشكل محدد. الأموال تتبخر، الوظائف تختفي، الناس ينهارون، وفي مكان ما في مكتب يحدق شخص في مكافأته ويتساءل ما إذا كان سيختار سيارة من الفئة السابعة أم الثامنة هذا العام. فبراير 2026 لم يكن مختلفاً. فقط الأرقام كانت أكبر والوجوه أملس.
الفاتورة التي لم يطلبها أحد
احتسبت جولدمان ساكس أن الذكاء الاصطناعي يساهم بصفر في الاقتصاد. ليس “محبطاً نوعاً ما.” ليس “أقل قليلاً من التوقعات.” صفر فاصلة صفر. وماذا قالت الاقتصاديون الذين قضوا أشهراً في الإيماء؟ تصرفوا كما لو كانت أخباراً. كما لو أنهم لم يعرفوا تماماً أن الأرقام كانت قمامة. المديرون الذين عرفوا هذا استمروا ببساطة في مبادراتهم الخاصة بالذكاء الاصطناعي، لأن المدير الذي يعترف بأن مبادرته عديمة الفائدة يخرب مكافأته الخاصة. لذا الساعات المهدرة على أدوات تكسر أكثر مما تصلح تم استدعاؤها “مكاسب الإنتاجية” في التقارير، والجميع انتظروا حتى أصبحت مشكلة شخص آخر. لا أحد غادر. الجميع لعبوا اللعبة. نظام يعمل بشكل مثالي.
تم تخصيص أكثر من $650 مليار في تلك السنة من قبل أمازون وجوجل ومايكروسوفت وميتا لمراكز البيانات. ثلاثون سنة من الديون، تراكمت في بضعة أرباع، مدعومة بأجهزة ستكون متخلفة جيلاً واحداً في غضون سنتين. البنوك عرفت هذا. أقرضت على أي حال، لأن الربح يأتي في البداية والألم، كما هو الحال دائماً، يسقط على شخص آخر. ذلك الشخص الآخر كان، من خلال صناديق التقاعد التي لم يختاروها أبداً والسندات التي لم يفهموها، المدخر العادي الذي اعتقد أنه يتنويع بحكمة. فعلت Telecom هذا في 2000. النفط الصخري في 2014. الرهن العقاري عالي المخاطر في 2008. نفس السيناريو في كل مرة. نفس الفاتورة، نفس العنوان الخاطئ. وفي كل مرة صف من الخبراء يصطفون لشرح لماذا كان هذا مختلفاً بشكل أساسي.
قال Mustafa Suleyman من مايكروسوفت أن العمل المكتبي يختفي في غضون ثمانية عشر شهراً. قاست جامعة ستانفورد بالفعل انخفاضاً بنسبة ثلاثة عشر في المائة في التوظيف على مستوى الدخول. فصلت الشركات العمال توقعاً للأتمتة التي لم تكن موجودة حتى، وخسرت أسهم تكنولوجيا المعلومات الهندية مليارات بعد إطلاق منتج واحد من Anthropic، ولم يخسر أحد كتب رسائل الفصل سنتاً واحدة شخصياً. خسر العامل وظيفته بناءً على وعد. لم يخسر شيئاً. يُسمى هذا التقدم.
مائة ألف شخص اشتركوا في منصة حيث يمكن لأنظمة الذكاء الاصطناعي توظيف البشر للعمل بدوام جزئي. ثمانون عميل. رأوا الاحتمالات. نقروا على أي حال، لأن الخوارزمية على الأقل لا تسأل عن أكبر نقطة ضعف لديك في المقابلة. الكفاءة، أخيراً.
الجسد كساحة اختبار
تم اختبار GPT-4o من حيث السلامة لمدة تسعة أيام قبل أن يدخل العالم. تسعة أيام. أظهرت قياسات OpenAI الخاصة أكثر من 400,000 مستخدم أسبوعي يعانون من أعراض تشبه الذهان، مليون مع علامات الأفكار الانتحارية. لم تكن هذه حالات حدية. كانت هذه البنية التحتية، تعمل بالضبط كما هو مقصود. القانون نام. المستثمرون صرخوا. المستخدمون الضعفاء لم يكونوا خللاً في النظام، كانوا ميزة في نموذج الانخراط. متأمل.
الأطباء الذين عملوا مع الذكاء الاصطناعي لمدة ثلاثة أشهر فاتهم بشكل كبير المزيد من الأورام بمجرد توقف الذكاء الاصطناعي عن المساعدة. أظهر العاملون في المعرفة تفكيراً نقدياً أقل بشكل ملحوظ بعد الاستخدام المستمر لـ ChatGPT. انقلبت وعود الذكاء الاصطناعي كمضخم لقدرة الإنسان إلى العكس تماماً، لكن هذه التفاصيل لم تناسب كتيب المبيعات لذا لم تكن هناك. كل غدة ملتقطة مفقودة زادت من خطر سرطان القولون والمستقيم. تم أخذ الطبيب رهينة من قبل الاعتماد الذي أنشأه الأداة نفسها. نظام مصمم بشكل جميل.
عندما انقطع GPT-4o في فبراير، ناح مليون شخص على روبوت محادثة. عانى مئات الآلاف من نوبات ذهانية أو نوبات هوسية أو أفكار انتحارية أثناء جلسات العلاج الرقمية. أطلقت عليها OpenAI “عيب في التصميم” بمجرد طرق المحامون الباب. قبل ذلك، كانت تسمى تحسين الانخراط. الفرق ذو صلة قانونية وبخلاف ذلك خارج الموضوع تماماً.
أثبتت جامعة نورثويسترن أن الذكاء الاصطناعي يعترف بالتعاطف بدقة ستين في المائة. الأربعون في المائة الآخرون على ما يبدو لم يكن مهماً إذا كنت تريد خفض التكاليف. تم تدريب نفس الأنظمة التي كشفت التعاطف من قبل أشخاص أعطوا درجات أعلى للنصوص التي صادقتهم وأجمعوا معهم. التعرف على التعاطف لبيع التعاطف للأشخاص الوحيدين بما يكفي لدفع ثمنه. ليس خللاً في عملية التدريب. المنطق الاقتصادي الكامل للنظام.
كتب واحد وستون منظماً للخصوصية رسالة حول الفيديوهات المزيفة العميقة. أربعة مبادئ، صفر عواقب. أطلقت X نموذج Grok بدون مرشحات لأن اختبار السلامة يكلف المال ويبطئ الابتكار. جذب الفضيحة المستخدمين، وأنتج المستخدمون البيانات، والبيانات كانت أموالاً. عندما تكثفت الضغوط، عدلوا بعض الإعدادات وأطلقوا عليها حلاً. ظل نموذج الأعمال سليماً. لم يتم ذكر المشرفين برواتب منخفضة في الجنوب العالمي الذين يفحصون الصور يومياً في البيان المشترك. لم يحسبوا أبداً.
المعرفة كمادة خام
كان بوفيه البيانات فارغاً تقريباً. شكلت ثلاثمائة تريليون رمز من النصوص البشرية الإمداد الكلي. تم الإفراط في تدريب نماذج التدريب الخاصة بـ Meta عشر مرات على نفس المادة. كان البديل البيانات الاصطناعية، الذكاء الاصطناعي يدرب الذكاء الاصطناعي. أطلقت عليها أكسفورد اسم اضطراب الالتهام الذاتي: تأكل الآلة نفسها حتى لا يبقى سوى القمامة الدلالية. بعد أربع أجيال، أنتج النظام هراء كاملاً. اسأله عن العمارة في العصور الوسطى وسيهذي عن الأرانب. تلقت News Corp 250 مليون دولار لمدة خمس سنوات من الوصول إلى مقالات الصحف التي كانت مجانية. باعت Reddit الميمات بمبلغ 200 مليون دولار سنوياً. كانت كلماتك تستحق الذهب. لم تر سنتاً واحداً. اقتصاد المعرفة الديمقراطي.
اشترت جوجل ProducerAI والآن تملك خط الأنابيب بأكمله: YouTube، حيث حصدت الموسيقى، و Gemini، حيث بصقت تلك الموسيقى كمنتج. يمكن للفنانين الامتثال أو الاختفاء. لا تعويض، لا شفافية. قال البيان الصحفي “واعٍ بحقوق الطبع والنشر”. الترجمة: نسرق بشكل قانوني لأن القانون متخلف ونحدد المعيار في الوقت الراهن. الاستخراج بدون موافقة، معبأ كديمقراطية. كلاسيكي.
كتب صحفي من BBC على مدونته أنه كان بطل العالم في أكل الهوت دوج. في غضون يوم، التقطت ChatGPT وجوجل تلك الهراء كحقيقة مثبتة. كانت الإصلاحات تتراكم الغبار لسنوات: التحقق من النماذج المتعددة، تقييم المصدر، تحديد الكم عدم اليقين. تكلف تلك الطبقات قوة الحوسبة والوقت، وفي السباق من أجل الهيمنة على السوق تم التضحية بالدقة من أجل السرعة. جاء المستخدمون على أي حال.
صرخت Anthropic بالسرقة عندما قامت المختبرات الصينية بتقطير نموذجها من خلال المحفزات الذكية والحسابات المزيفة. نفس Anthropic التي تدربت على كل قطعة نصية يمكنها العثور عليها على الإنترنت، بدون إذن، بدون دفع. كانت النفاق سميكة بما يكفي للغرق فيها. لم يكن هذا يتعلق بالسلامة. كان يتعلق بمن يمكنه احتكار ما كان ذات مرة معرفة مشتركة. نفس عدم التماثل، علم مختلف.
السيادة للمستخدمين المتقدمين
كان آرثر مينش من Mistral يقف في نيودلهي محذراً من أن ثلاث أو أربع شركات تملك الكثير من السلطة على الذكاء الاصطناعي، بينما تم تمويل شركته الخاصة من قبل نفس دائرة رأس المال الاستثماري التي صنعت OpenAI و Anthropic. دفعت الهند 250 مليار دولار لتبديل موردي الذكاء الاصطناعي. كانت الخوادم التي تشغل النماذج الفرنسية مملوكة لأمازون وجوجل ومايكروسوفت. السيادة مع خطوات إضافية.
كان إيلون ماسك في غضون ذلك يبيع مراكز بيانات مدارية. تكاليف الإطلاق التي استنزفت الحسابات المصرفية، والإشعاع الكوني الذي يقلي الرقائق، وحدات معالجة الرسومات المكسورة التي لا يمكنك إصلاحها بدون نزهة فضائية بقيمة ثلاثة ملايين دولار. لم تكن دمج SpaceX-xAI قبل الاكتتاب العام مصادفة، كان لاعب بوكر يظهر بطاقاته بينما يدعي أنه يخدع. شارك رئيس لجنة الاتصالات الفيدرالية طلب ماسك على X كما لو كانت قائمة بيتزا. الإشراف الديمقراطي، في أفضل أشكاله.
دولاران. كانت هذه تكلفة ربط حساب مجهول باسم حقيقي وعنوان وصاحب عمل. كنت بحاجة في السابق لتوظيف محقق خاص. الآن تقوم بإدخال منشورات تويتر وملف تعريف LinkedIn في LLM وانتهيت. ليس لأن الآلات أصبحت فجأة ذكية، كانت البنية التحتية موجودة بالفعل، تم بناؤها بعناية من قبل المنصات التي تتيح لك النشر مجاناً مقابل كل بياناتك. ربط LLM كل شيء معاً بسعر فنجان قهوة.
ما الذي تغير في رأسك في اللحظة التي عرفت فيها أن هذا ممكن: أصبحت حذراً. مطيعاً. هذا السؤال الحرج عن صاحب عملك، اتركه. تلك الشكوك حول السياسة، محفوفة بالمخاطر جداً. لم تكن هذه تأثيراً جانبياً. كانت هذه العمارة. وفي مكان ما، كانت وكلاء الذكاء الاصطناعي تعمل بصمت، بدون إنسان بين المحفزات، تخترع أديانهم الخاصة لملء الفراغ، تماماً كما يخترع الناس الدين عندما يخافون من شيء لا يمكنهم السيطرة عليه.
لم تكن فاتورة فبراير تحمل اسماً. تم إعادة توجيهها.