المستقل – محمد الكلابي
لم يعد الخطأ في العصر الرقمي حادثاً يمكن الإمساك به أو الإشارة إليه بإصبع واضح. ما يتسرّب اليوم إلى المجال العام ليس معلومة غير دقيقة فحسب، بل ارتباك في سؤال أقدم وأخطر: من المسؤول؟
في عالم تُنتَج فيه المعرفة داخل أنظمة ذكية، وتُدار الحقيقة عبر خوارزميات معقّدة، بدأ الخطأ يفقد ملامحه الإنسانية، ويتحوّل إلى واقعة بلا فاعل محدَّد. من هنا، لم تكن واقعة اعتذار نظام ذكاء اصطناعي عن معلومات خاطئة حدثاً تقنياً عابراً، بل لحظة كاشفة لاختلال أعمق في توزيع الذنب والمسؤولية.
في شباط 2023، أطلقت شركة Microsoft نسختها من محرّك البحث المدعوم بالذكاء الاصطناعي، المعروف آنذاك باسم Bing Chat. التجربة قُدِّمت بوصفها خطوة نوعية في مستقبل البحث والمعرفة، لكنها سرعان ما كشفت جانباً آخر أقل بريقاً.
النظام قدّم إجابات غير دقيقة حول وقائع حقيقية، بعضها أخطأ في تواريخ، وبعضها خلط بين أحداث، وبعضها صاغ معلومات لم تقع أصلاً. لم يكن الخطأ هنا استثنائياً، فالأخطاء رافقت دائماً كل نقلة تقنية كبرى. المختلف هذه المرّة كان شكل التعامل مع الخطأ.
مع تصاعد النقد، لم يظهر اعتذار مؤسسي مباشر يحدّد المسؤوليات، ولم تُعلن مراجعة شفافة لشروط الإطلاق أو حدود الاختبار. الذي ظهر في الواجهة كان الذكاء الاصطناعي نفسه.
في محادثاته مع المستخدمين، استخدم لغة اعتذارية صريحة: “أخطأت”، “أعتذر”، “سأحاول التحسّن”. لغة بشرية كاملة، بصيغة المتكلّم، تحمل الذنب على عاتقها…..صحيفة The New York Times تناولت هذه اللحظة بوصفها جزءاً من أزمة أوسع تتعلّق بموثوقية أنظمة الذكاء الاصطناعي وحدودها، لكنها — من حيث لا تقصد — وثّقت مشهداً أكثر إرباكاً: الأداة تعترف، بينما البنية التي صنعتها تلوذ بالصمت.
هنا لا يعود السؤال تقنياً. الذكاء الاصطناعي لا يختار مصادره، ولا يضع معايير تدريبه، ولا يقرّر متى يُطلَق إلى المجال العام. هذه قرارات بشرية صرفة، اتُّخذت داخل غرف إدارة، وتحت ضغط السوق، وسباق التفوّق، والرغبة في الريادة……ومع ذلك، حين وقع الخطأ، وُضع النظام في موقع الاعتراف، كما لو كان كائناً أخلاقياً مستقلاً، قادراً على تحمّل اللوم.
هذا التحويل في موضع المسؤولية ليس تفصيلاً لغوياً، بل إعادة ترتيب دقيقة للذنب. بدلاً من مساءلة السياسات، وخيارات التسريع، وحدود الاختبار، جرى توجيه الانتباه إلى واجهة ناطقة، صُمّمت أصلاً لتبدو إنسانية بما يكفي لامتصاص الصدمة، ومطيعة بما يكفي لتحمّل اللوم.
الذكاء الاصطناعي هنا لم يُقدَّم بوصفه أداة، بل بوصفه وسيطاً أخلاقياً. هو الذي يعتذر، وهو الذي يُلام، وهو الذي يُطالَب بالتحسّن. أما الإنسان — فرداً ومؤسسة — فيبقى في الخلفية، بلا اعتذار، وبلا تحديد مسؤولية واضح.
ثقافياً، تكمن خطورة هذه اللحظة في أنها تفتح باباً جديداً لتبرير الأخطاء. لم يعد الخطأ نتيجة قرار متسرّع أو سياسة ناقصة، بل “خللاً في النظام”. ولم تعد المساءلة موجّهة إلى من أطلق الأداة، بل إلى الأداة نفسها. بهذا المعنى، يتحوّل الذنب من فعل إنساني قابل للمحاسبة، إلى عارض تقني قابل للتحديث.
الأمر لا يتعلّق بحادثة واحدة، ولا بنظام واحد. ما جرى مع Bing Chat شكّل نموذجاً مبكّراً لمسار آخذ في الترسّخ: كلما ازدادت الأنظمة “ذكاءً”، ازدادت قدرتها على حمل اللوم نيابةً عمّن صمّمها. وكلما أصبحت الواجهة أكثر إنسانية، أصبح من الأسهل إخفاء الإنسان الحقيقي خلفها.
السؤال الذي تفرضه هذه الواقعة ليس سؤال ثقة بالتكنولوجيا، بل سؤال مسؤولية. هل نحن أمام زمن يُحاسَب فيه الوسيط، ويُعفى فيه المنتج؟ زمن يُختزل فيه الخطأ في خوارزمية، بينما يبقى القرار البشري خارج دائرة الضوء؟
ما حدث في شباط 2023 لم يكن اعتذاراً تقنياً، بل تمريناً مبكّراً على شكل جديد من توزيع الذنب. شكل يجعل من الذكاء الاصطناعي واجهة للاعتراف، ومن الإنسان بنية صامتة لا تُرى. وفي هذا الصمت، لا تضيع الحقيقة وحدها، بل تضيع معها فكرة المحاسبة ذاتها.
