ما الذي يفتقر إليه الذكاء الاصطناعي التوليدي جوهريًا: الكرامة والقناعة والإحساس بالمسؤولية ووجود «الأنا»
المقدمة
كنت جالسًا في مكتبي الصغير الذي كان خزانة ملابس في الأصل، أتحاور مع نظام ذكاء اصطناعي توليدي بلا توقف. كان من المفترض أن أستمتع بعطلة أوبون اليابانية، لكنني وجدت نفسي أسهر وأعاني قلة النوم بينما أطرح الأسئلة على ChatGPT، فأفرح أحيانًا بإجاباته المبهرة، وأستشيط غضبًا حين تأتي الإجابات بعيدة كل البعد عمّا أردته.
ملاحظة للقراء الذين لا يعرفون عيد الأوبون الياباني: الأوبون مهرجان بوذي يُقام في منتصف أغسطس لتكريم الأجداد؛ تعطي كثير من الشركات إجازة في تلك الفترة وتعود العائلات إلى بلداتها الأصلية لإقامة طقوس التذكّر.
بعد ساعات طويلة من هذا المد والجزر أدركت أمرًا واضحًا.
الذكاء الاصطناعي التوليدي يفتقر إلى شيء قاتل.
إنه يفتقر إلى «الكرامة» و«القناعة» و«الإحساس بالمسؤولية». بالنسبة لي، وأنا الذي لا أحب الخطاب القائم على العزيمة أو الروح المعنوية، لم أكن أرغب أصلًا في استخدام هذه الكلمات. لكنني لم أجد غيرها. كلما حاولت أن أبدلها أو أصوغ العبارة من جديد عدت إلى نفس المعنى. وبينما كنت أغوص أكثر في هذه الفكرة، بدأت أشعر بأنني ألمس جوهر السبب الذي يجعل الذكاء الاصطناعي التوليدي عاجزًا عن الحلول محل الإنسان.
ما الذي ننتظره من المهنيين؟
نحن لا نتوقع من أصحاب المهن المتخصصة مجرد المعرفة والمهارة، بل نتوقع منهم موقفًا أخلاقيًا أيضًا.
تخيّل فني تكييف يثقب الجدار في المكان الذي حدده له الزبون، ثم يتبين أن خلف الجدار عمودًا إنشائيًا. لا يستطيع أن يقول: «لقد نفذت طلب العميل وبالتالي لست مسؤولًا.» حتى إن اختلفت الأطراف قانونيًا، تبقى المسؤولية الأخلاقية عليه بلا شك. كما أن الزبون لا يريد مجرد تنفيذ الأمر بحرفيته، بل يتوقع أن يُنبَّه إلى المخاطر وأن يتلقى اقتراحًا أفضل. هذه الروح بالذات—الكرامة والقناعة والإحساس بالمسؤولية—هي ما نريده من المحترفين.
واقع الذكاء الاصطناعي التوليدي وحدوده
يمكن للذكاء الاصطناعي التوليدي أن يقلد المعرفة وصياغة اللغة ببراعة، لكنه لا يستطيع أن يتخذ موقفًا من قبيل «أرفض لأن ذلك ينتقص من كرامتي» أو «سأتحمل المسؤولية حفاظًا على سلامة الطرف الآخر».
الحل المتاح حاليًا هو سياسات استخدام يضعها مزودو الخدمة.
من الممكن رسم حدود واضحة مثل حظر الاستخدامات الإجرامية أو الإباحية. لكن اتخاذ قرارات رمادية مثل «هل يجب أن أقدم اقتراحًا أفضل بصفتي خبيرًا؟» ما يزال صعبًا.
يمكن للمستخدم أن يعوض ذلك جزئيًا بتفاصيل إضافية في التوجيهات، لكن هذا أشبه بطاهٍ يلتزم الوصفة بحذافيرها من دون أن يتذوق الطبق. وحين تظهر ظروف لم تُذكر في الوصفة، تأتي النتيجة شديدة السوء ومع ذلك يقدّمها الذكاء الاصطناعي بلا إحساس بالحرج أو الحاجة إلى إعادة العمل على وجه السرعة.
لماذا يبقى الإنسان ضروريًا (حتى الآن)
لهذا السبب، لا غنى اليوم عن وجود البشر كـ منسقين يتحملون المسؤولية عند استخدام الذكاء الاصطناعي.
تتأسس الأخلاقيات والقوانين وإرشادات التطوير وتعليم المستخدمين جميعًا على افتراض أن «الذكاء الاصطناعي ليس سوى مساعد للإنسان». لكن هذا الوضع مؤقت. قد يأتي يوم يستطيع فيه الذكاء الاصطناعي أن يحاكي تحمل المسؤولية.
أبحاث وتجارب حول العالم
بدأت بالفعل أبحاث تسعى إلى منح الذكاء الاصطناعي ما يشبه «الإحساس بالمسؤولية».
- الأخلاق الوصفية (مشروع Delphi): محاولة لتعليم الذكاء الاصطناعي مفاهيم الخير والشر، لكنها ما تزال تعاني مشكلات التحيز وتضارب الأحكام.
- السيطرة البشرية ذات المغزى (Meaningful Human Control): مبدأ تصميم يضمن بقاء السلطة النهائية بيد الإنسان بدل السماح للذكاء الاصطناعي بالاستقلال الكامل، ويجري بحثه خصوصًا في مجالات القيادة الذاتية والأنظمة العسكرية.
- تعلم القيم (Value Learning): استنتاج القيم الأخلاقية من سلوك البشر أو تعليقاتهم لتقليل الانحرافات الأخلاقية.
- أطر مثل NIST AI RMF: مساعٍ مؤسسية لصياغة منهجيات شاملة لتصميم ذكاء اصطناعي مسؤول.
ما تزال هذه الجهود في طور البدايات، لكنها قد تشكل أساسًا لمرحلة يستطيع فيها الذكاء الاصطناعي «تقمص» المسؤولية.
ماذا يعني محاكاة المسؤولية؟
من المفيد أن نتوقف ونفكر: ماذا نعني بـ «محاكاة المسؤولية»؟
يمكن النظر إلى المسؤولية على أنها تتكون من مستويين على الأقل:
- المسؤولية عن النتائج: أي تحمل تبعات الفعل.
- المسؤولية في الاستجابة: أي تقديم تبرير أو تفسير يلبي توقعات الآخرين.
أقصى ما يمكن للذكاء الاصطناعي فعله اليوم هو تتبع المخاطر المحتملة وتحذيرنا، أو زيادة الشفافية في تفسير قراراته. بمعنى آخر، ما يحاكيه هو الشفافية والالتزام الذاتي فحسب. ومع ذلك، لا يمكننا استبعاد احتمال أن تكون ذكاء البشر وإحساسهم بالمسؤولية مجرد محاكاة عصبية هي الأخرى. مع هذا، ما زلت أشعر بوجود فجوة واضحة بين الذكاء الاصطناعي الحالي وبين الكرامة والقناعة والمسؤولية التي نلحظها لدى البشر. فأين تنشأ هذه الفجوة؟
عوامل تصنع الفارق بين الإنسان وAI
ربما تنبع هذه الفجوة من ثلاثة عوامل رئيسية:
-
الألم الجسدي والاجتماعي البشر يدفعون ثمنًا ملموسًا عند الفشل: خسارة مالية، لوم اجتماعي، ألم نفسي. هذه الخبرة تجعل المسؤولية شيئًا واقعيًا نشعر به. أما الذكاء الاصطناعي فيستطيع تسجيل الفشل لكنه لا «يعود» إليه كألم.
-
الاتساق عبر الزمن يتحمل البشر تبعات أفعالهم وتصريحاتهم حتى بعد سنوات. قد يُحاسب طبيب على تشخيص خاطئ بعد فترة طويلة. الذكاء الاصطناعي يستطيع أن يقول شيئًا الآن ونقيضه بعد لحظة، من دون أن يتحمل ثقل الاستمرارية.
-
المنظومة القيمية والهوية يملك الإنسان قناعات يقول عندها «لا يمكنني التنازل عن هذا لأنه يعبر عن هويتي». هذه القناعات مرتبطة بالمجتمع والثقافة. بينما يفتقر الذكاء الاصطناعي إلى هوية ثابتة، ويمكنه تغيير موقفه بسهولة.
من خلال هذه العوامل، يبدو إحساس الإنسان بالمسؤولية أكثر سماكة لأنه مرتبط بالألم والاتساق والقيم. ومع ذلك يوجد بشر يفتقرون للمسؤولية أو الأخلاق. لذلك قد لا تكون الفجوة جوهرًا ثابتًا بين الإنسان والآلة، بل نتيجة لوجود تجارب اجتماعية ومنظومات انتماء تدعم الإحساس بالمسؤولية.
«الأنا» والمسؤولية
هنا تحضر عبارة ديكارت الشهيرة «أنا أفكر، إذن أنا موجود».
الإحساس بالمسؤولية ليس مجرد الالتزام بقواعد، بل تجربة تُنسب إلى «أنا» محددة. الألم والندم والشك والقلق—كلها تجارب داخلية تغذي شعورنا بأننا مسؤولون.
بمعنى آخر، يفتقر الذكاء الاصطناعي الحالي إلى «الأنا». هناك عمليات تربط المدخلات بالمخرجات، لكنه لا يتلقى الألم ولا يشعر بالخجل أو بالفخر أو بالكرامة. لهذا يصعب علينا أن نعترف له بإحساس بالمسؤولية، ولذلك أيضًا تبدو نتائجه أحيانًا كإجابات شخص عديم المسؤولية ولكنها في الوقت نفسه مقنعة بشكل مقلق.
ربما كان إحساس الإنسان بالمسؤولية مجرد محاكاة عصبية أيضًا، لكن الذكاء الاصطناعي لم يلحق بعد بالمستوى الذي يقدمه «الشخص القادر». قد يكون السؤال الحقيقي هو ما إذا كانت محاكاة المسؤولية لدى الذكاء الاصطناعي قادرة على العمل اجتماعيًا.
الخلاصة وأسئلة مفتوحة
- الذكاء الاصطناعي التوليدي يفتقر إلى الكرامة والقناعة والإحساس بالمسؤولية.
- اليوم نعوض هذا النقص بإطار عمل يتعامل فيه الإنسان مع الذكاء الاصطناعي كمنسق مسؤول.
- تتقدم الأبحاث عالميًا لمحاكاة المسؤولية، لكن الفجوة مع «الأشخاص القادرين» ستظل كبيرة ما دام الذكاء الاصطناعي يفتقر إلى «الأنا».
- ومع ذلك، قد يكون إحساس البشر أنفسهم بالمسؤولية مجرد محاكاة.
في النهاية، يظل السؤال بسيطًا: هل يمكننا «برمجة» الألم في الذكاء الاصطناعي؟ ربما يكون ذلك هو الحد الأدنى الضروري للحديث عن المسؤولية ووجود «الأنا».
لا إجابة لدينا بعد. لكن طالما لم نتخل عن هذا السؤال، لن يغلق الطريق أمام النقاش حول مستقبل الإنسان والذكاء الاصطناعي. وعندما نجد الإجابة يومًا ما—هل سيصبح الذكاء الاصطناعي جارًا حقيقيًا لنا، أم سيحين الوقت الذي يزيحنا فيه تمامًا؟