مقدمة── الرابط الذي أحضره الذكاء الاصطناعي

في أحد الأيام سألتُ نظام ذكاء اصطناعي نعتمد عليه في الشركة عن طريقة استخدام أداة يقدمها أحد المورّدين. الأداة ليست من المشاريع المفتوحة المصدر الشهيرة، ولا من الحلول التجارية التي تحيط بها مجتمعات نشطة، لكن كان هناك قدر ضئيل من المعلومات المتناثرة عنها على الإنترنت.

قدّم لي الذكاء الاصطناعي حلاً دقيقاً، بل أرفقه برابط «كمصدر موثوق».

ضغطت الرابط ففُتح بسلاسة. وجدت على الصفحة المعلومات التي أبحث عنها بالفعل، لكن العنوان كان يقول:

“سري – غير مخصص للنشر خارج الشركة”.

تساءلت: لمن تعود هذه الوثيقة الداخلية؟ ليست لنا، ولا للمورّد ذاته، بل بدا أنها دليل داخلي لشركة أخرى تستخدم الأداة نفسها.

يا لحسن الحظ؟

ليس تماماً. بل كان ذلك لحظة تجمد لها الدم في العروق.

يمكن الوصول إلى الصفحة نفسها عبر البحث اليدوي باستخدام كلمات مفتاحية مناسبة، لكنها تظهر في الصفحات العشرين وما بعدها من نتائج البحث؛ أي في موضع يكاد يكون مستحيلاً أن يصل إليه الإنسان العادي.


الجزء الأول: “الدمقرطة” التي يجلبها الذكاء الاصطناعي

كانت محركات البحث التقليدية تجعل البشر ينقبون عن حبة الذهب وسط جبل من الرمال. نعم، تحاول الشركات دائماً تحسين ترتيب النتائج لتصعد الصفحات التي تحوي الإجابة الصحيحة، لكن هناك حدوداً لذلك: تستولي المواقع الكبرى على المراتب الأولى، بينما تضيع التفاصيل المهمة في الصفحات السحيقة. في المقابل ينتشل الذكاء الاصطناعي قطعة الذهب ذاتها حتى لو كانت في موقع منخفض الترتيب، ما دام المحتوى يطابق السؤال.

  • تظهر المعلومات التي قد يستغرق الإنسان عشرات الدقائق ليجدها ─ أو ربما يتخلى عنها ─ فوراً إن طابقت صيغة السؤال.
  • أشخاص لم يكن بمقدورهم الوصول إلى المعرفة المتخصصة باتوا يحصلون على الإجابة بكبسة زر.

إنها بلا شك دمقرطة للوصول إلى المعلومات. فكما فعل الإنترنت سابقاً، يحرر الذكاء الاصطناعي المعرفة من احتكار النخبة والخبراء ويفتحها أمام الجميع.

في التعليم والبحث، التأثير أوضح. فالمعارف التي كانت تتطلب اقتناء كتب متخصصة أو متابعة الدوريات العلمية صار الطالب أو الموظف يحصل عليها فوراً. بات في مقدور الشركات الناشئة وضع استراتيجيات من دون عقود استشارية باهظة، والأفراد باتوا قادرين على بناء تطبيقات في ليلة واحدة.

ومن منظور النشر، التأثير مشابه. صحيح أن الإنترنت منح الجميع فرصة لبث آرائهم حول العالم، لكن من دون سمعة مسبقة كان من الصعب أن يُعثر على تلك الأصوات.

أما الآن فالذكاء الاصطناعي يعرض حتى المعلومات الموجودة في صفحات مهملة تماماً في الترتيب ─ ربما نُشرت عن طريق الخطأ ولم تُجرَ لها أي تهيئة لمحركات البحث ─ لمجرد أنها تجيب عن السؤال بدقة. يمكن القول إن الدمقرطة بلغت مستوى يفوق ما حققه الإنترنت وحده.


الجزء الثاني: الوجه الآخر للدمقرطة هو “الفضح”

لكن هذه الدمقرطة نفسها تعني في الوقت ذاته التحول إلى أداة للفضح، وهو درس تعلمته من هذه التجربة.

كانت الصفحة المنشورة نتيجة خطأ في الإعدادات. نعم، كان من الممكن أن تعثر عليها محركات البحث التقليدية ومن ثم تقع في يد طرف ثالث، إذ إن الأذونات مفتوحة والفهرسة متاحة. لكن لولا الذكاء الاصطناعي، فالأرجح أنها كانت ستمر مرور الكرام. فمن ذا الذي يفتش صفحة صفحة حتى يصل إلى نتيجة في الصفحة العشرين؟

كانت هذه المعلومات لتكون من النوع “نجونا بالصدفة لأن أحداً لم يرها”، لولا أن الذكاء الاصطناعي نقلها فوراً إلى من يبحث عنها. في قصتي، يتعلق الأمر بدليل استخدام أداة، وليس بمعلومات شديدة الحساسية، ولم يكن السائل يحمل نية خبيثة؛ لذا لم يقع ضرر فعلي… لكن ماذا لو كان الطرف الباحث ذا نية سيئة، والمعلومات الحساسة متاحة بطريق الخطأ؟ أدركت حينها أن الحجب الواقعي الناجم عن صعوبة العثور على المعلومة أو التحقق منها لم يعد موجوداً.

لم تعد عبارة “ما دامت مدفونة فنحن بأمان” صالحة في عصر الذكاء الاصطناعي. فبمجرد فهرسة الصفحة ستصل سريعاً إلى كل من يطلبها.

صحيح أن الأنظمة التجارية مثل ChatGPT تطبق سياسات وفلاتر ترفض الطلبات الخبيثة، وربما تزداد صرامتها مستقبلاً. لكن ماذا عن نظام يبنيه فرد بلا أي سياسة ضبط؟

لنا في تاريخ اليابان مثال: برنامج Winny، وهو أداة مشاركة ملفات تعمل بنظام الند للند (P2P)، شهد فترة انتشرت فيها فيروسات تسريب المحتوى. آنذاك تسرّبت وثائق من وزارة الدفاع اليابانية وقوائم عملاء من شركات وصور شخصية خاصة، حتى أن بعض الشركات أجبرت موظفيها على توقيع تعهدات بعدم استخدام Winny على أجهزتهم الشخصية. ※ كان ذلك مبالغاً فيه من الناحية التقنية، فالتسريبات نتجت عن فيروسات وليس عن Winny ذاته، لكن الخوف المجتمعي هو ما فرض تلك الإجراءات.

بالمقارنة، قد يقود الذكاء الاصطناعي ─ إذا قدم إجابة مناسبة في ظل خطأ إعداد واحد ─ إلى نتائج أدهى. فما دام يمكن الوصول إلى المعلومة مرة واحدة، فستقع بين يدي المخربين بسرعة تفوق ما عرفناه في تلك الحقبة. ولا حاجة حتى لفيروس؛ يكفي خطأ واحد.

الذكاء الاصطناعي يقدم الإجابة متى سئل عنها من دون تردد. لا أخلاق لديه ولا إحساس بالمسؤولية. ※ صحيح أن الأنظمة المزودة بسياسات تمنع بعض الإجابات قد “تتردد”، لكن يمكن لأي فرد اليوم بناء نموذج بلا رقابة، وهناك بالفعل نماذج غير خاضعة للحجب منشورة في منصات مثل Hugging Face.

في عصر الذكاء الاصطناعي لا وجود لعبارة “مادام مخفياً فنحن بخير”.

ولا يقتصر الفضح على مرة واحدة؛ فالمعلومة قد تدخل في بيانات تدريب نموذج، وتُلخص، ويعاد استخدامها من قِبل مستخدمين آخرين. هكذا تتزامن “الانتشار” و"الترسخ". قد تستمر المعلومات في الدوران عبر الذكاء الاصطناعي شبه بلا نهاية قبل أن ينتبه أحد إلى التسريب.


الجزء الثالث: لا تماثل السرعة

ما يزيد القلق هو اللاتناظر في السرعة.

  • سرعة الذكاء الاصطناعي في التقاط المعلومة وتحسينها وتقديمها مذهلة، وقدرته على توصيلها لمن يريدها تفوق قدرات البحث التقليدي.
  • أما القوانين والتنظيمات والأخلاقيات، أو حتى إجراءات التصدي ورفع وعي الأفراد، فتتغير في أفضل الأحوال بوتيرة تمتد لسنوات.

هذا اللاتناظر هو ما يضخم الخوف.

انتشار المعلومات في الماضي مر بمراحل: صحف، ثم تلفاز، ثم محركات البحث. كانت هناك دائماً درجة من الاحتكاك والزمن الميت تمنح المجتمع فرصة لوضع قواعد جديدة. أما الذكاء الاصطناعي فيقلص الاحتكاك إلى الصفر تقريباً، ويوزع “الحل الأمثل” على العالم لحظة إنتاجه.

النتيجة أن الحقائق والشائعات والمعلومات الحساسة تنتشر بالطريقة نفسها وبالسرعة ذاتها. بدأت فعلاً حقبة يتساوى فيها وزن الأبحاث العلمية الرصينة مع الشائعات المجهولة المصدر، فقط لأن الذكاء الاصطناعي يعيد سردهما بنفس النبرة.


الجزء الرابع: أين تقع المسؤولية؟

في قصتي فتحت الرابط. لم يكن ذلك اختراقاً؛ فالصفحة ظاهرة في البحث ولم أتجاوز نظام تحقق. المشكلة أن قرار «هل ينبغي أن أرى هذه المعلومة؟» تُرك بالكامل للبشر، أو بالأحرى لم يكن هناك أي نقطة تُتخذ فيها قرارات بشأن إظهارها أو حجبه.

الذكاء الاصطناعي يقدم الإجابة، لكنه لا يتساءل إن كان عليه أن يجيب. كما أشرت في مقال سابق، لا يمتلك الذكاء الاصطناعي كبرياءً ولا قناعة ولا حساً بالمسؤولية. ومن ثم لا بد أن يتولى البشر سد هذه الفجوة.

توجهتُ إلى الصفحة الرئيسية للموقع وبعثت بريداً إلكترونياً إلى عنوان التواصل المعلن لإخطارهم. لست أزعم أنني بطل، لكن كان علي أن أعوّض لا مبالاة الذكاء الاصطناعي بشيء من الشعور البشري بالمسؤولية والضمير والخشية.

وبالطبع يدرك القارئ النبيه أن ليس الجميع سيفعل ذلك. سيختار بعضهم نشر المحتوى، وقد يتيح آخرون بلا قصد لوثائق داخلية أن تتسرب إلى عملية تدريب لنموذج ذكاء اصطناعي. لا تزال هذه المسألة بعيدة عن الضجة الاجتماعية التي أحدثتها فيروسات Winny، لكني أعتقد أنها ستظهر عاجلاً أو آجلاً كقضية عامة.


الخلاصة── نحو “تصميم للمسؤولية” في عصر الذكاء الاصطناعي

يُدمقرط الذكاء الاصطناعي المعلومات بقوة تفوق ما فعله الإنترنت، سواء في الاكتساب أو في النشر. لكن على الجانب الآخر بات من الممكن أن تصل التسريبات غير المقصودة إلى أصحاب النوايا السيئة “بدقة وسرعة”.

جذر الخوف هو أن السيناريو القديم “أخطأنا في الإعدادات لكن لم يعثر عليها أحد” لم يعد قائماً. فبمجرد أن تُفهرس الصفحة الخاطئة ستصل فوراً إلى من يطلبها.

بل وحتى من دون خطأ في الإعدادات، يكفي أن تربط معلومات تبدو غير ضارة لوهلة لتظهر صورة كاملة عن الشخص. جرّبتُ أن أُطعم ChatGPT بمقالات هذه المدونة، فحلل ملفي الشخصي بدقة لافتة، لعلها نحو 60٪ بحسب إحساسي. لم يعرف جهة عملي ولا عمري “الدقيق” (وإن خمّن العمر التقريبي)، وارتكب بعض الأخطاء، لكنه كان أقرب إلى الحقيقة مما يبعث على القلق. ※ في دراسات الأسلوبية الإحصائية (Stylometry) وُجد أن بضع عشرات من الأسطر تكفي لتحديد هوية الكاتب.

اعتماداً على الهدف قد ينجح الذكاء الاصطناعي في كشف كل شيء. حتى المقتطفات التي تبدو غير مؤذية قد تنطق بحقائق صادمة إذا جُمعت معاً. ※ يشير مصطلح OSINT (Open Source Intelligence) إلى جمع المعلومات وتحليلها من مصادر علنية. يسهّل الذكاء الاصطناعي هذا النوع من الاستخبارات ويقويه، بحيث يمكن لأي شخص ─ حتى مطارد ─ تطبيقه على أي هدف.

التحدي المقبل ليس “تعزيز الأمن” فقط. نحتاج إلى تصميم للمسؤولية والأمن يليق بعصر الذكاء الاصطناعي، أي قواعد وإجراءات تواكب سرعة الدمقرطة.

قرب الذكاء الاصطناعي المعرفة منا على نحو غير مسبوق. وفي الوقت نفسه انهار وهم “لن يجدها أحد”. لا أملك جواباً جاهزاً اليوم، لكن بعدما أذاب الذكاء الاصطناعي حدود المعلومات، صار لزاماً علينا أن نعيد تعريف إدارة المعلومات.

من الآن فصاعداً علينا أن نعيش ونحن واعون لوجهي العملة: الدمقرطة والفضح في آن معاً.