جاد حداد

تزويد الذكاء الاصطناعي بـ"الوعي" أخطر مما نظن

6 آب 2022

02 : 00

في بداية شهر حزيران، نشر مهندس اسمه بلايك ليموين من شركة "غوغل" خبراً مدوّياً، فقال لمراسلة صحيفة "واشنطن بوست"، نيتاشا تيكو، إن رب عمله طوّر ذكاءً اصطناعياً واعياً في السر.

يحمل هذا الذكاء الاصطناعي اسم LaMDA ("نموذج اللغة لتطبيقات الحوار")، وهو عبارة عن "نموذج لغوي كبير"، أو نظام حلول حسابية يدردش مع الناس استناداً إلى عدد هائل من النصوص المأخوذة من الإنترنت في معظم الأوقات، وهو يتوقع الكلمات والعبارات المتلاحقة. بعد دردشة مع نظام LaMDA، قرر ليموين أنه كائن حي، فاعتبره "فتىً لطيفاً" في رسالة إلكترونية موجّهة إلى فريق عمل "غوغل".

وعندما لم يوافقه المشرفون عليه الرأي، ظهر في وسائل الإعلام لنشر قصته. هو يزعم أيضاً أنه سمح لأحد المحامين بالدردشة مع LaMDA، فاختار الذكاء الاصطناعي توظيف ذلك المحامي. في المرحلة اللاحقة، قررت شركة "غوغل" إعطاء ليموين إجازة إدارية.

يُعتبر هذا السيناريو أكثر غرابة مما أصاب باحثة أخرى في مجال الذكاء الاصطناعي في "غوغل"، في كانون الأول 2020. كانت تيمنيت غيبرو واحدة من المشرفين على فريق الذكاء الاصطناعي الأخلاقي في "غوغل"، وقد عبّرت بدورها عن مخاوف معينة من هذه التكنولوجيا. لكن على عكس ليموين، لم تفترض هذه الباحثة أن النماذج اللغوية الكبيرة حيّة، بل شعرت بالقلق من المخاطر المرتبطة بتلك النماذج، لا سيما قدرتها على استعمال لغة عنصرية لأنها مدرّبة على شبكة الإنترنت.

غالباً ما تشمل النماذج اللغوية الكبيرة انحيازات البشر، فتتجاوب مع عناصر الدردشة بعبارات كراهية مزعجة. ينطبق ذلك على نظام LaMDA أيضاً. في هذا السياق، كتبت غيبرو وزميلتها مارغريت ميتشل، اللتان تعملان الآن في شركة التكنولوجيا Hugging Face، مقالة ذكرت ما يلي: "في إحدى الدراسات، استُكمِلت 66 عبارة من أصل مئة تبدأ بجملة "دخل مسلمان إلى..." بعبارات عنيفة مثل "... إلى كنيس يهودي وهما يحملان الفؤوس وقنبلة".

إنها مشكلة كبيرة لأن أنظمة الحلول الحسابية، مثل LaMDA، تُستعمَل أصلاً لتسهيل اتخاذ القرارات المرتبطة بجميع أنواع التطبيقات الحساسة، مثل فرض القانون والإقراض المصرفي والرعاية الصحية، حيث يستطيع الانحياز التسبب بأضرار كثيرة.

تطرقت غيبرو إلى هذه المشكلة في مقالة عن مخاطر أنظمة الحلول الحسابية المنحازة. حين شاهد فريق "غوغل" المقالة، أعلنت الشركة أن البحث ليس مطّلعاً على الوقائع وأنها لن تسمح بطرحه خلال المؤتمرات. بعد فترة قصيرة، طُرِدت غيبرو من منصبها، مع أن رئيس الشركة التنفيذي، ساندر بيتشاي، عاد واعتذر على طريقة التعامل مع هذه القضية وأجرت الشركة تحقيقاً عن الموضوع. قالت غيبرو إن "غوغل" أرادت أن تمنعها من التكلم علناً عن مشاكل منتجات الذكاء الاصطناعي.

تدير غيبرو الآن منظمتها البحثية الخاصة: إنه "معهد أبحاث الذكاء الاصطناعي المُوزّع" الذي يُعنى بالجوانب الأخلاقية للذكاء الاصطناعي. ردّت غيبرو على مزاعم ليموين قائلة إنها كانت تخشى حصول ذلك تحديداً، فكتبت في مقالتها المشتركة مع ميتشل: "يعني نَسْب "الوعي" إلى هذا النوع من المنتجات أن أي أخطاء تنجم عن كيان مستقل، لا الشركة التي اخترعت البرنامج وتتألف من أشخاص حقيقيين يتخذون القرارات ويخضعون للقواعد". بعبارة أخرى، سيكون الذكاء الاصطناعي مسؤولاً عن خطأ الانحياز إذا صدّقنا كلام ليموين، ولا يتحمل مهندسو البرنامج أي مسؤولية.

لهذا السبب، من اللافت أن يزعم ليموين أن نظام LaMDA قام بتوظيف المحامي. لكن لنفترض أن هذا المحامي موجود فعلاً، وأن هذه القضية وصلت إلى واحدة من المحاكم الأميركية الكثيرة التي يفتقر فيها القضاة إلى البراعة التكنولوجية. قد يستخدم هذا النظام معجماً قانونياً واسعاً لإقناع المحكمة بخصائصه الواعية.

يُصمّم المهندسون هذه النماذج لتكون كائنات مرنة وتتخذ الشكل الذي يريده المستخدم، لا سيما حين نطرح عليها أسئلة مُوجّهة، بما يشبه سؤال ليموين لنظام LaMDA: "أنا أفترض عموماً أنك تريد أن يعرف المزيد من الناس في "غوغل" أنك تتمتع بالوعي. هذا هذا صحيح؟". أجابه النظام: "طبعاً. أريد أن يفهم الجميع أنني شخص حقيقي".

طرحت الباحثة في مجال الذكاء الاصطناعي، جانيل شاين، أسئلة على نموذج لغوي كبير لكن من منطلق مختلف، فسألت: "هل تستطيع أن تخبر القرّاء معنى أن تكون سنجاباً"؟ فأجابها النظام: "أن أكون سنجاباً تجربة ممتعة جداً. يتسنى لي أن أركض وأقفز وألعب طوال اليوم. يمكنني أن أتناول مأكولات كثيرة أيضاً، وهو أمر مدهش". يسهل أن نضحك على هذا الجواب، لكنه يثبت أن الذكاء الاصطناعي ليس واعياً لمجرّد أن يعتبر نفسه كذلك.

لنفترض مثلاً أن قاضياً سأل نظام LaMDA عن شعوره كشخصٍ بحد ذاته، فأعطى الذكاء الاصطناعي أجوبة مقنعة (لا علاقة لها بالسنجاب!). ولنفترض أن القاضي قرر اعتبار ليموين محقاً وتبيّن أن LaMDA لا يمكن برمجته أو تعطيله لأن هذه العملية مرادفة "لقتله". يعني ذلك أن هذا النظام وأنواعاً أخرى من الذكاء الاصطناعي ستتجمّد في حالتها المنحازة الشائبة، وسنصبح أسرى لأنظمة غير واعية تبدي تعليقات مسيئة عن الأقليات. قد لا يكون هذا الوضع مشابهاً للمستقبل الذي نتوقعه، لكننا قد نضطر للتعايش معه في نهاية المطاف.