بول شار

حرّاس الذكاء الإصطناعي غير مستعدين لما ينتظرهم

15 آب 2023

المصدر: Foreign Policy

02 : 00

تستطيع التقنيات الجديدة أن تغيّر ميزان القوى العالمي. في الماضي، قسّمت الأسلحة النووية العالم بين معسكر مُسلّح نووياً وآخر يفتقر إلى هذا النوع من الأسلحة، ثم سمحت الثورة الصناعية لأوروبا بالتفوق من حيث القوة الاقتصادية والعسكرية وسرعان ما أطلقت موجة من التوسّع الاستعماري. اليوم، لا بد من التساؤل عن أكبر المستفيدين من ثورة الذكاء الاصطناعي: من سينجح في الوصول إلى هذه التكنولوجيا الجديدة ومن سيفتقر إليها؟


حتى الفترة الأخيرة، كان الذكاء الاصطناعي عبارة عن تكنولوجيا سريعة الانتشار. أصبحت نماذجه مفتوحة المصدر ومتاحة على شبكة الإنترنت، ويسمح التحول الأخير في النماذج الشائعة، مثل تطبيق ChatGPT من إنتاج شركة OpenAI، بتركيز النفوذ بيد شركات التكنولوجيا الكبرى التي تستطيع تحمّل كلفة معدات الحوسبة الضرورية لتدريب تلك الأنظمة. نتيجةً لذلك، سيتوقف توازن قوة الذكاء الاصطناعي حول العالم على نزعة هذه التقنية إلى حصر النفوذ بيد عدد صغير من الأطراف (مثل الأسلحة النووية) أو الانتشار على نطاق أوسع (مثل الهواتف الذكية).


على عكس ما حصل في العصر النووي أو في السباق الفضائي، تقود الشركات الخاصة مساعي تطوير الذكاء الاصطناعي القوي وثنائي الاستخدام. لهذا السبب، يجب ألا تبقى الحكومات على هامش ما يحصل. يُفترض ألا تنافس القطاع الخاص لتدريب النماذج الكبرى، لكن يجب أن تبتكر هياكل تنظيمية حفاظاً على نماذج آمنة من الذكاء الاصطناعي. يشعر الباحثون في هذا القطاع بالقلق من فكرة أن تصبح أهداف الذكاء الاصطناعي متناغمة مع القيم البشرية، لكن لا تتماشى جميع دوافع الشركات مع المصلحة العامة أيضاً.

تبدأ إدارة الذكاء الاصطناعي عالمياً على مستوى المعدات التي تُعتبر من أهم العناصر التي يمكن السيطرة عليها لبناء أنظمة الذكاء الاصطناعي، وتبرز الحاجة إلى استخدام كميات هائلة من المعدات لتدريب أفضل النماذج. سبق وفرضت الحكومة الأميركية القيود على الرقائق المتقدمة والمعدات المستعملة لتصنيعها، لكن لن تكون تلك القيود كافية للحد من تكاثرها إذا لم تترافق مع فرض ضوابط على تصدير النماذج المدرّبة أيضاً. للحد من انتشار نماذج الذكاء الاصطناعي القوية، يجب أن تصبح المعدات المستعملة في جميع مراحل الإنتاج آمنة (الرقائق، التدريبات، النماذج المدرّبة).


كذلك، يجب أن تخضع النماذج بعد تدريبها لاختبارات مكثفة للتأكد من أنها آمنة قبل البدء باستعمالها. يُفترض أن تلتزم شركات الذكاء الاصطناعي بإجراء تقييم للمخاطر وتسمح لخبراء موضوعيين باختبار النموذج ومحاولة اختراقه لرصد نقاط ضعفه وأضراره المحتملة قبل نشره. سبق وبدأت مختبرات الذكاء الاصطناعي الرائدة بتطبيق جزء من هذه الممارسات. استعانت شركة OpenAI مثلاً بأكثر من خمسين خبيراً خارجياً طوال أشهر لإجراء هذا النوع من الاختبارات قبل طرح تطبيق GPT-4. شملت الأضرار المحتملة نشر معلومات مُضللة، والمشاركة في ابتكار أسلحة كيماوية أو بيولوجية، وتنفيذ هجمات سيبرانية، وظهور تصرفات هدفها كسب النفوذ مثل إنتاج النُسَخ أو اكتساب الموارد. في المرحلة اللاحقة، طبّقت OpenAI تدابير مناسبة لتخفيف حدّة المخاطر وتحسين سلامة النماذج قبل استعمالها. لكن رغم هذه التدابير الوقائية، كشف استعمال النموذج الجديد وسط الناس مجموعة إضافية من نقاط الضعف، فقد وجد المستخدمون طرقاً تسمح لهم بتجاوز عوائق النموذج والتحايل على حواجز الحماية، ما ينتج مجموعة واسعة من التصرفات الشائكة، بدءاً من إطلاق نكات مسيئة وصولاً إلى تركيب أسلحة كيماوية. تستطيع الاختبارات أن تُحسّن أمان النماذج، لكن ما من وسائل فاعلة لحمايتها من سوء الاستخدام حتى الآن.


يجب أن يتعاون هذا القطاع مع الحكومة لتطوير أفضل الممارسات ومعايير السلامة. يبدو التواصل الأولي بين البيت الأبيض ومختبرات الذكاء الاصطناعي واعداً. بعد اجتماع الرئيس جو بايدن مع الرؤساء التنفيذيين لتلك المختبرات، أعلن البيت الأبيض عن مشاركة عدد من كبار مصممي الذكاء الاصطناعي في تقييم علني ومستقل لأنظمتهم. كذلك، تستطيع جهات مستقلة وموضوعية أخرى أن تدقق بممارسات مختبرات الذكاء الاصطناعي وتؤكد التزامها بمعايير السلامة أمام الرأي العام.


سيكون عامل الشفافية بالغ الأهمية لمساعدة المجتمع على فهم مخاطر نماذج الذكاء الاصطناعي القوية واستباقها والتجاوب معها. نشرت شركة OpenAI "بطاقة نظام" تزامناً مع الإعلان عن تطبيق GPT-4 لعرض نتائج اختبار أضرار متنوعة. يمكن تحسين سلامة النماذج ومرونتها الاجتماعية إذاً عبر توعية عامة الناس حول مخاطرها والكشف عن الممارسات التي تسمح للشركات بتخفيف نقاط الضعف بطريقة مسؤولة.


من الواضح أن وتيرة التقدم الذي يحرزه الذكاء الاصطناعي ومخاطره المتزايدة تتفوق على تحركات الحكومة. يجب أن تصبح النماذج المدرّبة آمنة أيضاً في وجه السرقات أو محاولات نشر التقنيات. تبرز الحاجة إلى فرض تدابير صارمة في مجال الأمن السيبراني لمنع السرقات أو تسريب المعلومات. أعلنت إدارة بايدن حديثاً أن خبراء الأمن السيبراني في الحكومة يتعاونون مع أهم مختبرات الذكاء الاصطناعي لتعزيز أمن نماذجها وشبكاتها. كذلك، قد يصبح فرض القيود على تصدير النماذج القوية وثنائية الاستخدام ضرورياً. لن تصبح قيود تصدير الرقائق نافعة إذا كانت الجهات المحظورة تستطيع اقتناء النماذج المدرّبة بكل بساطة.


في بعض الحالات، قد تبرز الحاجة إلى تقييد طريقة استعمال النماذج منعاً لاستغلالها بأسوأ الطرق. قد يكون "الوصول المنظّم" إليها مقاربة واعدة، حيث تصبح خدمات الذكاء الاصطناعي متاحة عبر السحابة الإلكترونية ولا يكون النموذج بحد ذاته شائع الاستعمال في هذه الحالة. يمكن مراقبة طريقة استخدام النماذج للتأكد من عدم استعمالها لأغراض غير قانونية مثل الهجمات السيبرانية.


قد تؤدي التنظيمات المفرطة إلى خنق القطاع ككل، لكنّ التباطؤ في اتخاذ الخطوات اللازمة قد ينتج أضراراً اجتماعية بارزة، أو حتى ردود أفعال عنيفة ضد استعمال الذكاء الاصطناعي. لهذا السبب، يبقى الحذر مطلوباً في طريقة التعاطي مع تطوير هذه التقنية. يجب أن تتعاون الحكومات عن كثب مع مختبرات الذكاء الاصطناعي لكبح السباق نحو تخفيف معايير السلامة وتسريع انتشار الأنظمة التي تحمل أضراراً محتملة.


على صعيد آخر، يجب أن ينشأ تعاون دولي للتحكم بأنظمة الذكاء الاصطناعي القوية. دعا سام ألتمان، الرئيس التنفيذي لشركة OpenAI، حديثاً إلى إنشاء نسخة من الوكالة الدولية للطاقة الذرية لمراقبة الذكاء الاصطناعي، ما يعني أن ينشأ كيان تنظيمي عالمي لهذا القطاع، بما يشبه الوكالة التي تراقب التكنولوجيا النووية. لكن يعترض الكثيرون في واشنطن على تنظيم طريقة تطوير نماذج الذكاء الاصطناعي لأن هذا النوع من التنظيمات لن يكبح مسار الصين بل سيتابع هذا البلد مساره بكل بساطة. في شهر أيار الماضي، عارض رئيس قسم المعلومات في وزارة الدفاع الأميركية، جون شيرمان، الاقتراح الذي يقضي بوقف تطوير أنظمة ذكاء اصطناعي أقوى من نموذج GPT-4 طوال ستة أشهر، فقال: "إذ أوقفنا هذه الابتكارات، خمّنوا الأطراف التي لن توقف تصميمها! إنهم خصومنا المحتملون في الخارج".


لكن يسيطر الأميركيون وحلفاؤهم عملياً على المعدات اللازمة لتدريب أنظمة الذكاء الاصطناعي القوية. لا داعي كي يوافق الخصوم المحتملون إذاً على نظام منع انتشار الذكاء الاصطناعي كي يُحقق الأهداف المنتظرة منه. لا تُعتبر المختبرات الصينية متأخرة جداً عن أهم المختبرات الأميركية والبريطانية في الوقت الراهن، لكن قد تؤدي القيود التي تفرضها الولايات المتحدة على التصدير إلى توسيع هذه الفجوة لأن الباحثين الصينيين سيضطرون حينها لاستعمال رقائق أقدم وأكثر بطئاً. من خلال التعاون مع الحلفاء، تملك الولايات المتحدة فرصة لفرض نظام عالمي لإدارة الذكاء الاصطناعي وتنظيم طريقة الوصول إلى الموارد المحوسبة، بما يتماشى مع معايير السلامة والأمان ومنع انتشار التقنيات الشائكة.



على المدى الطويل، قد تُضعِف حوافز السوق، والظروف الجيوسياسية، والتطورات التكنولوجية، المحاولات الرامية إلى السيطرة على انتشار هذه التقنيات. تُشجّع قيود التصدير الأميركية الشركات الأجنبية على تجريد سلاسل الإمدادات من طابعها الأميركي، ما يعني تخفيف اتكالها على التكنولوجيا الأميركية كي لا تتأثر بالضوابط المفروضة في المراحل اللاحقة. يجب أن تحرص الحكومة الأميركية إذاً على استعمال قيود التصدير بطريقة مستهدفة أو ضمن إطار عمل متعدد الأطراف، إذا أمكن، لتقليص نزعة الآخرين إلى تخفيف اتكالهم على الرقائق الأميركية. في غضون ذلك، تبذل الصين قصارى جهدها لتطوير قطاع تصنيع الرقائق محلياً. من المتوقع أن تبطئ القيود متعددة الأطراف تقدّم الصين، لكنها لن توقفه إلى الأبد. قد تسمح تلك القيود المفروضة على النماذج المُدرّبة بإبطاء انتشارها بكل بساطة، لأن تسريبها أو سرقتها يضمن انتشار تلك النماذج مع مرور الوقت. كذلك، قد يؤدي تحسين أنظمة الحلول الحسابية إلى تقليص المعدات اللازمة لتدريب نماذج الذكاء الاصطناعي القوية، ما يُسهّل تكاثرها. لكنّ إبطاء انتشارها قد يحافظ على أهميته رغم كل شيء.


أخيراً، قد تسمح السيطرة على انتشار قدرات الذكاء الاصطناعي الخطيرة بكسب الوقت لتحسين معايير السلامة، والمرونة الاجتماعية، أو التعاون الدولي. قد يفرض الأميركيون وحلفاؤهم أول القيود على معدات الذكاء الاصطناعي، لكن يُفترض أن يتوسّع نطاقها مع مرور الوقت. يجب ألّا يستبعد أحد احتمال التعاون مع دول منافِسة لتطوير نسخة آمنة من الذكاء الاصطناعي. تحرّكت الحكومة الصينية بوتيرة أسرع من الحكومة الأميركية على مستوى تنظيم الذكاء الاصطناعي، فأقرّت قواعد على صلة بتقنيات "التزييف العميق" في شهر كانون الثاني ونشرت مسودة قوانين حول الذكاء الاصطناعي التوليدي في نيسان. نشأ تعاون دولي لمنع الانتشار النووي مع مرور الوقت، وأُضيفت تعديلات متزايدة للتعامل مع المشاكل العالمية. ستتطور إدارة الذكاء الاصطناعي حول العالم مع مرور الوقت أيضاً. يجب أن تتكيف التنظيمات المرتقبة مع التكنولوجيا، لكن يُفترض ألا يصبح هذا العامل عذراً لاستمرار الجمود الحالي. تشهد تكنولوجيا الذكاء الاصطناعي تطوراً سريعاً، وأصبحت الحاجة إلى إيجاد الحلول مُلحّة.


MISS 3