إيان بريمر ومصطفى سليمان

هل تتعلّم الدول التحكّم بالذكاء الإصطناعي؟

المصدر: test sgdfkahsdjha adh

إنه العام 2035، وقد أصبح الذكاء الاصطناعي منتشراً في كل مكان. تدير أنظمة عاملة بالذكاء الاصطناعي المستشفيات، وتُشغّل الخطوط الجوية، وتتعارك في ما بينها داخل قاعات المحاكم. في غضون ذلك، زادت الإنتاجية بمستويات غير مسبوقة وتوسّعت شركات كثيرة بسرعة فائقة، ما أدّى إلى إحراز تقدّم هائل في مجال الصحة أيضاً. في الوقت نفسه، تُطرَح منتجات وعلاجات وابتكارات جديدة في السوق يومياً، تزامناً مع تطوّر العلوم والتكنولوجيا. مع ذلك، بدأ العالم يصبح أكثر هشاشة ويصعب توقّع أحداثه، إذ يجد الإرهابيون طرقاً جديدة لتهديد المجتمعات بأسلحة سيبرانية ذكية ومتطوّرة، ويخسر العاملون وظائفهم المكتبية جماعياً. 

منذ سنة واحدة فقط، كان هذا السيناريو ليبدو خيالياً بامتياز لكنه أصبح شبه حتمي اليوم. تستطيع أنظمة الذكاء الاصطناعي التوليدية أن تكتب بأسلوب أوضح وأكثر إقناعاً من معظم البشر منذ الآن، ويمكنها أن تنتج صوراً وفنوناً أصلية، أو حتى رموزاً محوسبة، انطلاقاً من حوافز لغوية بسيطة. لكنّ الذكاء الاصطناعي التوليدي هو مجرّد بداية، إذ ينذر ظهوره بلحظة محورية قد تطلق ثورة تكنولوجية قادرة على تغيير وجه العالم وتعيد صياغة السياسات والاقتصادات والمجتمعات.

مع ذلك، لا يزال معظم النقاش المرتبط بإدارة الذكاء الاصطناعي عالقاً في معضلة خاطئة وخطيرة: كيف يمكن استعمال الذكاء الاصطناعي لزيادة القوة الوطنية أو كبحه لتجنّب مخاطره؟ حتى الفريق الذي يشخّص المشكلة بدقة يحاول حلّ المعضلة عبر وضع الذكاء الاصطناعي في خانة خاطئة أو ربطها بأُطُر عمل قديمة. لكن لا يمكن التحكم بهذا الذكاء بالطرق المستعملة مع التقنيات السابقة، فقد بدأ يغيّر منذ الآن المفاهيم التقليدية للقوة الجيوسياسية.

أصبح التحدي المطروح اليوم واضحاً: يجب أن يُصمّم المعنيون إطار عمل جديداً يتماشى مع هذه التقنية الفريدة من نوعها. كي تصبح إدارة الذكاء الاصطناعي ممكنة على مستوى العالم، يجب أن يتجاوز النظام الدولي المفاهيم التقليدية للسيادة ويرحّب بشركات التكنولوجيا على طاولة النقاش. قد لا تحصل هذه الأطراف على شرعيتها من عقد اجتماعي، أو من الديمقراطية، أو المصلحة العامة، لكن لا يمكن التحكّم بالذكاء الاصطناعي من دونها. يُفترض أن يعيد المجتمع الدولي النظر إذاً بأبرز الفرضيات المرتبطة بالنظام الجيوسياسي. لكن لا تقف متطلّبات الوضع عند هذا الحد.

يتطلّب هذا التحدي الاستثنائي والمُلِحّ حلاً مبتكراً. قبل أن يبدأ صانعو السياسة بتصميم بنية تنظيمية مناسبة، يُفترض أن يتفقوا على مبادئ أساسية لإدارة الذكاء الاصطناعي. في المقام الأول، يجب أن يكون أي إطار عمل وقائياً، وحيوياً، وشاملاً، ومحصّناً، ومستهدفاً. انطلاقاً من هذه المبادئ، يجب أن يبتكر صانعو السياسة ثلاثة أنظمة متداخلة على الأقل للتحكم بالذكاء الاصطناعي: الأول لتحديد الوقائع وتقديم التوصيات للحكومات حول المخاطر المطروحة، والثاني لمنع أي سباق تسلّح شامل، والثالث للسيطرة على القوى التخريبية لأي تكنولوجيا غير مسبوقة.

في مطلق الأحوال، لا مفرّ من وصول العام 2035: هل سيُحقّق الذكاء الاصطناعي حينها تقدّماً إيجابياً أم سيكون دوره تخريبياً؟ يتوقّف الجواب على ما يفعله صانعو السياسة الآن.

الذكاء الاصطناعي يختلف عن التقنيات الأخرى ويتميّز عن غيره بتأثيره على كسب النفوذ. هو لا يطرح تحدّيات على السياسات المعتمدة فحسب، بل إن طبيعته التطورية الفائقة تُصعّب حلّ تلك التحديات بوتيرة تدريجية. إنها المفارقة الكبرى التي تطرحها قوة الذكاء الاصطناعي.

يحتاج العالم إلى طريقة لإخماد التوتر بين قوى الذكاء الاصطناعي ومنع تكاثر أنظمة متقدّمة خطيرة. تقوم أهم علاقة دولية في هذا المجال بين الولايات المتحدة والصين. يصعب أن يحصل تعاون بين خصمَين من هذا النوع في أفضل الظروف. لكن في ظل احتدام المنافسة الجيوسياسية، قد يقضي السباق الخارج عن السيطرة في مجال الذكاء الاصطناعي على جميع الآمال بالتوصّل إلى إجماع دولي في هذا القطاع. قد تقتنع واشنطن وبكين بأهمية التعاون لإبطاء تكاثر الأنظمة القوية والقادرة على تهديد سلطة الدول القومية. في أقصى الحالات، قد يطرح احتمال ظهور ذكاء اصطناعي عام وعشوائي وقادر على التكاثر حوافز قوية لتنسيق جهود السلامة والاحتواء.

على صعيد آخر، يحتاج العالم إلى نظام مختلف للتحكّم بالذكاء الاصطناعي، شرط أن يتمكّن من التحرّك عند وقوع جهود تخريبية خطيرة. لتحضير هذا النوع من النماذج، يستطيع صانعو السياسة أن يستوحوا من المقاربة التي استعملتها الهيئات المالية للحفاظ على الاستقرار المالي العالمي. يسعى مجلس الاستقرار المالي مثلاً إلى منع الفوضى المالية العالمية عبر تقييم نقاط ضعف النظام وتنسيق التحركات اللازمة بين السلطات الوطنية والدولية. كذلك، تستطيع هيئة تكنوقراطية تُعنى بتقييم مخاطر الذكاء الاصطناعي (يمكن تسميتها «مجلس استقرار التكنولوجيا الجغرافية») أن تحاول الحفاظ على الاستقرار الجيوسياسي في ظلّ التغيرات السريعة التي يُحدثها الذكاء الاصطناعي. بدعمٍ من سلطات تنظيمية وطنية وهيئات دولية لتحديد المعايير، يستطيع هذا المجلس أن يجمع الخبرات والموارد لاستباق أزمات الذكاء الاصطناعي أو التجاوب معها، ما يؤدي إلى تراجع مخاطر هذه الظاهرة المُعدية. لكن يُفترض أن يتواصل أيضاً مع القطاع الخاص مباشرةً، فيعترف بأن أهم الجهات التكنولوجية متعددة الجنسيات تضطلع بدور أساسي للحفاظ على الاستقرار الجيوسياسي، مثلما يكون دور البنوك المهمة أساسياً لحماية الاستقرار المالي.

حين تحصل هذه الهيئة على دعم حكومي، ستصبح مخوّلة لمنع شركات التكنولوجيا العالمية من التورّط في ممارسات المراجحة التنظيمية أو الاختباء وراء مقرّات الشركات. لا يعني الاعتراف بأهمية بعض معاقل التكنولوجيا قمع الشركات المبتدئة أو المبتكرين الناشئين. بل إن إنشاء خط موحّد ومباشر بين هيئة إدارية عالمية وتلك المعاقل التكنولوجية العملاقة يزيد فاعلية تطبيق المعايير التنظيمية والقدرة على إدارة الأزمات، ما ينعكس إيجاباً على البيئة المحيطة كلها.

في غضون ذلك، قد يسمح أي نظام مُصمّم للحفاظ على الاستقرار الجيوتكنولوجي بملء فراغ خطير في المشهد التنظيمي الراهن: إنها مسؤولية إدارة الذكاء الاصطناعي المفتوح المصدر. تبرز الحاجة إلى مستوى معيّن من الرقابة الإلكترونية. إذا قام مستخدم بتحميل نموذج بالغ الخطورة مثلاً، يجب أن تملك هذه الهيئة صلاحية واضحة بتعطيله أو تطلب من السلطات الوطنية القيام بذلك. إنه مجال محتمل آخر لإقامة تعاون ثنائي. يُفترض أن ترغب الصين والولايات المتحدة في التعاون لترسيخ قيود السلامة اللازمة في أي برنامج مفتوح المصدر عبر الحد مثلاً من النطاق الذي يسمح للنماذج بتوجيه المستخدمين حول كيفية تطوير أسلحة كيماوية أو بيولوجية أو اختراع مسببات أمراض لنشر الأوبئة. كذلك، قد تتمكّن بكين وواشنطن من التعاون لمنع الانتشار النووي حول العالم عبر استعمال الأدوات السيبرانية مثلاً.

يجب أن ينشط كل واحد من هذه الأنظمة على مستوى العالم، ما يعني أن يحصل على موافقة جميع اللاعبين الأساسيين في مجال الذكاء الاصطناعي. ويجب أن تكون تلك الأنظمة متخصّصة بما يكفي للتكيّف مع أنظمة الذكاء الاصطناعي الحقيقية، وحيوية بما يكفي لمتابعة تحديث معلوماتها حول هذا الذكاء المتطوّر. تستطيع هذه المؤسسات، حين تقرّر التكاتف في ما بينها، أن تتخذ خطوة حاسمة لإدارة عالم الذكاء الاصطناعي الناشئ، لكنها لن تكون المؤسسات الوحيدة التي تُعنى بهذا القطاع. لا بد من تطبيق آليات تنظيمية أخرى على الذكاء الاصطناعي خلال السنوات القليلة المقبلة، منها معايير شفافية على صلة بتحديد مواصفات العملاء، ومتطلبات الترخيص، وبروتوكولات لاختبار السلامة، وعمليات دقيقة لتسجيل المنتجات والمصادقة عليها. ترتكز هذه الأفكار كلها على إنشاء مؤسسات إدارية مرنة ومتعدّدة الأوجه لا تقيّدها التقاليد أو غياب الابتكار. في النهاية، لا يمكن أن يسمح خبراء التكنولوجيا لهذه القيود بكبح مسارهم.

لن يكون تطبيق أي من هذه الحلول سهلاً. رغم الضجة التي يُحدثها قادة العالم حول ضرورة تنظيم الذكاء الاصطناعي، لا تزال الإرادة السياسية غائبة. في الوقت الراهن، تبقى الأوساط التي تؤيد احتواء الذكاء الاصطناعي قليلة، وتشير جميع الدوافع إلى استمرار الجمود القائم. لكن قد يتماشى النظام الذي يحمل التصميم المناسب مع متطلبات جميع الأطراف المعنية، فيفرض مبادئ وهياكل لدعم أفضل جوانب هذا الذكاء مقابل منع أسوأ معالمه. أما الامتناع عن احتواء الذكاء الاصطناعي، فهو لن يطرح مخاطر غير مقبولة على الاستقرار العالمي فحسب، بل سينعكس سلباً على القطاع ككل ويتعارض مع مصالح الدول الوطنية.

قد يسمح أي نظام قوي لإدارة الذكاء الاصطناعي بتخفيف المخاطر الاجتماعية التي يطرحها هذا الذكاء وإخماد التوتر بين الصين والولايات المتحدة عبر تقليص النطاق الذي يجعل الذكاء الاصطناعي ساحة وأداة للمنافسة الجيوسياسية. حتى أن هذا النظام قد يُحقّق نتيجة دائمة وأكثر عمقاً، فيُرسّخ نموذجاً فاعلاً حول كيفية التعامل مع مجموعة أخرى من التقنيات الناشئة والتخريبية. قد يكون الذكاء الاصطناعي محرّكاً فريداً من نوعه للتغيير، لكنه ليس آخر تقنية تخريبية سيواجهها البشر. تحمل الحوسبة الكمّية، والتكنولوجيا الحيوية، وتكنولوجيا النانو، وعلم الروبوتات، القدرات اللازمة لإعادة رسم معالم العالم. من خلال التحكّم بالذكاء الاصطناعي، قد ينجح العالم في السيطرة على تلك التقنيات أيضاً.

يصعب أن يطرح القرن الواحد والعشرون تحديات مخيفة كتلك التي ترافق الذكاء الاصطناعي أو فرصاً واعدة بقدره. خلال القرن الماضي، بدأ صانعو السياسة يصمّمون هندسة حُكم عالمية على أمل أن تضاهي تحديات العصر. اليوم، يُفترض أن يبنوا هندسة جديدة لاحتواء أقوى قوة في هذه الحقبة وتسخيرها بالشكل المناسب. لقد أصبحنا على قاب قوسين من العام 2035 ولم يعد إهدار الوقت ممكناً.