بهاسكار شاكرافورتي

الإجراءات التنظيمية تُجازف باحتكار الذكاء الاصطناعي

19 آذار 2024

المصدر: Foreign Policy

02 : 00

ريشي سوناك وجيورجيا ميلوني خلال قمة سلامة الذكاء الاصطناعي في بلتشلي | بريطانيا، 2 تشرين الثاني 2023

أصبح قطاع الذكاء الاصطناعي مُعدّاً للتركّز بيد جهات معيّنة، إذ تجازف الإجراءات التنظيمية بمنح الصلاحيات لعدد محدود من الأشخاص. بدأ تنظيم الذكاء الاصطناعي يظهر على شكل شبكة عالمية مختلطة. كانت الصين من أوائل الجهات التي سارت في هذا الاتجاه، لكن عبّرت الجهات التنظيمية على طرفَي الأطلسي عن جدّيتها في فرض حواجز حماية في هذا القطاع منذ السنة الماضية. من المنتظر أن تطبّق وكالات حكومية متعددة هذه السنة أمراً تنفيذياً أصدره البيت الأبيض في تشرين الأول 2023 في شأن سلامة الذكاء الاصطناعي. في غضون ذلك، سيخضع تنظيم خاص بالذكاء الاصطناعي، أُعلن عنه في نهاية العام 2023 في الاتحاد الأوروبي، للتصويت في بداية العام 2024.



يتوقع عدد كبير من الخبراء أن يتكرر «أثر بروكسل»، ما يعني أن تؤثر قوانين الاتحاد الأوروبي على الجهات التنظيمية ومعايير القطاع في أماكن أخرى. في الوقت نفسه، يُفترض أن نتوقع حصول تغيرات حول العالم، نظراً إلى التشعبات السياسية للذكاء الاصطناعي. قد يفرض الاتحاد الأفريقي سياسة خاصة بالذكاء الاصطناعي هذه السنة، بينما تفضّل المملكة المتحدة، والهند، واليابان، مقاربة أكثر تساهلاً في هذا المجال.

لنراجع الآن تأثير خصائص قوانين تنظيم الذكاء الاصطناعي.

أولاً، تبرز مشكلة القواعد غير المتماسكة. في الولايات المتحدة، تفتقر الولايات إلى تشريعات وطنية تصدر عن الكونغرس وتكتفي بأوامر تنفيذية مستقلة من البيت الأبيض، وهذا ما يدفعها إلى ابتكار قواعدها الخاصة في مجال الذكاء الاصطناعي. يفرض مشروع قانون في كاليفورنيا على نماذج الذكاء الاصطناعي أن تستعمل قوة محوسبة تفوق عتبة معيّنة للالتزام بمتطلبات الشفافية. في غضون ذلك، تنظّم ولايات أخرى المحتويات التي يتلاعب بها الذكاء الاصطناعي: تفكر ولاية كارولاينا الجنوبية مثلاً بحظر المرشحين الذين يستخدمون تقنية «التزييف العميق» خلال تسعين يوماً من موعد الانتخابات، وبدأت واشنطن ومينيسوتا وميشيغن تُطوّر مشاريع قوانين مشابهة في مجال الذكاء الاصطناعي المرتبط بالانتخابات.

هذه الاختلافات الواضحة بين الولايات تنعكس سلباً على الشركات الأصغر حجماً، فهي تفتقر إلى الموارد والدعم القانوني للالتزام بقوانين متعددة. كذلك، لا مفر من زيادة الأعباء القائمة عند أخذ المشهد العالمي بالاعتبار.

ثانياً، تبرز متطلبات «الفريق الأحمر» (خدمة لمحاكاة الهجمات وتقييم جهوزية التصدي لها). تتطلب الأوامر التنفيذية والإجراءات التنظيمية الصادرة عن الاتحاد الأوروبي أن تكون نماذج الذكاء الاصطناعي التوليدي فوق عتبة معيّنة من المخاطر لنشر نتائج الاختبارات المنظّمة وتحديد نقاط الضعف الأمنية. تختلف هذه العملية بشدة عن طريقة أقل كلفة سبق واختبرها عدد من شركات التكنولوجيا الناشئة لتقييم سلامة المنتجات، فتطلق هذه الأخيرة نُسَخاً أولية لكنها تطلب أشكالاً مختلفة من الخبرات القانونية والتقنية والجيوسياسية. كذلك، من المستبعد أن تتمكن الشركات الناشئة من تقييم نماذج الذكاء الاصطناعي ذات المصادر الخارجية. هذه العوامل كلها تُسهّل سيطرة كبار اللاعبين على القطاع.

على صعيد آخر، يدعو الأمر التنفيذي الصادر عن البيت الأبيض وقوانين الاتحاد الأوروبي التنظيمية حول نماذج الذكاء الاصطناعي العامة إلى «دمغ» جميع المحتويات إذا كانت تشمل إضافة معلومات إلى الأعمال أو المواد التي ينتجها الذكاء الاصطناعي للتأكد من طريقة إنتاجها. قد تبدو هذه الفكرة منطقية، لكن لن تكون عملية الدمغ مثالية، إذ يستطيع المقرصنون اختراقها. كذلك، قد تواجه الشركات الأصغر حجماً أعباءً تقنية وقانونية إذا كانت تتكل على مواد خارجية للتأكد من علامات الدمغ.

يكشف تحليل أجراه «مركز ابتكار البيانات» (منظمة بحثية أميركية يموّلها القطاع التكنولوجي) أن الشركات الصغيرة والمتوسطة قد تتكبد تكاليف امتثال تصل إلى 400 ألف يورو (حوالى 435 ألف دولار) عبر استعمال جزء من نماذج الذكاء الاصطناعي عالية المخاطر كتلك التي يقترحها الاتحاد الأوروبي. وحتى لو كانت الأرقام قابلة للنقاش، يتمحور مصدر القلق الأساسي حول إقدام منظّمي الذكاء الاصطناعي على إضافة تكاليف قد تفرض أعباءً متفاوتة على الشركات الأصغر حجماً، حتى أنها قد تتحول إلى شكل من الحواجز.

من دون المطالبة بزيادة الإجراءات التنظيمية (حتى لو كانت من النوع المستعمل لمكافحة الاحتكار)، ما الذي يمكن فعله إذاً للتصدي لآثار تلك التدابير؟ هل يُفترض أن نترك قوى السوق الطبيعية تأخذ مجراها بكل بساطة؟

يقضي أحد الحلول بتشجيع مصادر جديدة على خوض المنافسة. في مجالٍ سريع التطور مثل الذكاء الاصطناعي، يسهل أن نتوقع ظهور منافسين مبدعين على نحو خاص. تؤكد مشكلات القيادة في شركة «أوبن إيه آي» التي طوّرت برنامج ChatGPT على وجود خلافات داخل القطاع، ومن الطبيعي أن يظهر منافسون آخرون في ظل استمرار هذه الثغرات.

قد تحصل الأطراف الجديدة على فرصة للمنافسة إذا توفرت نماذج الذكاء الاصطناعي ذات المصادر المفتوحة. حتى لجنة التجارة الفدرالية الأميركية تعترف بهذا الاحتمال. في غضون ذلك، توفّر تلك النماذج فرصاً للمنافسين خارج الولايات المتحدة، ويستطيع كل واحد منهم أن يفرض خصائص مختلفة ومفاهيم مبتكرة. لكن لا يمكن اعتبار النماذج ذات المصادر المفتوحة حلاً سحرياً للمشكلة، فقد أصبح جزء من النماذج التي كانت مفتوحة في البداية منغلقاً مع مرور الوقت.

في الوقت نفسه، قد يكون بناء النماذج التأسيسية من أهم عناصر الذكاء الاصطناعي اليوم، لكن تحتدم المنافسة في هذا المجال منذ الآن: أصدرت «غوغل» مثلاً نموذج Gemini في أواخر العام 2023، وهو يتحدى مجموعة الذكاء الاصطناعي التوليدية التي ابتكرتها شركة «أوبن إيه آي». تُنافسها أيضاً نماذج أخرى ذات مصادر مفتوحة.

وحتى طبقة البنية التحتية المُركّزة قد تشهد شكلاً من المنافسة. تتحدى شركات «مايكروسوفت» و»غوغل» و»علي بابا» تفوّق «أمازون» في الخدمات السحابية، وتتحدى شركة تصنيع الرقائق الكبرى AMD سيطرة Nvidia شبه الاحتكارية على قطاع الرقائق وتخوض منافسة شرسة مع منتجات «أمازون» والصين. قد تنتقل فرص التميّز أيضاً إلى التطبيقات والخدمات التي تستعمل نماذج المنبع والبنى التحتية، فتُصمّم نماذج من الذكاء الاصطناعي لتلبية حاجات المستخدمين، ما يجعل هذه التكنولوجيا أكثر تنافسية.

قد تتراجع المتطلبات المحوسبة لتطبيقات الذكاء الاصطناعي لأسباب مختلفة. قد تزيد فاعلية الرقائق مثلاً، أو ربما تلجأ بعض التطبيقات إلى نماذج أصغر حجماً وأكثر تخصصاً عبر عملية تركيز المعارف، ما قد يعني تراجع الحاجة إلى نماذج لغوية «كبيرة» تحتاج إلى التدرّب على قواعد بيانات ضخمة وتخضع لمراقبة عدد صغير من الشركات.

قد تسمح هذه التطورات بتخفيف الاتكال على الجهات المؤثرة القليلة في شركات التكنولوجيا العملاقة. لكن إذا سارت الأمور في هذا الاتجاه، سيتطلب نشوء هذا النوع من قوى السوق بعض الوقت. في غضون ذلك، قد يفكر صانعو السياسة باتخاذ خطوات أخرى على المدى القريب من خلال التفاوض الاستباقي مثلاً.

أصبح قادة شركات الذكاء الاصطناعي الكبرى جزءاً من النقاشات المرتبطة بتنظيم القطاع للمشاركة في تحديد القواعد المرتقبة. هذا الوضع يمنح صانعي السياسة ورقة ضغط للتفاوض على اتفاقات بديلة مع أكبر اللاعبين المؤثرين.

يمكن استعمال نماذج مستوحاة من ابتكارات صناعية تاريخية مثلاً. يستطيع صانعو السياسة أن يستوحوا أفكارهم من مرسوم التوافق الفدرالي الأميركي الذي جمع شركة AT&T و»نظام بيل» لشركات الاتصالات في العام 1956. كانت تلك الشركة تحتكر الاتصالات على المستوى الوطني وفرضت تفوّقها في مجال الابتكار التكنولوجي. لكن لم تحبذ الشركة احتجاز أصول قيّمة وضرورية بالنسبة إلى المصلحة الوطنية لدى جهات خاصة. سمح مرسوم التوافق بالحفاظ على الاحتكار، لكن طُلِب في المقابل من «مختبرات بيل» التابعة لشركة AT&T ترخيص جميع براءات اختراعاتها من دون مطالبة الآخرين بحقوق الملكية.

يقضي حل آخر باستعارة الأفكار من أُطُر الاستثمارات العامة القائمة راهناً: يستطيع القطاع الخاص أن يزيد استثماراته لتطوير الذكاء الاصطناعي بالتعاون مع الشركات الكبرى، فيطبّق «قانون تعديل براءات الاختراع والعلامات التجارية». يسمح هذا القانون للشركات بالاحتفاظ بملكية الاختراعات، تزامناً مع منح الحكومة رخصة لاستخدام الملكية الفكرية المستعملة للأغراض العامة. أو يمكن استعمال مبادئ المرافق العامة، فيستوحي صانعو السياسة أفكارهم من نموذج البنية التحتية العامة الرقمية الذي أَسَر عدداً كبيراً من الأطراف في أوساط التكنولوجيا المُعدّة للتطوير. يفترض هذا النموذج إنشاء «سكك عامة» يمكن أن يبني أي طرف تطبيقات رقمية عليها. قد تطالب الحكومات أيضاً بنماذج الذكاء الاصطناعي على شكل سكك عامة من هذا النوع.

أخيراً، يمكن تطبيق مبادئ الضرائب التدريجية: لتكثيف الأعباء التنظيمية على الشركات الأصغر حجماً، تقضي إحدى الطرق بفرض ضريبة على العائدات المرتبطة بالذكاء الاصطناعي، مع الحرص على زيادة معدلات الضرائب حين يتوسّع حجم الشركة.

ستكون تداعيات تَرَكُّز قطاع الذكاء الاصطناعي غير مألوفة، فقد تستغل الشركات الطاغية قوة السوق. لكن يطرح هذا المجال مصادر قلق جديدة، إذ يعني تراجع عدد الشركات إعطاء الأولوية لمجموعة أضيق من التطبيقات وترسيخ الانحيازات في قواعد البيانات وأنظمة الحلول الحسابية. كذلك، يعني الاتكال المفرط على عدد صغير من الشركات احتمال أن تنتشر إخفاقات الأنظمة المعتمدة بسرعة: قد تتمدد مخاطر الاضطرابات المالية سريعاً وتُسبّب أزمة عالمية عبر الشبكات المالية التي تتكل على عدد صغير من منصات الذكاء الاصطناعي الأساسية، أو تستهدف الهجمات السيبرانية منصات الذكاء الاصطناعي شائعة الاستعمال. هذه العمليات قد تُعرّض عدداً كبيراً من المنظمات أو القطاعات للمخاطر في الوقت نفسه.

سيشهد العام 2024 ظهور المزيد من قواعد الذكاء الاصطناعي. لنحرص إذاً على اختيار قواعد لا تسمح باستمرار تفوّق قلّة من الأطراف فيما يفوّت المنافسون الجدد فرص التقدّم.

MISS 3