هيلمار شمونت

خبير التكنولوجيا توبي والش عن مخاطر الذكاء الاصطناعي: أخطر من القنابل النووية!

15 آب 2022

المصدر: DER SPIEGEL

02 : 00

السفينة العسكرية غير الآهلة Sea Hunter التي تعمل بالكامل بالذكاء الاصطناعي
يناقش خبير التكنولوجيا الأسترالي في هذه المقابلة الآثار المدمّرة لاستعمال الذكاء الاصطناعي في ساحة المعركة. لا يمكن التخلص من الذكاء الاصطناعي برأيه، لكن يجب أن يتماشى مع قيم المجتمع... يُعتبر توبي والش أشبه بـ"نجم روك" في عالم الثورة الرقمية في أستراليا. هو أستاذ متخصص بالذكاء الاصطناعي في جامعة "نيو ساوث ويلز"، ويحمل كتابه الأخير عنوان Machines Behaving Badly: The Morality of AI (الآلات تسيء التصرف: أخلاق الذكاء الاصطناعي).

تبدو الحرب الروسية ضد أوكرانيا أشبه باختبار لأنظمة الأسلحة الحديثة أحياناً. إتكلت أوكرانيا بقوة على طائرات "بيرقدار" التركية المسيّرة منذ البداية، وقد تحذو روسيا حذوها الآن وتستعمل الطائرات الإيرانية المسيّرة. هل يمكن استخدام هذه الأسلحة بطريقة مستقلة مستقبلاً، فيتم التحكم بها بمساعدة الذكاء الاصطناعي؟

نعم، أصبح استخدام الروبوتات القاتلة التي يتحكم بها الذكاء الاصطناعي مسألة وقت. لقد حذّرتُ في مقالة للتو من نوع جديد من الألغام المضادة للأفراد: POM-3. يرصد هذا اللغم الخُطى، ثم يقفز في الهواء قبل أن ينفجر على علو متر لتمزيق أكبر عدد ممكن من الجنود بالشظايا. أعلنت روسيا أنها ستسيطر على هذه الشظايا عبر استعمال برنامج ذكاء اصطناعي يستطيع أن يميّز الوحدات الروسية القريبة بدقة، فلا تنفجر في هذه الحالة، أو يرصد جنود الأعداء فتنفجر الشظايا حينها. إنها ألغام أرضية وحشية، فهي تمزق الناس عشوائياً وتصيب الأولاد في معظم الأوقات. لهذا السبب، لا تزال محظورة دولياً. تعهدت 164 دولة بعدم استخدامها، بما في ذلك أوكرانيا. لكنّ روسيا ليست جزءاً من هذه البلدان. كان انتقادي لألغام POM-3 كفيلاً بوضع اسمي على إحدى قوائم منع الدخول، إذ لم أعد أستطيع السفر إلى روسيا. أنا فخور بما حصل.

يبدو أن القوات الجوية العالمية أخذت خطوة استباقية في هذا المجال. في الوقت الراهن، تختبر القوات الجوية الأسترالية مثلاً أنواعاً جديدة من الطائرات المقاتلة النفاثة شبه المستقلة بالتعاون مع شركة "بوينغ" الأميركية. تهدف هذه الطائرات المسيّرة الاعتراضية إلى مرافقة وحماية طيّار القاذفات، وكأنها "مُساعِده الوفي".

يبدو مصطلح "المساعِد الوفي" مُخفّفاً ومُضلّلاً، وهو يشير إلى حماية حياة البشر بكل بساطة، أي حياة الطيارين في هذه الحالة. لكنه يتعلق فعلياً بهدف مختلف بالكامل: بدأ سباق تسلّح عالمي في قطاع الذكاء الاصطناعي منذ وقت طويل، لكن لا يدرك الرأي العام حتى الآن حقيقة ما يحصل. يطوّر الجيش الأميركي دبابة آلية اسمها "أطلس". وتعمل البحرية الأميركية على بناء سفينة آلية مؤتمتة بالكامل اسمها "سي هانتر"، وسبق وأنهت هذه السفينة رحلة من هاواي إلى ساحل كاليفورنيا بطريقة مستقلة. كذلك، تُطوّر الصين نوعاً من الصواريخ يتحكم بها الذكاء الاصطناعي، وتريد روسيا تطوير غواصة مستقلة وغير مأهولة اسمها "بوسيدون" ويمكن تزويدها بأسلحة نووية. إنه كابوس حقيقي. هل يمكن تصوّر ظاهرة أكثر رعباً من غواصة يتخذ فيها برنامج محوسب، لا القبطان، قرار شنّ حرب نووية؟

أليست هذه السيناريــــوات المرعبــــة من النوع الذي لا يتحقق في نهاية المطاف؟

على الإطلاق! حتى أن الأسلحة المستقلة قد تكون أخطر من القنابل النووية. يتطلب تصنيع قنبلة نووية مستوىً هائلاً من المهارات، وعدداً من علماء الفيزياء والمهندسين اللامعين، ومواد انشطارية، وأموالاً طائلة. لهذا السبب، ستبقى الأسلحة النووية بعيدة عن متناول بلدان كثيرة في المستقبل المنظور لحسن الحظ. لكن يختلف الوضع مع أسلحة الذكاء الاصطناعي. في معظم الحالات، تكون أنظمة التسلّح التقليدية التي يملكها أي أمير حرب كافية. وعند اختيار الأنواع المناسبة من رقائق الحواسيب ولوازم الطابعة ثلاثية الأبعاد، يمكن تغيير استعمالها وتحويلها إلى سلاح مستقل.

من يتحمّل المسؤولية إذا ارتكبت الأسلحة الآلية جرائم حرب؟ منذ العام 2017، يدور نقاش جدّي في البرلمان الأوروبي حول منح مجموعة من الآلات "صفة الشخص"، على المدى الطويل على الأقل، للتمكن من محاسبتها حين تسيء التصرف.

هذا صحيح، لكن ما نفع هذه الخطوة؟ في النهاية، تُعتبر الشركات أيضاً "أشخاصاً اعتباريين" في بعض الدول. لكن لا يفيد هذا التدبير في معظم الأوقات عند التعامل مع جرائم الياقات البيضاء (جرائم غير عنيفة يرتكبها أصحاب النفوذ لدوافع مالية).

هل بدأ استعمال الروبوتات القاتلة الهجومية منذ الآن؟

تكثر التكهنات في هذا المجال. لكن يبدو أن تركيا أرسلت طائرة مسيّرة مستقلة اسمها "كارغو" ومزوّدة ببرنامج للتعرف على الوجوه، لمطاردة البشر على الحدود السورية. تفيد التقارير بأن "كارغو" تستخدم أنظمة الحلول الحسابية الموجودة في الهواتف الذكية للتعرّف على الوجوه، مع جميع الأخطاء التي ترتكبها، وهي تهدف إلى رصد الناس وقتلهم ميدانياً. إلى أي حد سيصبح الوضع مرعباً حين يتعرّض الناس للمطاردة من سرب طائرات قاتلة؟ حتى لو لم يكن أداؤها مثالياً، قد تستعملها الأنظمة الدكتاتورية لترهيب الشعب. إنها أداة مناسبة لإرهاب الدولة.

 
قد لا يعطي حظر هذه الأسلحة نتائج مثالية دوماً، لكنه قادر على تجنّب الأسوأ. تتعدد الأمثلة على أسلحة استُعمِلت في البداية قبل أن يتم حظرها لاحقاً، منها استعمال الغاز السام على نطاق واسع خلال الحرب العالمية الأولى، أو استخدام الليزر الذي يُسبب العمى للجنود. حَظَّر بروتوكول الأمم المتحدة في العام 1998 هذه الأسلحة ولم تُستعمَل مجدداً في ساحات المعارك منذ ذلك الحين، مع أن تقنية الليزر المدنية، بالشكل الذي نعرفه اليوم، لا تزال شائعة الاستعمال. في ما يخص الألغام المضادة للأفراد، لا يعطي الحظر الأثر المنشود أيضاً، لكن تَدَمّر 40 مليوناً منها على الأقل بفضل بروتوكولات الحظر، ما يعني إنقاذ حياة عدد كبير من الأولاد. الوضع مشابه مع الذخائر العنقودية: تَدَمّر حوالى 99% من مخزونها، مع أنها استُعمِلت مجدداً في سوريا. يمكننا أن نجعل الأسلحة المستقلة غير مقبولة إذاً عبر تشويه سمعتها.

منذ أربع سنوات فقط، توقّعتَ مستقبلاً لامعاً للذكاء الاصطناعي في كتابك الشهير It's Alive (إنه حي). ما الذي دفعك إلى تغيير رأيك؟

إصطدمنا بالواقع! لقد لاحظنا حجم الآثار الجانبية السلبية للذكاء الاصطناعي. مع مرور الوقت، اتّضح نطاق استعمال الإعلانات الانتخابية المستهدفة لاختراق أدمغة الناس ودفعهم إلى التصويت لصالح دونالد ترامب أو خطة "بريكست"، مع أن هذه الخيارات تتعارض مع مصالحهم في معظم الأوقات. سرعان ما تحوّلت هذه الهجمات إلى "عاصفة مثالية" بفضل برامج التعلّم الذاتي.

هل تأمل في تحسّن الوضع بما أن الاتحاد الأوروبي يعمل راهناً على طرح توجيهات حول "الذكاء الاصطناعي الجدير بالثقة"؟

بدأ الاتحاد الأوروبي يطلق مسار تنظيم الذكاء الاصطناعي، ويُعتبر السوق الأوروبي كبيراً بما يكفي كي يدفع الشركات العالمية لتعديل منتجات الذكاء الاصطناعي فيها بما يتماشى مع القواعد الأوروبية. لكنّ الشيطان يكمن في التفاصيل. تختلف صياغة القواعد عن مستوى الالتزام بها على أرض الواقع.

ثمة اختلافـــــات بارزة في الآراء منذ مراحل النقاش الأولى ويتعلق بعضها مثلاً بمسألة الشفافية. هل يمكن أن يصبح الذكاء الاصطناعي شفافاً ومفهوماً أم أنه يبقى غامضاً بطبيعته، ولو جزئياً؟

يبالغ البعض في تقدير أهمية الشفافية. يفتقر الناس أيضاً إلى الشفافية، ومع ذلك نثق بهم في حياتنا اليومية. أنا أثق بطبيبتي مثلاً، مع أنني لستُ خبيراً في الطب ولا يمكنني أن أفهم قراراتها بالتفصيل. قد لا أعرف حقيقة ما يدور في داخلها، لكني أثق بالمؤسسات التي تراقب عملها.

كيف نتأكد من التزام الذكاء الاصطناعي بالقواعد إذا كنا لا نعرف نظامـــــــــه بالتفصيل؟

إنها مشكلة شائكة، لكنها لا تنحصر في مجال الذكاء الاصطناعي. تُعتبر الشركات المعاصرة شكلاً من الذكاء الخارق للطبيعة أيضاً. حتى أذكى شخص في العالم لا يستطيع ابتكار جهاز "آي فون" بنفسه. ولا أحد يتمتع بالذكاء الكافي لتصميم محطة لتوليد الكهرباء وحده. تجمع كل شركة كبيرة ذكاء عشرات آلاف الموظفين الأذكياء بدرجة معتدلة لتشكيل ذكاء جماعي خارق، أو ما يُسمّى الذكاء الاصطناعي بشكله السابق.

ألا يمكـن تعطيـــــل نظــــــام الذكـــــــاء الاصطناعي الذي يسيء التصرف بكل بساطة، فتنتهي المشكلة بالكامل؟

هذا مستحيل! لا يمكن تعطيل الحواسيب في النظام المصرفي العالمي، وإلا سينهار الاقتصاد العالمي. ولا يمكن تعطيل الحواسيب في أنظمة مراقبة الملاحة الجوية، وإلا ستنهار الحركة الجوية. ولا يمكن تعطيل الحواسيب في محطات توليد الطاقة، وإلا سينقطع التيار الكهربائي. نحن نتكل بشدة على الحواسيب اليوم، ومن المتوقع أن يزيد هذا الاتكال المفرط بسبب الذكاء الاصطناعي. لا يمكننا التخلص منه إذاً، لكن يُفترض أن نحاول تعديل قِيَم الذكاء الاصطناعي كي تتماشى مع قِيَم مجتمعنا.

كنتَ محقاً حين توقعتَ أن تُسبّب السيارة ذاتية القيادة حادثاً مميتاً مع ركّاب الدراجات الهوائية والمشاة، وهذا ما حصل تحديداً بعد مرور سنة. ما الذي تتوقع حصوله الآن خلال السنوات الخمس المقبلة؟

سنواجه فضائح كثيرة بسبب الأنظمة الأوتوماتيكية للتعرّف على الوجه. نسخت الشركة الأميركية المبتدئة، Clearview AI، ملايين الصور من دون موافقة الأشخاص المعنيين. رُفِعت دعوى ضد الشركة لاحقاً، لكنها تتابع ما تفعله. من المستغرب ألا تواجه حتى الآن دعوى قضائية كبرى إلى حين إفلاسها. يتعلق توقّع آخر بزيادة مظاهر "التزييف العميق" (Deep Fakes)، أي التلاعب بالأفلام والصور بمساعدة الذكاء الاصطناعي على شبكة الإنترنت. خلال بضع سنوات، ستقرر تقنية "التزييف العميق" نتائج الانتخابات، أو تطلق الحرب، أو تقوم بالأمرَين معاً.


MISS 3