يزداد قلق الحكومة البريطانية من إمكانية استخدام الذكاء الاصطناعي في تسليح أسلحة بيولوجية، وستهيمن المخاوف من احتمال استخدام المجرمين أو الإرهابيين للذكاء الاصطناعي في إحداث دمار شامل، على المناقشات التي ستجري في قمة زعماء العالم حول هذه التكنولوجيا المتطورة باستمرار.
صحيفة The Guardian البريطانية ذكرت الإثنين 25 سبتمبر/أيلول 2023، أن المسؤولين البريطانيين سيجرون جولة حول العالم قبل قمة سلامة الذكاء الاصطناعي المقررة في نوفمبر/تشرين الثاني 2023.
يهدف المسؤولون البريطانيون إلى بناء توافق في الآراء حول بيان مشترك، يُحذِر من مخاطر جهات يمكنها أن تستخدم التكنولوجيا للتسبب في الموت على نطاق واسع.
بعض المحيطين برئيس الوزراء ريشي سوناك، يشعرون بالقلق من أنَّ التكنولوجيا ستصير قريباً قوية بما يكفي لمساعدة الأفراد على صنع أسلحة بيولوجية أو التهرب من السيطرة البشرية تماماً.
ازداد المسؤولون قلقاً إزاء مثل هذه الاحتمالات، والحاجة إلى التنظيم للتخفيف منها، بعد المناقشات الأخيرة مع كبار المسؤولين التنفيذيين في مجال التكنولوجيا.
في هذا الصدد، قال العالم ماكس تيجمارك الذي يقف وراء رسالة تاريخية تدعو إلى التوقف مؤقتاً عن تطوير أنظمة الذكاء الاصطناعي القوية، إنَّ المديرين التنفيذيين للتكنولوجيا وافقوا، خلال المناقشات المغلقة، على مفهوم التوقف، لكنهم شعروا أنهم محصورون في سباق تسلح للذكاء الاصطناعي مع المنافسين.
صحيفة The Guardian نقلت عن أحد الأشخاص المطلعين على المحادثات التي تسبق قمة الذكاء الاصطناعي، قوله إن "الهدف من القمة هو التحذير من مخاطر التوسع في آفاق الذكاء الاصطناعي، الذي يُشار إليه بـFrontier AI، وهذا هو ما تركز عليه الحكومة البريطانية في الوقت الحالي".
Frontier AI هو مصطلح يُستخدَم للإشارة إلى نماذج الذكاء الاصطناعي الأكثر تقدماً، والتي يمكن أن تكون خطيرة بما يكفي لتهديد حياة الإنسان.
كان رئيس الوزراء البريطاني، سوناك، قد حذر منذ عدة أشهر من المخاطر التي يشكلها الذكاء الاصطناعي، وحث المجتمع الدولي على اعتماد حدود للحماية من منع إساءة استخدامه.
من جانبه، قال نائب رئيس الوزراء، أوليفر دودن،، الجمعة 22 سبتمبر/أيلول 2023، لقادة العالم في الجمعية العامة للأمم المتحدة: "نظراً لأنَّ شركات التكنولوجيا والجهات الفاعلة غير الحكومية غالباً ما تتمتع بنفوذ ومكانة بارزة على مستوى الدولة في مجال الذكاء الاصطناعي، فإنَّ هذا التحدي يتطلب شكلاً جديداً من التعددية".
تُشير الصحيفة أيضاً إلى أن المسؤولين انزعجوا من التطورات الأخيرة في نماذج الذكاء الاصطناعي، ففي العام الماضي، استغرقت أداة الذكاء الاصطناعي ست ساعات فقط لاقتراح 40 ألف جزيء مختلف تُحتمَل أن تكون مميتة، بعضها مشابهاً لمركب VX، أقوى غاز أعصاب طُوِّر على الإطلاق.
تخشى مصادر حكومية أن يستخدم مجرم أو إرهابي الذكاء الاصطناعي لمساعدته في إعداد مكونات سلاح بيولوجي، ثم إرساله إلى مختبر آلي حيث يمكن خلط مكونات السلاح وإرسالها دون أي إشراف بشري.
كما يعتقد البعض أنَّ هذا الخطر سوف يتزايد قريباً بدرجة كبيرة، في الوقت الذي تنفق فيه الشركات بالفعل مئات الملايين على معالجات أقوى لتدريب الجيل القادم من أدوات الذكاء الاصطناعي.
من المخاوف المهمة الأخرى ظهور "الذكاء العام الاصطناعي"، وهو مصطلح يشير إلى نظام ذكاء اصطناعي قادر على أداء أية مهمة مستقلاً تكون على مستوى قدرات الإنسان، أو فوق مستواها، ويمكن أن يشكل خطراً وجودياً على البشر، وهناك مخاوف أيضاً من أنَّ البشر ليسوا إلا على مسافة بضع سنوات من تطوير الذكاء الاصطناعي العام.
مع ذلك، تعرَّض نهج المخاطر الوجودية للذكاء الاصطناعي العام لانتقادات أيضاً من خبراء الذكاء الاصطناعي، الذين يجادلون بأنَّ التهديد مبالغ فيه، ويؤدي إلى مخاوف مثل تجاهل المعلومات المضللة، ويخاطر بترسيخ قوة شركات التكنولوجيا الرائدة من خلال إدخال تنظيمات تستبعد القادمين الجدد.
في الأسبوع الماضي، أخبر أحد كبار المسؤولين التنفيذيين في مجال التكنولوجيا المُشرّعين الأمريكيين أنَّ فكرة تطوير ذكاء اصطناعي عام لا يمكن السيطرة عليه هو "خيال علمي".