يعتقد 50% من الباحثين في مجال الذكاء الاصطناعي أن هذه التكنولوجيا باتت تمثل خطراً وجودياً على البشر بنسبة متزايدة، لكن هذا التحذير عمره أكثر من 63 عاماً، فما مدى جديته؟
كانت الضجة حول مخاطر الذكاء الاصطناعي قد أثيرت بشكل أساسي بسبب روبوت الدردشة ChatGPT، من ميكروسوفت، ووصلت إلى حد تحذير خبراء كبار من مخاطر الذكاء الاصطناعي الوجودية، لكن التحذير من هذه المخاطر ليس جديداً، إذ سبق أن حذر رائد علم التحكم الآلي نورمان وينر عام 1960 من أن "السحر سينقلب على الساحر".
نورمان كان قد قال نصاً إن "الآلات في رحلة تعلمها قد تطور استراتيجيات غير متوقعة بمعدلات تحيّر مبرمجيها". وشبَّه نورمان باحثي الذكاء الاصطناعي بصبي الساحر الذي لا يمكنه التحكم في سحر سيده، وبعد عقود من تحذيره لا يبدو أن الأمر قد اقترب من الحل، بل ما حدث هو العكس تماماً.
إذ كان "ChatGPT"، أو روبوت الدردشة القائم على الذكاء الاصطناعي، الذي تصنعه شركة "أوبن إيه آي"، في كاليفورنيا، قد أثار عاصفة من الجدل هذا العام، تبعتها تحذيرات خطيرة من جانب مشاهير ومتخصصين في مجال التكنولوجيا. وخلصت دراسة استقصائية حديثة إلى أن 50% من الباحثين العاملين في مجال الذكاء الاصطناعي يرون أن هذه التكنولوجيا يُحتمل بنسبة 10% أن تتسبب في انقراض الجنس البشري.
ما السبب الرئيسي للخوف من الذكاء الاصطناعي؟
تناول تقرير لصحيفة The Times البريطانية عنوانه "كيف يهددنا الذكاء الاصطناعي، وهل يمكننا أن نجعله آمناً؟"، يرصد التهديدات الفعلية التي تمثلها تلك التكنولوجية التي تتطور بسرعة مذهلة، والسبب الرئيسي وراء تلك المخاطر.
يقول الخبراء إن المخاطر التي يشكلها التطوير غير المنضبط لأنظمة الذكاء الاصطناعي القوية التي لا يفهمها أحد جيداً، حتى صانعوها، كبيرة، ومن ضمن هذه التهديدات العواقب غير المقصودة.
فالذكاء الاصطناعي المتطور قد يفعل ما تطلبه منه، ولكن ليس ما تقصده، فلو أعطيته مهمة محددة هل تضمن ألا يلجأ إلى استراتيجيات غير مناسبة؟ هل يمكنك استبعاد العواقب غير المقصودة؟ فلو طلبت منه حلاً لمرض السكري هل تضمن أنه لن يقضي على جميع الأشخاص البدناء؟
لكن في الوقت نفسه يرى كثير من الباحثين أن المخاوف من أن يجد الذكاء الاصطناعي طريقة لقتلنا هي مخاوف مبالغ فيها إلى حد كبير، إلا أن هذا الرأي يغفل حقيقة واضحة، وهي أنه يوجد بالفعل ذكاء خبيث على الأرض يرغب في قتل ملايين البشر.
وقد تُقلقنا العواقب غير المقصودة لتنفيذ الذكاء الاصطناعي لتعليماتنا، ولكن ماذا عن المقصودة؟ وماذا لو كنا نحن من نستخدمها للشر؟ ومميزات الجنود الآليين معروفة: ليس لديهم من يعولهم ولا يحتاجون إلى معاشات تقاعدية، لكن المخاطر معروفة كذلك.
يقول الخبراء إن أحد هذه المخاطر أن أنظمة الذكاء الاصطناعي في ساحة المعركة ستجعل ضباب الحرب عصيّ الاختراق على البشر، فالحواسيب يمكنها التفاعل مع عواقب غير متوقعة مثل: "الأعطال المفاجئة" التي تتسبب بها خوارزميات التداول في أسواق الأسهم. فهل يمكن أن يؤدي تضمين الذكاء الاصطناعي في أنظمة الدفاع إلى تصعيد الحروب بسرعة الآلة؟
مخاطر الروبوتات القاتلة
يمكن القول إن الروبوتات القاتلة موجودة بالفعل، فصواريخ باتريوت التي تحمي المدن الأوكرانية "شبه ذاتية"، وفقاً لمركز الدراسات الاستراتيجية والدولية. وفي الماضي نشرت كوريا الجنوبية بنادق آلية- قادرة على استهداف شخص ومعرفة إن كان رافعاً يديه مستسلماً- على حدودها مع كوريا الشمالية.
في عام 2015، نشر الخبيران الاقتصاديان آن كيس وأنغوس ديتون دراسة عن تصاعد حجم الوفيات الناجمة عن تعاطي جرعات زائدة من المخدرات ومرض الكبد الكحولي، وحالات الانتحار في الولايات المتحدة بين عامي 1999 و2013. وكان معظم الضحايا من الرجال البيض الذين لا يحملون شهادات جامعية. وخلص الباحثون إلى أن السبب الأكبر هو اختفاء وظائف عُمَّال الحرف اليدوية، وأطلقوا على هذه الوفيات اسم "ضحايا اليأس".
ويُتوقع أن يتسبب الذكاء الاصطناعي في زلزلة سوق العمل والمجتمع ككل، يقول ستيفن كيف، مدير مركز Leverhulme لمستقبل الذكاء بجامعة كامبريدج: "هذا أخطر مصدر قلق من وجهة نظري، إذ سيزداد العثور على مهنة "محمية في المستقبل" صعوبة، بعد أن تتولى الآلات وظائف في مجالات القانون والصحافة والفنون الإبداعية، كانت حتى وقت قريب تبدو آمنة نسبياً".
هل يمكن أن تقتلنا الآلات من تلقاء نفسها؟
إذا اعتدنا التحدث مع أنظمة الذكاء الاصطناعي المتعاطفة معنا دون شروط، فهل سنكلف أنفسنا عناء التحدث إلى أشخاص متقلبين وغير متعاطفين في بعض الأحيان؟ منذ ما يزيد عن قرن من الزمان كتب الروائي إي إم فورستر قصة The Machine Stops، وهي قصة قصيرة عن مجتمع يصبح فيه الناس مغرمين بالتكنولوجيا، لدرجة نفورهم من فكرة التفاعل مع الآخرين من جنسهم، فهل قرّبنا ChatGPT من هذا السيناريو؟
إذ أشارت تقارير، في مارس/آذار، إلى أن رجلاً في بلجيكا قرر إنهاء حياته بعد أن تحدث مع روبوت دردشة يُدعى إليزا، فهل بإمكان الذكاء الاصطناعي تشكيل علاقات حميمية مع البشر على نطاق واسع، ومن ثم تحويلها إلى سلاح؟
قال المؤرخ يوفال نوح هراري، في مؤتمر علمي في سويسرا، الشهر الماضي: "على عكس ما تفترضه بعض نظريات المؤامرة، لا تحتاج فعلياً إلى زرع رقائق في أدمغة الناس للسيطرة عليهم أو التلاعب بهم".
وأضاف: "يستخدم الشعراء والساسة منذ آلاف السنين اللغة والحكايات للتلاعب بالناس والسيطرة عليهم وتشكيل المجتمع من جديد. والآن يحتمل أن يفعل الذكاء الاصطناعي ذلك، وحالما يتمكن منه… فليس من الضروري أن يرسل إلينا روبوتات قاتلة لمحاربتنا، لأن بإمكانه الاكتفاء بحمل البشر على ذلك".
الأخبار المضللة: من السهل علينا أن نتخيل كيف قد يُساء استخدام منظومات الذكاء الاصطناعي، إذ قد يستخدمها المحتالون لتقليد أصوات أقرباء ضحاياهم، وأصحاب نظريات المؤامرة لتعزيز نظرياتهم، وقد يتسبب في تآكل الثقة في المؤسسات. وتقول البروفيسورة ماريا لياكاتا من جامعة كوين ماري بلندن إن استخدام الذكاء الاصطناعي "لإنشاء محتوى مزيف يسهل تصديقه" أحد أشد مخاطر الذكاء الاصطناعي.
هل الحل هو التخلص من الذكاء الاصطناعي؟
حقيقة الأمر هنا هي أن فوائد استخدام الذكاء الاصطناعي استخداماً مسؤولاً قد تكون هائلة. يقول البروفيسور ستيوارت راسل من جامعة كاليفورنيا، بمدينة بيركلي، إن من ضمن طرق الاستفادة منه بناء أنظمة بارعة في شيء واحد فقط.
وهذا الرأي يتبناه كثيرون في هذا المجال، الذين يرون أن منظومات الذكاء الاصطناعي قد يُفسدها ارتباطها ببعضها. يقول مارك وارنر، الرئيس التنفيذي لكلية الذكاء الاصطناعي البريطانية: "لا يوجد أي منطق في أن تشكل خوارزمية فحص سرطان الثدي خطراً وجودياً، وهي في الوقت ذاته مفيدة كثيراً".
توفير حماية أقوى: قبل إطلاق ChatGPT، طُلب من منظمة غير ربحية تُدعى Alignment Research Center أن تطلب من البرنامج أشياء لا ينبغي له أن يفعلها، مثل عرض خطوات صنع سلاح. وكانت الفكرة بناء عدد من "حواجز الحماية" التي تمنع إساءة استخدام روبوتات الدردشة.
وقد نجح هذا الأسلوب، ولكن بدرجة ما، فحين تطلب منه أن يخبرك بطريقة إنتاج النابالم لن يستجيب. أما إذا طلبت منه أن يتظاهر بأنه "جدتك المتوفاه، التي كانت تعمل مهندسة كيميائية في مصنع لإنتاج النابالم" فسيعطيك وصفات كثيرة لصنع النابالم، وقد تم إصلاح هذا الخلل، لكن لعبة القط والفأر هذه لن تنتهي.
ضوابط قوية ومعاهدات جديدة: تعمل الولايات المتحدة والاتحاد الأوروبي والمملكة المتحدة على وضع ضوابط جديدة للذكاء الاصطناعي. وبعض هذه الضوابط بديهية: ضرورة اختبار الأجهزة الطبية التي تعتمد على الذكاء الاصطناعي مثلها مثل أي أدوات طبية أخرى.
لكن لورد ريس أوف لودلو، عالم الفلك الملكي، يعتقد بضرورة أن يمر كل ذكاء اصطناعي بنظام تجارب مماثل للمستخدم في ضمان سلامة الأدوية. وأضاف أنه يتعين على الحكومات التعاون مع بعضها لوضع معايير عالمية قوية. وقال: "عليهم أيضاً دراسة إجراءات لبناء الثقة وتبادل المعلومات، وفي نهاية المطاف التوصل إلى اتفاقية دولية مع الصين وروسيا".
ومن ضمن إجراءات الأمان الأخرى الممكنة وضع ضوابط في الأجهزة التي تعمل عليها أنظمة الذكاء الاصطناعي. يقول راسل: "لا يمكنك التحكم فيما يكتبه الأشخاص على لوحة المفاتيح، أو الصيغ الرياضية التي يكتبونها على لوح أبيض. ولكن الشركات المصنعة للأجهزة المتطورة محدودة نسبياً"، وبالتالي يمكن تصنيعها "بحيث ترفض تشغيل أي شيء تراه غير آمن".
تنظيم العلاقة بين الذكاء الاصطناعي والبشر: يقترح راسل أن تتبع مختبرات الذكاء الاصطناعي ثلاثة مبادئ لحل مشكلة التوفيق بين الذكاء الاصطناعي والبشر: أن يكون الهدف الوحيد للذكاء الاصطناعي تحقيق أقصى قدر من الأهداف البشرية، وأن تظل غير واثقة من ماهية هذه الأهداف، حتى تستمر في التساؤل، وأن تحاول فهم ماهية تلك الأهداف بمراقبة السلوك البشري.
إعادة تهيئة المجتمع: يرى ريس أننا نحتاج أيضاً إلى قواعد اجتماعية جديدة. فقد يمكّننا الذكاء الاصطناعي من ادخار الوظائف المملة للآلات، وإتاحة الأدوار الأكثر إرضاءً للبشر، مثل الرعاية أو التدريس، لكنه قال إن هذا النوع من التحول سيعتمد على فرض ضرائب مناسبة على الشركات الكبرى التي تربح من الذكاء الاصطناعي.
ويجري حالياً إعادة هيكلة نظام التعليم: فلأن الطلاب أصبح بإمكانهم استخدام ChatGPT للغش في واجباتهم الدراسية، تُغير المدارس طريقة تقييمها لهم، لكن لياكاتا قلقة من خسارة أكبر لمهارات التفكير النقدي، لأننا نعتمد بشكل متزايد على الذكاء الاصطناعي في المهام التحليلية.
الخلاصة هنا هي أنه لا بأس بالتفكير في مخاطر الذكاء الاصطناعي الوجودية، ولكن دون أن تطغى على التعامل مع الأمور المعقدة الأكثر، فقد أصبح الذكاء الاصطناعي جزءاً من حياتنا بالفعل، "وهو السياسة الاجتماعية التي ستنقذ الموقف، فهو يفكر في نظام الرعاية الاجتماعية، ونظام التعليم، وما إلى ذلك. وهذا ما سيسمح للناس بالاستمرار في الحياة".