دعا رؤساء شركة "أوبن إيه آي" OpenAI للذكاء الاصطناعي- التي ابتكرت تطبيق ChatGPT واسع الانتشار- إلى إقرار قيود تنظيمية على استخدام منظومات "الذكاء الاصطناعي الخارق" والذكاء الاصطناعي، وإنشاء هيئة دولية شبيهة بالوكالة الدولية للطاقة الذرية، المعنية بالرقابة على الأسلحة النووية، للمساعدة في تقليل "الخطر الوجودي" الذي قد تشكله تكنولوجيا الذكاء الاصطناعي على العالم، بحسب ما نشرته صحيفة The Washington Post الأمريكية.
وفي بيان نُشر على الموقع الإلكتروني للشركة هذا الأسبوع، قال فيه غريغ بروكمان وإيليا سوتسكفر، الشريكان المؤسسان للشركة، وسام ألتمان، الرئيس التنفيذي، إن إنشاء هيئة دولية منظِّمة لتكنولوجيا الذكاء الاصطناعي سيصبح أمراً ضرورياً في النهاية "لفحص أنظمة الذكاء الاصطناعي، وإجراء عمليات التدقيق، واختبار مدى الامتثال لمعايير السلامة، (و) وضع قيود على التوسع في الاستخدام، وإقرار معايير الأمان اللازمة".
خطره شبيه بالطاقة النووية
كما شبَّه مسؤولو الشركة تكنولوجيا الذكاء الاصطناعي بالطاقة النووية، فيما تتضمنه من "احتمالات التسبب في مخاطر وجودية"، ومن ثم فقد حثوا على إنشاء هيئة دولية مماثلة في طبيعتها للوكالة الدولية للطاقة الذرية، التي تتولى الرقابة الدولية على استخدام الطاقة النووية في العالم.
وكتب فريق "أوبن إيه آي" في بيانه، أنه من المتوقع أن "تتجاوز أنظمة الذكاء الاصطناعي [في غضون العقد المقبل] درجات البراعة التي بلغها الخبراء في معظم المجالات، وأن تصبح لديها القدرة على الاضطلاع بنشاط إنتاجي مماثل لكبرى الشركات في الوقت الحاضر".
وفيما يتعلق بالجوانب الإيجابية والسلبية المحتملة، زعم البيان أن "الذكاء الاصطناعي الخارق سيكون أقوى من مختلف التقنيات التي واجهتها البشرية في الماضي. ومع ذلك، فإننا يمكننا أن نحظى بمستقبل مزدهر بالاعتماد على هذه الأدوات، ولكن علينا أن نحسن إدارة المخاطر لبلوغ ذلك".
كما كرر البيان مضمون التصريحات التي أدلى بها ألتمان أمام الكونغرس الأمريكي، الأسبوع الماضي، والتي قال فيها الرئيس التنفيذي للشركة إن العالم يحتاج إلى هيئة تنظيمية تراقب استخدام تكنولوجيا الذكاء الاصطناعي.
في المقابل، حذّر النقاد من الثقة بالدعوات التنظيمية التي يطلقها قادة شركات التكنولوجيا الذين يستفيدون من التطوير المستمر لمنتجاتها دون قيود. وقال بعضهم إن قرارات شركة "أوبن إيه آي" التجارية تتناقض مع توجيهات توخي السلامة الصادرة عنها، فقد أدى طرحها المتعجل لتطبيق ChatGPT إلى سباق تسلح في مجال الذكاء الاصطناعي، ودفعَ شركات كبرى مثل شركة "ألفابت"، المالكة لمحرك البحث جوجل، لإصدار منتجات تعمل بأنظمة الذكاء الاصطناعي، بينما لا يزال صانعو السياسات يحاولون استيعاب المخاطر.
قلق من الذكاء الاصطناعي
كما أوردت صحيفة The Washington Post الأمريكية من قبل أن قلة من المشرعين في واشنطن هم من لديهم فهم عميق للتكنولوجيا الناشئة ولأنظمة الذكاء الاصطناعي عموماً، وقد زادت شركات الذكاء الاصطناعي من ضغوطها عليهم، في وقت يسعى فيه المؤيدون والنقاد إلى التأثير في المناقشات الجارية حول سياسات الذكاء الاصطناعي.
من جهة أخرى، حذّر خبراء من اتخاذ إجراءات تعيق قدرة الولايات المتحدة على التنافس في تكنولوجيا الذكاء الاصطناعي مع كبار منافسيها الدوليين، وخاصةً الصين، وحذر قادة "أوبن إيه آي" في بيانهم من مخاطر الإيقاف المؤقت لإجراءات التطوير الجارية في مجال الذكاء الاصطناعي، زاعمين أنها "خطوة من المتعذر أن نتوقع مخاطرها، فضلاً عن أنه من الصعوبة بمكان إيقاف مبتكرات الذكاء الاصطناعي الخارق، لأن المكاسب هائلة، وتكلفة تطويرها تتناقص كل عام، علاوة على تزايد الجهات الفاعلة التي تسرع من وتيرة بناء هذه الأدوات التكنولوجية".
في مستهلّ الشهادة التي أدلى بها ألتمان في جلسة استماع أمام الكونغرس، الأسبوع الماضي، حذر من "الأضرار الكبيرة التي يمكن أن يسببها الذكاء الاصطناعي للعالم"، لكنه أكد في الوقت نفسه أن شركته ستستمر في تطوير منتجاتها وستواصل تقديمها للمستخدمين.
لقيت رسالة ألتمان عن استعداد شركته للتعاون مع المشرعين قدراً من الترحيب في الكونغرس، لا سيما أن كثيراً من الدول- ومنها الولايات المتحدة- بدأت تقر بأنها تحتاج إلى تنظيم التطور في هذه التكنولوجيا، خاصة وقد أطلقت العنان لمخاوف بشأن انتهاك الخصوصية والأمان، وتقليل الوظائف، ونشر المعلومات المضللة.
وخلال مؤتمر مجموعة السبع الدولية، يوم السبت 20 مايو/أيار، أوضح زعماء أكبر الاقتصادات في العالم أنهم جعلوا في صدارة اهتمامهم إقرار معايير دولية لتنظيم التطور الجاري في تكنولوجيا الذكاء الاصطناعي، لكنهم لم يتوصلوا بعد إلى حلول جوهرية بشأن كيفية معالجة المخاطر الناشئة عنها.