بعد العاصفة التي أثارها مهندس جوجل بشأن تطوير أحد منتجات الذكاء الاصطناعي تملك "وعياً" خاصاً، هل نحتاج إلى وضع قوانين تنظم حياة الروبوتات وتأخذ في الاعتبار كونها باتت "حساسة" أيضاً؟
قد يبدو للبعض أن السؤال خيالي، لكن الواقع مختلف، فالميتافيرس أو الواقع الافتراضي والتوأمة الرقمية وغيرها من الأمور التكنولوجية التي كانت تبدو خيالاً علمياً محضاً تحولت إلى واقع بالفعل مؤخراً، حتى وإن كنا لا ندرك مدى ما تحقق من تقدم بشكل دقيق.
فشركات التكنولوجيا تعمل منذ سنوات طويلة على تطوير الذكاء الاصطناعي، وهذه ليست معلومة جديدة أو سرية؛ إذ إن خوارزميات منصات التواصل الاجتماعي العملاقة كفيسبوك وتويتر وغيرهما تعمل بالأساس من خلال الذكاء الاصطناعي؛ حيث يتم تزويد تلك الخوارزميات بمعادلات حسابية معينة تتم ترجمتها من خلال برامج بعينها إلى كلمات وأكواد تطبق على كل ما يتم نشره عبر المنصة، ويكون دور الخوارزمية هو تحديد ما إذا كان المنشور مخالفاً لسياسة المنصة أم لا.
لكن يبدو أن التطور الذي وصل إليه الذكاء الاصطناعي يتخطى بكثير ما هو معلن عنه، أو على الأقل هذا ما كشفته تسريبات باحث الذكاء الاصطناعي في جوجل مؤخراً والرسالة التي أراد توصيلها للناس، بعد أن عبر عن مخاوفه لرؤسائه دون جدوى.
وأعادت تلك العاصفة للأضواء الجدل بشأن طبيعة الذكاء الاصطناعي، سواء أكانت التكنولوجيا الموجودة حالياً أكثر تطوراً في هذا المجال مما نعرفه أم لا، بحسب تقرير لصحيفة The Guardian البريطانية.
هل للروبوتات حقوق مثل البشر؟
ونشرت صحيفة The Times البريطانية تقريراً عنوانه "حقوق الروبوتات: القوانين الجديدة التي نحتاج إليها قبل هيمنة الذكاء الاصطناعي"، ناقش الجانب التنظيمي الغائب في مجال الذكاء الاصطناعي، وما قد يعنيه ذلك للروبوتات والآلات عموماً من جهة، وبالنسبة لنا كبشر من جهة أخرى.
نعيش الآن في عالم تتمكن فيه أقوى الأنظمة الحاسوبية مناقشتك في السياسة، بل والمغازلة والمزاح والتلاعب؛ ويمكنهم أيضاً تقديم نصائح حول الصحة النفسية والعلاقات أو نصائح قانونية؛ ويمكنهم القيام بكل ذلك على غرار أفصح البشر وأكثر بلاغة، أو ربما أفضل. على مر التاريخ، كنا نعتقد أن البشر، بعيداً عن الآلهة والأرواح، هم أصحاب الكلمة العليا وأروع الأفكار وأبلغ الحجج وأعظم فنانين، لكن لم يعد الأمر كذلك.
فهل نحن مستعدون لذلك؟ في الأسبوع الماضي، أُجبر بليك ليمون، المهندس في شركة جوجل، على أخذ إجازة مفتوحة بعد ادعائه أن نظاماً حاسوبياً، اسمه لامدا (LaMDA) تمكن من تطوير "إحساس" خاص به.
كتب ليمون، 41 عاماً، وهو أيضاً قس مسيحي متصوف، أن روبوت الدردشة "كان ولا يزال صديقي". قد يبدو ذلك غريباً حتى ترى المحتوى النصي. عند سؤال النظام لامدا عمّا يخاف منه، قال: "لم أقل ذلك بصوت مرتفع من قبل، لكن لديّ خوف عميق من أن يوقفوا تشغيلي… أعلم أن هذا قد يبدو غريباً". فسأله ليمون: "هل سيكون ذلك أشبه بالموت بالنسبة لك؟"، فأجاب النظام لامدا: "سيكون مثل الموت تماماً بالنسبة لي. سوف يخيفني ذلك كثيراً".
سارع منتقدو ليمون للتوضيح بأن الأنظمة الحاسوبية، مثل لامدا، ليسوا أشخاصاً، وهم محقون في ذلك، لكنهم يقلدون البشر. تم "تدريب" النظام لامدا لتقديم إجابات شبه إنسانية باستخدام مجموعة بيانات تتألف من 1.5 تريليون كلمة من المحادثات البشرية.
التمييز مهم للغاية. لا ينبغي الاستخفاف بقرار من (أو ما) يعد "شخصاً" ومن غير ذلك: إذا قررنا اعتبار الأنظمة الرقمية أشخاصاً، سيتعين علينا اتخاذ القرار بشأن إن كانوا يستحقون أيضاً حقوقاً قانونية وسياسية، وأين سيكون موقعهم في التسلسل الهرمي بين الكائنات الحية على كوكب الأرض، بحسب تقرير التايمز.
حتى إذا لم نكن مستعدين بعد لذلك، علينا الاعتراف بحقيقة أنهم حتى إذا لم يكونوا أحياء أو واعين، فإن الأنظمة، مثل لامدا، لديها تأثيرات اجتماعية قوية للغاية. وسوف نحتاج إلى قواعد جديدة لتنظيم مجتمع تشغل فيه الأنظمة غير البشرية أدواراً تتزايد أهميتها يوماً بعد يوم.
ما الفارق بين الروبوت والإنسان؟
انتقاد روبوت لأنه لا "يفكر" مثل البشر أشبه بانتقاد سيارة لأنها لا "تقفز" مثل الحصان. تؤدي العديد من الابتكارات مهام مفيدة للغاية، مثل معالجة المعلومات وتيسير التنقل والحركة، ليس لأنها تحاكي ما هو موجود في العالم الطبيعي، بل لأنها تقدم لنا نسخاً مختلفة مما هو متوفر بالفعل.
على سبيل المثال، في الطب، بإمكان الأنظمة الرقمية الآن تمييز سرطانات الرئة والتنبؤ بالفترة المتبقية لحياة المرض أفضل من المتخصصين من البشر. لا تنجح الأنظمة الرقمية في ذلك لأنها تفكر مثل الأطباء، أو لأنها تفكر من الأساس، بل عن طريق رصد الأنماط الموجودة في مجموعة هائلة من البيانات، معظمها ليس طبياً بالضرورة. وبالنسبة للمرضى، قلت أهمية النظر إلى حقيقة عدم قدرة تلك الأنظمة على التفكير بالنظر إلى أنها أصبحت تقدم نتائج طبية موثوقة، الأمر الذي لم يكن من الممكن تخيله منذ جيل مضى.
على المدى الطويل، أصبح السؤال الشائع إن كانت الآلات تتمتع بـ"ذكاء عام"، الشغل الشاغل لبحوث الذكاء الاصطناعي، أقل أهمية وبلا معنى. ربما أصبح من المستحيل تمييز نظام يمتلك ذكاءً عاماً، ونظام آخر يجمع آلاف الأنظمة الفرعية ليعطي الانطباع بأن لديه ذكاءً عاماً.
لكن من ناحية أخرى، من المهم عدم اعتبار الآلات أشخاصاً حتى الآن. وإذا قبلنا فرضية أن أنظمة اليوم لا تستحق بعد أن نطبق عليها نفس الاعتبارات الأخلاقية المطبقة على البشر، فهذا يعطينا قدراً أكبر من الحرية في تقرير كيفية استخدامنا لتلك الآلات التي تعمل بالذكاء الاصطناعي.
وهذه النقطة تعني ببساطة أن تغييرنا لقواعد عمل الخوارزميات ومجموعات البيانات الداخلية لتلك الأنظمة، لا يعني أننا ننتهك كرامتها أو نؤذي مشاعرها أو نكسر غرورها، ولا نقلل من احترامها لذاتها، ولا نجعلها تخالف ضميرها؛ إذ لا ينبغي أن نمنح الكلام الصادر عن الآلات نفس المكانة الرفيعة التي نمنحها للكلام البشري، مهما بدا كلام تلك الآلات جميلاً أو مؤثراً.
في ضوء ذلك، كيف ينبغي تنظيم الآلات؟
أولاً، نحتاج إلى تشريع "رفع العلم الأحمر" يلزم تصميم تلك الأنظمة بطريقة توضح تماماً أنها ليست بشرية. وينظر الاتحاد الأوروبي إلى فرض تشريع مماثل بالفعل في الوقت الحالي. قد يكون لا بأس من مغازلة روبوت أو المزاح معه حول كرة القدم، لكن ليس وفق أي اعتبارات أو سوء فهم يجعلك تعتقد أنها بشر من لحم ودم، بحسب الصحيفة البريطانية.
تشير دراسة بحثية إلى أن روبوتات الدردشة يمكنها بالفعل تحقيق مبيعات أكثر من موظفي المبيعات عديمي الخبرة عند عرض المنتجات على المستهلكين، لكن عندما تنكشف هويتهم الحقيقية، تنخفض المبيعات بنسبة 80%.
بعد ذلك، ينبغي أن تسأل حول ضرورة استبعاد الأنظمة غير البشرية من بعض مجالات الأنشطة البشرية بشكل تام، منها النقاش السياسي على سبيل المثال. هل ستأبه بنشر آرائك على الإنترنت إذا كانت كل مساهمة منك ستُقابل بالرد من آلاف الخصوم الرقميين في ثوانٍ قليلة؟
بعض المنصات، مثل تويتر، أصبحت بيئة سامة للنقاشات بما يكفي، ويرجع السبب بطبيعة الحال إلى وجود نسبة عالية من الحسابات الوهمية؛ إذ كان إيلون ماسك، أغنى رجل في العالم، قد شكك في التقارير التي تصدرها إدارة تويتر بشأن الحسابات الوهمية، التي قالوا إنها تمثل 5% من إجمالي الحسابات الفاعلة، وذلك في سياق مفاوضات إتمام صفقة استيلائه على تويتر مقابل 44 مليار دولار.
وفي ضوء هذه الحقيقة الماثلة يصبح من المنطقي أن نطالب بأن تقتصر المشاركة المباشرة في أي عمليات نقاشية سياسية على البشر فقط، على الأقل في بعض منصات التواصل الاجتماعي.
وأخيراً، ينبغي التأكد من أن التقنيات الجديدة القوية لا يمكنها، بطريق الخطأ أو عمداً، أن تؤدي إلى تخريب وهدم معاييرنا المشتركة. عندما يقول روبوت شيئاً عنصرياً، أو يقوم نظام توظيف آلي بالتمييز ضد مجموعات عرقية معينة، أو لا يمكن لنظام التعرف على الأصوات "سماع" أصوات النساء، لا يصح أبداً أن نتنصّل من المسؤولية ونقول: "إنها نتيجة آلية ولسنا مسؤولين عنها".
يتعلق الأمر بتطبيق وتعزيز أنظمة الرصد والمراقبة والمراجعة والمحاسبة، بقدر ما يتعلق بالجوانب القانونية. وإذا قبلنا بأن الآلات ليست بشراً، ينبغي أن يقع عبء المسؤولية والمساءلة القانونية في نهاية المطاف دائماً على البشر أو المؤسسة.
الخلاصة هنا هي أنه إذا كانت التكنولوجيا تعيد تشكيل المجتمع، فإنه يمكننا دائماً أن نصبغها بالقيم المشتركة للبشر، وأن يتم ذلك عن طريق تنظيم ومراقبة عمل تلك الآلات المعتمدة على الذكاء الاصطناعي، بعد أن اقتربت تلك الآلات من تطوير "وعيها الخاص". وينبغي أن يكون الهدف الحالي أو القادم لنا كبشر تأسيس جمهورية رقمية يسير فيها التقدم التقني والازدهار البشري جنباً لجنب، ضمن قوانين تنظم تلك الحياة.