تثير التقنيات الحديثة المبنية على الذكاء الاصطناعي تساؤلات مهمة حول موضوعية وفاعلية أجهزة الكشف عن الغش في البيئات التعليمية؛ إذ أظهرت دراسات علمية نتائج مثيرة عن برامج الكشف عن الغش باستخدام الذكاء الصناعي، إذ اتهمت طلاباً غير ناطقين باللغة الإنجليزية بالغش فقط لأن لغتهم كانت مختلفة عن الناطقين بها، واعتقدت البرامج أن الطلاب استخدموا أجهزة الذكاء الاصطناعي فاتهمتهم بالغش.
هذه النتائج تثير تساؤلات حول موضوعية وأخلاقية برامج الكشف عن الغش باستخدام الذكاء الاصطناعي، خصوصاً بعد ما أثبتته الدراسة وما وصفته بأنه تمييز أو تحيز ضد غير الناطقين باللغة الإنجليزية كلغة أم، عندما استخدموها.
هل تتحيز البرامج التي تكشف الغش باستخدام الذكاء الاصطناعي؟
أظهرت دراسة أجرتها جامعة ستانفورد البحثية الأمريكية أن سبعة أجهزة مشهورة للكشف عن النصوص الذكية أجرت اختبارات على 91 مقالة باللغة الإنجليزية، كُتبت من قِبل غير الناطقين بها. أظهرت النتائج أن أكثر من نصف المقالات التي تم اختبارها، والتي كُتبت بواسطة أشخاص غير متحدثين بالإنجليزية بطريقة فصيحة، تم تصنيفها على أنها من إنتاج الذكاء الاصطناعي.
ووفقاً للدراسة، فقد حددت هذه الأجهزة أكثر من نصف المقالات (61.22%)، التي كُتبت كجزء من اختبار إجادة اللغة الإنجليزية المعترف به على نطاق واسع، المعروف باسم اختبار اللغة الإنجليزية "توفل"، على أنها من إنشاء الذكاء الاصطناعي. ومع ذلك، عندما فُحصت مقالات الطلاب الناطقين بالإنجليزية، تم اعتبار 90% منها كتابة بشر.
بناءً على هذه النتائج التي نشرتها جامعة ستانفورد الأمريكية (Stanford University)، طلب الباحثون من برنامج الذكاء الصناعي الشهير "شات جي بي تي" إعادة كتابة مقالات "توفل" للطلاب غير الناطقين باللغة الإنجليزية بجودة أعلى، وعرضوا هذه المقالات على أجهزة الكشف عن المقالات المكتوبة بالذكاء الصناعي، ولكن جميعها تم تصنيفها على أنها من كتابة بشر.
وفحصت جميع أجهزة الكشف السبعة بالذكاء الاصطناعي بالإجماع 18 مقالاً من بين 91 مقالاً لطلاب توفل (نسبة 19%) على أنها تم إنشاؤها بواسطة الذكاء الصناعي. في حين تم تمييز 89 مقالاً من 91 مقالاً في اختبار توفل (نسبة 97%) بواسطة واحد على الأقل من أجهزة الكشف عن المقالات المكتوبة بالذكاء الاصطناعي.
ويشير الباحثون إلى أن هذه النتائج عن برامج الكشف عن الغش بالذكاء الاصطناعي تسلط الضوء على تحيز يمكن أن يؤثر سلباً على مستقبل الطلاب والأكاديميين والمتقدمين للوظائف.
وفي هذا السياق، يعتقد البحث أن "هناك مشكلة واحدة كبيرة، وهي أنه لا يمكن الاعتماد على برامج الكشف عن استخدام الذكاء الاصطناعي، والأسوأ من ذلك، أنه لا يمكن الاعتماد عليها إذا لم يكن المؤلف الحقيقي (الإنسان) متحدثاً باللغة الإنجليزية".
فيما أشار الأستاذ المساعد في علوم البيانات الطبية الحيوية في جامعة ستانفورد، جيمس زو، الذي قاد هذا البحث، إلى القلق الأخلاقي الناجم عن هذه النتائج، وأوضح أن الأرقام "تثير أسئلة جدية حول موضوعية أجهزة الكشف عن الذكاء الاصطناعي، وتزيد من احتمالية توجيه اتهامات غير عادلة للطلاب والعاملين المولودين في الخارج، أو حتى معاقبتهم عن غش لم يرتكبوه".
هل يمكن خداع أجهزة الكشف عن الغش باستخدام الذكاء الاصطناعي؟
أشارت أبحاث أيضاً إلى إمكانية تخريب أجهزة الكشف عن استخدام الذكاء الاصطناعي بسهولة من خلال ما يعرف بـ "الهندسة السريعة".
يُفسر هذا المصطلح الفني في مجال الذكاء الاصطناعي ببساطة بأن الذكاء الاصطناعي التوليدي يطلب ببساطة "إعادة كتابة" المقالات لتضمن لغة أكثر تعقيداً، مما يجعلها أصعب في الكشف عنها.
إذ قال الأستاذ المساعد في علوم البيانات الطبية الحيوية في جامعة ستانفورد، جيمس زو: "من الواضح أن أجهزة الكشف الحالية غير موثوقة وقد يتم خداعنا بسهولة من خلال نتائجها، لذا يجب أن نكون حذرين للغاية في استخدامها كحل لمشكلة الغش باستخدام الذكاء الاصطناعي"، وفق ما نقلته صحيفة The Guardian البريطانية.
الدراسات في هذا الجانب تقدم اقتراحات لتجنب الاعتماد على أجهزة الكشف في المؤسسات التعليمية، خصوصاً في حالة وجود عدد كبير من المتحدثين غير الناطقين باللغة الإنجليزية. كما نصحت المطورين بتطوير استراتيجيات أخرى يمكن أن تكشف عن النصوص المولدة بالذكاء الاصطناعي دون أن تؤثر سلباً على الطلاب والأكاديميين.
استخدام الذكاء الاصطناعي في محاربة الذكاء الاصطناعي
في خضم الحديث عما يُنظر له على أنه تحيز تمارسه برامج الكشف عن الغش بالذكاء الاصطناعي، أشار الباحث جاهنا أوترباخر، من المركز القبرصي للشفافية الخوارزمية في الجامعة المفتوحة في قبرص، إلى فكرة استخدام الذكاء الاصطناعي في محاربة الذكاء الاصطناعي.
وقال في تصريح نقلته صحيفة The Guardian البريطانية: "بدلاً من محاربة الذكاء الاصطناعي بمزيد من الذكاء الاصطناعي، يجب علينا تطوير ثقافة أكاديمية تعزز استخدام الذكاء الاصطناعي التوليدي في إطار إبداعي وأخلاقي"، مشيراً إلى أن برامج الذكاء الاصطناعي تتعلم طرقاً لإرضاء المستخدمين باستمرار، مما يجعلها قادرة على التفوق على أي برامج كشف عن استخدام الذكاء الاصطناعي.
وفي هذا السياق، تحدث الباحثون عن ضرورة حماية النزاهة الأكاديمية من إساءة استخدام الذكاء الاصطناعي التوليدي، ورغم ذلك، فإنهم اعتبروا أن الحلول التقنية البحتة لحل إساءة استخدام الذكاء الصناعي لا تؤدي إلا إلى المزيد من المشاكل، ويرى بعض الباحثين أن تنمية ثقافة تعزز الاستخدام الإبداعي والشفاف لهذه الأدوات هي القضية الحاسمة.
ما يعني وجود قدرٍ من الاستخدام العادل والإيجابي لأجهزة الذكاء الصناعي بطريقة تساعد غير الناطقين باللغة الإنجليزية على سبيل المثال على إثراء تعبيراتهم اللغوية، وهذا سيساعدهم في الحصول على فرص متكافئة مع نظرائهم المتحدثين بالإنجليزية.
لذلك، يرون أن أهم اعتبار ليس تطوير الجيل التالي من برامج الكشف عن الغش بالذكاء الاصطناعي القائمة هي الأخرى على الذكاء الاصطناعي، بل تحديد معايير الاستخدام الأخلاقي لهذه الأدوات في العمل الأكاديمي والعلمي.
قد يهمك أيضاً: الذكاء الاصطناعي بين "التهويل والتهوين".. 6 طرق يمكن بها الاستفادة من مميزاته وتفادي عيوبه