أظهرت دراسة جديدة أن ChatGPT، أحد أشهر أنظمة الذكاء الاصطناعي التوليدي، لا يقدم دائما إجابات دقيقة عند تقييم صحة الفرضيات العلمية، ما يثير المخاوف بشأن الاعتماد عليه في البحث العلمي واتخاذ القرارات المعقدة.

نتائج التجربة: دقة محدودة وتناقض متكرر

أجرى الأستاذ مسوت جيجيك وفريقه البحثي في جامعة ولاية واشنطن اختبارا على نسختي ChatGPT3.5 وChatGPT5 mini، باستخدام 719 فرضية مأخوذة من أوراق علمية منشورة في مجلات الأعمال منذ عام 2021، كل فرضية طرحت على النظام 10 مرات لقياس الثبات في الإجابات.

وبينت النتائج أن ChatGPT أظهر دقة على السطح بلغت حوالي 80٪، لكن بعد تعديل النتائج لأخذ التخمين العشوائي في الاعتبار، انخفضت فعاليته الحقيقية لتكون نحو 60٪ فقط فوق مستوى الصدفة، وهو ما يعادل تقديرا ضعيفا نسبيا.

كما واجه النظام صعوبة كبيرة في التعرف على العبارات الخاطئة، حيث صنفها بشكل صحيح بنسبة 16.4٪ فقط، وظهر تناقض ملحوظ في الإجابات، فحتى عند تكرار السؤال نفسه عشر مرات، كانت الإجابات متسقة بنسبة 73٪ فقط.

ChatGPT

وأشار جيجيك، الأستاذ المشارك في قسم التسويق والأعمال الدولية بجامعة ولاية واشنطن والمؤلف الرئيسي للدراسة، إلى أن “المشكلة ليست فقط في الدقة، بل في التناقض، إذ إذا طرحت نفس السؤال عدة مرات، تحصل على إجابات مختلفة، أحيانا يقول النظام صحيح، ثم خاطئ، وهكذا تتقلب الإجابات بين صحيحة وخاطئة”.

الطلاقة لا تعني الفهم

وسلطت الدراسة المنشورة في Rutgers Business Review الضوء على ما أطلق عليه الباحثون “فخ الطلاقة”، حيث يمكن للذكاء الاصطناعي إنتاج نصوص سلسة ومقنعة تجعل القارئ يصدقها بسهولة، رغم أن النظام لا يمتلك فهما مفاهيميا حقيقيا للعالم.

وقال جيجيك: “أدوات الذكاء الاصطناعي الحالية لا تفهم العالم كما نفهمه نحن — ليس لديها عقل، هي مجرد أنماط محفوظة مسبقا، يمكنها تقديم بعض الأفكار، لكنها لا تدرك ما تتحدث عنه”.

وبناء على النتائج، حذر الباحثون من الاعتماد على الذكاء الاصطناعي بشكل مطلق في اتخاذ القرارات العلمية أو التجارية، مؤكدين أهمية التحقق من المعلومات والتعامل مع نتائج الأنظمة الذكية بحذر. 

كما شددوا على ضرورة تدريب المستخدمين لفهم قدرات وحدود هذه الأنظمة بشكل أفضل.

وأضاف جيجيك: “كن دائما متشككا. لست ضد الذكاء الاصطناعي، فأنا أستخدمه، لكن يجب أن تكون حذرا جدا”.

شاركها.