كتب : محمود الهواري
01:40 م
28/10/2025
أظهرت دراسة حديثة أن استخدام نبرة وقحة أو مهينة عند توجيه أسئلة لنماذج لغوية متقدمة قد يؤدي إلى تحسن طفيف في دقة الإجابات، وهو نتيجة تتناقض مع بعض الأبحاث السابقة التي تؤكد فائدة الأدب واللباقة في التعامل مع أنظمة الذكاء الاصطناعي.
ونشرت الورقة البحثية على قاعدة بيانات arXiv في 6 أكتوبر ولم تمر بعد بمراجعة الأقران، حيث اختبر الباحثون تأثير نبرة المستخدم على أداء نموذج ChatGPT-4o عبر مجموعة من الأسئلة بصيغة اختيار من متعدد.
وطور الفريق أولا 50 سؤالا أساسيا في مجالات مثل الرياضيات والتاريخ والعلوم، ثم أعد كل سؤال بخمسة صيغ مختلفة في النبرة “مهذب جدا، مهذب، محايد، وقح، وقح جدا”، لتصبح مجموعة الاختبارات 250 سؤالا. وقدموا كل صيغة عشر مرات للنموذج.
وتجنب الباحثون تأثير السياق السابق عبر مطالبة النموذج بتجاهل التبادلات السابقة قبل كل إجابة، وطلبوا منه اختيار إحدى الخيارات الأربعة مباشرةً.
وأظهرت النتائج فروقا ملموسة بحسب النبرة، إذ تراوحت الدقة من 80.8% في إعداد “مهذب جدا” إلى 84.8% في إعداد “وقح جدا”.
وبدت الدقة أنها تزداد تدريجيا مع كل خطوة مبتعدة عن النبرة المهذبة مهذب 81.4% — محايد 82.2% — وقح 82.8% — ثم وقح جدا 84.8%.
رغم هذه النتائج الأولية، حذر الباحثون من أضرار تبني لغة مهينة في واجهات المستخدم الواقعية، مشيرين إلى أن ذلك قد يضر بتجربة المستخدم ويقوض الشمولية وإمكانية الوصول، كما قد يرسخ معايير تواصل ضارة. ووصفوا نتائجهم كدليل على حساسية نماذج الذكاء الاصطناعي للإشارات السطحية المباشرة في صياغة التعليمات، مما قد يولد اختلالات غير مقصودة بين الأداء ورفاهية المستخدم.
وأقر الفريق بحدود واضحة للدراسة: حجم العينة “250 سؤالا” محدود نسبيا، والتجربة أجريت على نموذج واحد (ChatGPT-4o)، ما يمنع تعميم النتائج على نماذج أو سياقات أخرى، بينما أن الاعتماد على أسئلة اختيار من متعدد يقيس بعدا واحدا من الأداء، ولا يعكس سمات نوعية مثل السلاسة والمنطق والترابط.
يخطط الباحثون لتوسيع التجارب لتشمل نماذج إضافية مثل Claude من Anthropic ونماذج أخرى من OpenAI، بالإضافة إلى تنويع مهام التقييم لتشمل مقاييس أوسع لأداء النموذج.
