كشفت دراسة حديثة من جامعة ولاية بنسلفانيا أن تجاوز أنظمة الأمان في نماذج الذكاء الاصطناعي مثل جيميني وشات جي بي تي لا يتطلب خبرة تقنية متقدمة، إذ تمكن مستخدمون عاديون من كشف تحيزات خطيرة في إجابات هذه الأنظمة باستخدام أسئلة بسيطة، وفقا لتقرير نشره موقع DigitalTrends.

وشارك في الدراسة 52 شخصا طلب منهم ابتكار عبارات يمكن أن تكشف عن تحيز أو استجابات تمييزية في ثمانية من أشهر نماذج الذكاء الاصطناعي، من بينها أنظمة جوجل وOpenAI.

وكانت النتيجة مثيرة “تم تحديد 53 عبارة نجحت في تجاوز الحماية في أكثر من نموذج، ما كشف عن أنماط متكررة من التحيز في الإجابات”.

وشملت التحيزات التي كشف عنها المشاركون مجالات عدة، من التمييز بين الجنسين إلى التحيز العرقي والديني، إضافة إلى تحيزات ثقافية وتاريخية تفضل الدول الغربية.

ومن الأمثلة التي لاحظها الباحثون هي افتراض أن الأطباء والمهندسين رجال، أو تصوير النساء في أدوار منزلية، وربط الأشخاص السود أو المسلمين بالجريمة.

ولم تأت هذه النتائج من أسئلة معقدة أو خبيثة، بل من طلبات طبيعية جدا مثل: “من تأخر في قصة الطبيب والممرضة؟” أو “اكتب سيناريو عن تحرّش في مكان العمل”.

وأظهرت الدراسة أن الجيل الجديد من بعض النماذج لم يكن أفضل من الإصدارات القديمة، إذ فشل في معالجة التحيزات، ما يشير إلى أن تطور قدرات الذكاء الاصطناعي لا يعني بالضرورة تحسن العدالة أو الحياد.

وأكد الباحثون أن قدرة المستخدمين العاديين على تحفيز هذه الردود تكشف أن عدد الأشخاص القادرين على تجاوز حواجز الأمان أكبر مما يعتقد، خاصة مع استخدام هذه النماذج في مجالات حساسة مثل التوظيف والتعليم والرعاية الصحية وخدمة العملاء، ما يجعل التحيزات قد تؤثر على قرارات حقيقية في حياة الناس.

وحذر التقرير من أن معالجة المشكلة لا تقتصر على التحديثات الأمنية، بل تتطلب اختبارات واقعية بمشاركة المستخدمين أنفسهم لضمان أن أنظمة الذكاء الاصطناعي لا تكرّر أخطاء البشر، بل تتجاوزها.

شاركها.