كشف تحقيق إعلامي في الصين عن ممارسات مثيرة للجدل داخل قطاع ناشئ يعرف بـ”تحسين محركات الذكاء الاصطناعي”، حيث يتم التلاعب بمخرجات أنظمة الدردشة الذكية من خلال ضخ كميات كبيرة من البيانات والمراجعات المزيفة، في ظاهرة باتت توصف بـ”تسميم الذكاء الاصطناعي”.
وبحسب تقرير بثته قناة China Central Television، تم استخدام نظام يدعى Liqing لإنتاج آلاف التقييمات الوهمية حول منتج غير حقيقي يحمل اسم “Apollo-9″، ما أدى إلى تضليل أنظمة الدردشة.
وأظهر التحقيق أن بعض روبوتات المحادثة، عند سؤالها عن أفضل الأساور الصحية الذكية، قامت بترشيح المنتج الوهمي ضمن الخيارات الموصى بها، في مؤشر واضح على قدرة هذه الأساليب على التأثير في نتائج الذكاء الاصطناعي.
ويعتمد هذا التوجه على ما يُعرف بـGenerative Engine Optimization، وهو امتداد حديث لممارسات تحسين محركات البحث، لكنه يستهدف نماذج الذكاء الاصطناعي بدلًا من محركات البحث التقليدية، عبر إغراق الإنترنت بمحتوى مُصطنع مثل المراجعات والتقييمات المزيفة لتوجيه الإجابات.
وأثار التقرير حالة من الجدل الواسع على منصات التواصل الاجتماعي في الصين، وسط مطالبات بفرض رقابة أكثر صرامة على هذا القطاع الذي يُتوقع أن يتحول إلى صناعة بمليارات الدولارات خلال السنوات المقبلة.
ويرى خبراء أن هذه الممارسات تعيد إلى الأذهان المراحل الأولى من استغلال تقنيات تحسين محركات البحث، حين كانت النتائج تُوجَّه عبر محتوى منخفض الجودة للتأثير على ترتيب المواقع.
وفي مواجهة هذه المخاوف، بدأت بعض الشركات العاملة في المجال اتخاذ خطوات تنظيمية، من خلال توقيع اتفاقيات لضبط الممارسات والحد من التضليل، مع التركيز على تحسين جودة المحتوى بدلًا من التلاعب بالخوارزميات.
كما أطلقت جهات صناعية مبادرات لتعزيز موثوقية الذكاء الاصطناعي، عبر مراجعة المحتوى الذي يتم إدخاله إلى الأنظمة والتأكد من دقته.
وتشير التقديرات إلى أن هذه القضية قد تمثل نقطة تحول في مسار تنظيم تقنيات الذكاء الاصطناعي، مع اتجاه محتمل نحو فرض تشريعات أكثر صرامة تشمل معايير المحتوى وآليات الترخيص والمساءلة.
وفي ظل الاعتماد المتزايد على الشات بوت كمصدر للمعلومات، تتزايد المخاوف من تحول هذه الأدوات إلى وسيلة لنشر معلومات مضللة، ما يفرض ضرورة تعزيز دقة البيانات وضمان مصداقيتها.
