أثار سام ألتمان، الرئيس التنفيذي لشركة OpenAI، موجة من الجدل بعد إعلانه أن الشركة ستسمح بتداول المحتوى الناضج عبر تطبيق ChatGPT للمستخدمين الذين يتم التحقق من أعمارهم، ابتداء من ديسمبر المقبل.
ويأتي القرار في وقت تتزايد فيه التساؤلات حول حدود الذكاء الاصطناعي ومدى التزامه بالمعايير الأخلاقية، خاصة مع الانتشار الواسع للتطبيق الذي يستخدمه ملايين الأشخاص يوميا حول العالم.
توسيع سياسات التحقق العمري
وقال ألتمان في منشور عبر منصة X “تويتر سابقا”، إن الشركة ستبدأ في تطبيق سياسة تحقق عمرية أكثر شمولًا، مضيفا: “كجزء من مبدأ معاملة المستخدمين البالغين كبالغين، سنسمح بالمزيد من المحتوى، مثل المواد الموجهة للبالغين الذين تم التحقق من هويتهم.”
وأوضح أن هذه الخطوة تأتي بعد مراجعة للقيود المفروضة سابقا على روبوت المحادثة، والتي كانت تقلل من حرية استخدامه في بعض المجالات بهدف الحفاظ على الصحة النفسية للمستخدمين.
تعامل أكثر مرونة مع القضايا النفسية
ووفقا لما نقلته وكالة رويترز، أشار ألتمان إلى أن ChatGPT كان في السابق “مقيدا إلى حد ما” لضمان الحذر في التعامل مع القضايا النفسية الحساسة، موضحا أن هذا النهج جعل التجربة “أقل متعة وفائدة للعديد من المستخدمين الذين لا يعانون من مشكلات نفسية”.
وأكد أن الشركة نجحت في تطوير أدوات جديدة تتيح التخفيف من هذه القيود تدريجيا، مع ضمان الحفاظ على السلامة النفسية للمستخدمين في معظم الحالات.
ميزات جديدة للتحكم في شخصية الدردشة
وكشف ألتمان عن أن OpenAI ستطلق خلال الأسابيع المقبلة إصدارا جديدا من ChatGPT يمنح المستخدمين حرية أكبر في التحكم بنبرة الحوار وشخصية الروبوت.
وقال: “إذا أراد المستخدم أن يتحدث ChatGPT بطريقة بشرية جدا، أو يستخدم عددا كبيرا من الرموز التعبيرية، أو يتصرف كصديق، فسيكون بإمكانه ذلك ولكن فقط إذا اختار المستخدم هذا النمط بنفسه.”
وفي سياق متصل، أعلنت شركة ميتا، المالكة لتطبيقي فيسبوك وإنستجرام، عن إطلاق نظام جديد لتصفية المحتوى الموجه للمراهقين دون سن 18 عاما، مستوحى من تصنيفات الأفلام PG-13.
ويهدف النظام إلى تحديد نوعية المحتوى الذي يمكن للمستخدمين الصغار مشاهدته على المنصات التابعة لها، بما في ذلك أدوات الذكاء الاصطناعي التوليدية.
