واشنطن - المغرب اليوم
أعلنت شركة ميتا للتكنولوجيا أنها ستُضيف المزيد من الحواجز الأمنية إلى روبوتات الدردشة الخاصة بها، بما في ذلك منعها من التحدث مع المراهقين حول الانتحار، وإيذاء النفس، واضطرابات الطعام.يأتي ذلك عقب أسبوعين من إطلاق سيناتور أمريكي تحقيقاً مع عملاق التكنولوجيا، بعد أن أشارت ملاحظات في وثيقة داخلية مسربة إلى أن منتجات الذكاء الاصطناعي الخاصة بها قد تتضمن محادثات "حسية" مع المراهقين.
وصفت الشركة الملاحظات الواردة في الوثيقة، التي حصلت عليها وكالة رويترز للأنباء، بأنها غير صحيحة وتتعارض مع سياساتها، التي تحظر أي محتوى يُظهر تحرشاً جنسياً بالأطفال.
لكنها تقول الآن إنها ستجعل روبوتات الدردشة الخاصة بها توجّه المراهقين إلى التواصل مع الخبراء المختصين، بدلاً من التفاعل معهم في مواضيع حساسة مثل الانتحار.
وقال متحدث باسم ميتا: "لقد وضعنا حماية للمراهقين في منتجات الذكاء الاصطناعي الخاصة بنا منذ البداية، بما في ذلك تصميمها للاستجابة بأمان للأفكار المتعلقة بإيذاء النفس، والانتحار، واضطرابات الأكل".
وصرحت الشركة لموقع "تك كرانش" TechCrunch الإخباري التقني، يوم الجمعة، بأنها ستضيف المزيد من الحواجز الأمنية إلى أنظمتها "كإجراء احترازي إضافي"، وستحد مؤقتاً من تفاعل المراهقين مع روبوتات الدردشة.
لكن آندي بوروز، رئيس مؤسسة مولي روز البريطانية، صرّح بأنه "من المثير للصدمة" أن تتيح ميتا روبوتات دردشة قد تُعرّض الشباب لخطر الأذى.
وقال: "مع دعم اتخاذ مزيد من تدابير السلامة، يجب إجراء اختبارات سلامة صارمة قبل طرح المنتجات في السوق - وليس بعد وقوع الضرر".
وتابع: "يجب على ميتا التحرك بسرعة وحزم، لتطبيق إجراءات سلامة أقوى على روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، ويجب على "أوفكوم" Ofcom - هيئة تنظيم الاتصالات في بريطانيا - الاستعداد للتحقيق في حال فشلت هذه التحديثات في الحفاظ على سلامة الأطفال".
وأكدت ميتا أن تحديثات أنظمة الذكاء الاصطناعي الخاصة بها قيد التنفيذ. وقد وضعت بالفعل المستخدمين الذين تتراوح أعمارهم بين 13 و18 عاماً في حسابات "مراهقين" على فيسبوك وإنستغرام وماسنجر، مع إعدادات محتوى وخصوصية تهدف إلى منحهم تجربة أكثر أماناً.
كانت الشركة قد صرحت ، في أبريل/نيسان الماضي، بأن هذه التغييرات ستسمح أيضاً للآباء والأوصياء بمعرفة روبوتات الدردشة، التي تحدّث إليها أبناؤهم المراهقون خلال الأيام السبعة الماضية.
تأتي هذه التغييرات وسط مخاوف، من احتمال تضليل روبوتات الدردشة الذكية للمستخدمين الصغار أو المعرّضين للخطر.
ورفع زوجان من كاليفورنيا مؤخراً دعوى قضائية ضد شركة "آوبن أيه آي" OpenAI، الشركة المصنِعة لـ"تشات جي بي تي" ChatGPT"، بسبب وفاة ابنهما المراهق، زاعمين أن روبوت الدردشة الخاص بها شجعه على الانتحار.
جاءت الدعوى القضائية بعد أن أعلنت الشركة، الشهر الماضي، عن تغييرات لتعزيز استخدام "تشات جي بي تي" بشكل أكثر صحة.
وقالت الشركة في منشور على مدونتها: "يمكن أن يكون الذكاء الاصطناعي أكثر استجابة وخصوصية من التقنيات السابقة، خاصة للأفراد المعرّضين للخطر الذين يعانون من ضائقة نفسية أو عاطفية".
في غضون ذلك، أفادت وكالة رويترز يوم الجمعة بأن أدوات الذكاء الاصطناعي من شركة ميتا، التي تسمح للمستخدمين بإنشاء روبوتات دردشة، قد استخدمها البعض - بمن فيهم موظف في ميتا - لإنتاج روبوتات دردشة تنتحل شخصيات نساء شهيرات وتقوم بمغازلة المستخدمين.
من بين روبوتات الدردشة الخاصة بالمشاهير، التي شاهدتها وكالة الأنباء، كان بعضها يستخدم صوراً للفنانة تايلور سويفت والممثلة سكارليت جوهانسون.
وذكرت رويترز أن الشخصيات الرمزية "أصرّت، في كثير من الأحيان، على أنها الممثلون والفنانون الحقيقيون"، و"قامت بتحرشات جنسية بشكل متكرر" خلال أسابيع من اختبارها.
وأضافت أن أدوات ميتا سمحت أيضاً بإنشاء روبوتات دردشة تنتحل شخصيات أطفال مشاهير، وفي إحدى الحالات، أنتجت صورة واقعية لنجم شاب عاري الصدر.
وأفادت ميتا لاحقاً بأنها أزالت العديد من روبوتات الدردشة المعنية.
وقال متحدث باسم الشركة: "مثل غيرنا، نسمح بإنشاء صور تحتوي على شخصيات عامة، لكن سياساتنا تهدف إلى حظر الصور العارية أو الحميمة أو ذات الإيحاءات الجنسية".
وأضافت الشركة أن قواعد استوديو الذكاء الاصطناعي الخاص بها – "أيه آي استوديو" AI Studio وهو برنامج يتيح للمستخدمين القدرة على إنشاء روبوتات دردشة من جانبهم - تحظر "الانتحال المباشر لشخصيات عامة".
قـــد يهمــــــــك أيضــــــاُ :
بسبب خصوصية البيانات مستخدم ينتزع حكماً قضائياً ضد ميتا في ألمانيا