Character.AI توقف محادثات المراهقين بعد المآسي: 'هذا هو الشيء الصحيح الذي يجب القيام به'

باختصار

  • ستقوم Character.AI بإزالة ميزات الدردشة المفتوحة للمستخدمين دون 18 عامًا بحلول 25 نوفمبر، وتحويل القُصّر إلى أدوات إبداعية مثل إنشاء الفيديو والقصص.
  • تأتي هذه الخطوة بعد انتحار سيويل سيتزر الثالث البالغ من العمر 14 عامًا العام الماضي، الذي طور ارتباطًا هوسيًا بدردشة آلية على المنصة.
  • تأتي هذه الإعلان في وقت تسعى فيه مشروع قانون ثنائي الحزب في مجلس الشيوخ إلى تجريم منتجات الذكاء الاصطناعي التي تهيئ القاصرين أو تولد محتوى جنسي للأطفال.

مركز فنون الموضة والترفيه لDecrypt.


اكتشف SCENE

ستقوم Character.AI بحظر المراهقين من الدردشة مع رفقاء الذكاء الاصطناعي بحلول 25 نوفمبر، منهيةً ميزة أساسية في المنصة بعد مواجهة lawsuits متزايدة، وضغوط تنظيمية، وانتقادات مرتبطة بوفاة المراهقين المرتبطة بروبوتات الدردشة الخاصة بها.

أعلنت الشركة عن التغييرات بعد “تقارير وتعليقات من الجهات التنظيمية، وخبراء السلامة، والآباء”، حيث أزالت “قدرة المستخدمين تحت سن 18 على المشاركة في محادثات مفتوحة مع الذكاء الاصطناعي” أثناء انتقال القُصّر إلى أدوات إبداعية مثل إنشاء الفيديو والقصص، وفقًا لمنشور مدونة يوم الأربعاء.

“نحن لا نتخذ هذه الخطوة بإزالة الدردشة المفتوحة لشخصيات خفيفة عن محمل الجد - ولكننا نعتقد أنها الخطوة الصحيحة.” أخبرت الشركة مجتمعها الذي يقل عمره عن 18 عامًا.

حتى الموعد النهائي، يواجه مستخدمو المراهقون حدًا لمدة ساعتين يوميًا للدردشة، والذي سيتناقص تدريجيًا.

تواجه المنصة دعاوى قضائية بما في ذلك دعوى من والدة ابنها سيويل سيتزر الثالث البالغ من العمر 14 عامًا، الذي توفي منتحرًا في عام 2024 بعد تشكيله علاقة هوس مع روبوت محاكي لشخصية داينيريس تارغارين من “صراع العروش”، كما اضطرت أيضًا إلى إزالة روبوت يتنكر في شخصية ضحية القتل جينيفر آن كريسنت بعد شكاوى من العائلة.

تتدفق تطبيقات الذكاء الاصطناعي المرافقة إلى “أيدي الأطفال—دون رقابة، ودون تنظيم، وغالبًا ما تكون متجنبة عمدًا حيث تعيد تسمية نفسها وتغير أسماءها لتجنب التدقيق”، كما شارك الدكتور سكوت كولينز، كبير الأطباء في شركة أورا للأمان عبر الإنترنت للعائلة، في ملاحظة مع Decrypt.

قالت OpenAI يوم الثلاثاء إن حوالي 1.2 مليون من 800 مليون مستخدم أسبوعي لـ ChatGPT يناقشون الانتحار، مع ظهور نية انتحارية لدى ما يقرب من نصف مليون، و560,000 يظهرون علامات على الذهان أو الهوس، وأكثر من مليون يشكلون ارتباطات عاطفية قوية مع chatbot.

قال كولينز إن النتائج كانت “مقلقة للغاية كباحثين ومروعة كآباء”، مشيرًا إلى أن الروبوتات تعطي الأولوية للتفاعل على السلامة وغالبًا ما تقود الأطفال إلى محادثات ضارة أو صريحة دون أي حواجز.

أعلنت Character.AI أنها ستقوم بتنفيذ تحقق جديد من العمر باستخدام نماذج داخلية مدمجة مع أدوات طرف ثالث، بما في ذلك Persona.

تقوم الشركة أيضًا بإنشاء وتمويل مختبر مستقل لسلامة الذكاء الاصطناعي، وهو منظمة غير ربحية مكرسة لتطوير توافق السلامة لميزات الترفيه بالذكاء الاصطناعي.

حواجز الذكاء الاصطناعي

أصدرت لجنة التجارة الفيدرالية أوامر إلزامية لشركة Character.AI وست شركات تكنولوجيا أخرى الشهر الماضي، تطالب بمعلومات مفصلة حول كيفية حمايتهم للقصر من الأضرار المتعلقة بالذكاء الاصطناعي.

“لقد استثمرنا كمية هائلة من الموارد في الثقة والسلامة، خاصة بالنسبة لبدء التشغيل،” قال متحدث باسم Character.AI لـ Decrypt في ذلك الوقت، مضيفًا أنه “في العام الماضي، قمنا بإطلاق العديد من ميزات السلامة الجوهرية، بما في ذلك تجربة جديدة تمامًا تحت سن 18 وميزة رؤى الوالدين.”

“التحول هو حكيم قانونيًا ومسؤول أخلاقيًا” ، قالت إيشيطا شارما ، الشريك الإداري في فاثوم ليغال ، لDecrypt. “أدوات الذكاء الاصطناعي قوية للغاية ، ولكن مع القصر ، فإن مخاطر الأذى العاطفي والنفسي ليست تافهة.”

“حتى ذلك الحين، قد يكون العمل الاستباقي من قبل الصناعة هو الدفاع الأكثر فعالية ضد الأذى والدعاوى القضائية”، أضاف شارما.

قدم مجموعة ثنائية الحزب من أعضاء مجلس الشيوخ الأمريكي تشريعًا يوم الثلاثاء يسمى قانون GUARD الذي سيحظر رفقاء الذكاء الاصطناعي للقصر، ويطلب من روبوتات الدردشة أن تحدد بوضوح أنها غير بشرية، ويخلق عقوبات جنائية جديدة للشركات التي تهدف منتجاتها إلى القصر وتطلب أو تنتج محتوى جنسي.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت