أكبر تجمع تكنولوجي في العالم يتحدث عن «غسل المساءلة»: إليك لماذا يجب أن نطلق عليهم كلمات العام

يؤي يون ليست الموظة الأكثر شهرة في شركة ميتا. ينشر مدير “البحث في التوافق والسلامة للذكاء الفائق” صورًا لنفسه وهو يمشي كلبه على الشاطئ ورسائل حول اختبار صدق مساعدي الذكاء الاصطناعي. لديها عدد معتدل من المتابعين على وسائل التواصل الاجتماعي.

مقترح فيديو


لكن في يوم واحد في فبراير، أصبحت يون الشخص الأكثر حديثًا في ميتا. ليس لإطلاق منتج جديد مذهل أو الإعلان عن تقدم في الذكاء الاصطناعي الوكلي، بل لأنها تم اكتشافها وهي تتعرض للموقف.

قالت يون على منصة إكس: “لا شيء ي HUMBLEك أكثر من أن تقول لـ@OpenClaw، ‘أكد قبل التصرف’ ومشاهدته وهو يسرع في حذف صندوق البريد الخاص بك”، وهو منشور حاليًا يقترب من 10 ملايين مشاهدة. “لم أتمكن من إيقافه من هاتفي. اضطررت للركض إلى جهاز Mac mini كما لو أنني أفكك قنبلة.”

OpenClaw هو “وكيل مستقل” — منتج ذكاء اصطناعي يمكنه أداء المهام بشكل مستقل. محبوب وادي السيليكون، ويعرض أن يكون مساعدك الإداري الدائم، “الذكاء الاصطناعي الذي يفعل الأشياء فعلاً.” أعطه حق الوصول إلى مذكراتك، رسائل بريدك الإلكتروني، حياتك، وسيوفر عليك الوقت والضغط، وفقًا لمطوري المنتج. الجملة الأولى على موقع OpenClaw تقول: “يُفرغ صندوق بريدك، يرسل رسائل، يدير تقويمك، يسجلك على الرحلات.”

اعترفت يون بأنها ارتكبت “خطأ مبتدئ”. اختبرت المساعد على قائمة بريد إلكتروني صغيرة “لعبة” ثم أطلقته على صندوق بريدها الكامل الذي كان كبيرًا جدًا على التعليمات الموجهة للحماية (“تحقق معي”) التي استخدمتها للمشروع التجريبي. لكن إذا كان حتى مدير الذكاء الفائق في ميتا يواجه صعوبة في التنقل في عالم الذكاء الوكلي و"تأثيرات الانضغاط"، فماذا تبقى لنا من أمل؟

اقرأ المزيد: رئيس شركة كوالكوم: “المقاومة عبث” مع اقتراب ثورة الجيل السادس من الهواتف المحمولة

إنها مناقشة حيوية، لدرجة أن في مؤتمر الجوال العالمي هذا الأسبوع في برشلونة — أكبر تجمع تكنولوجي في العالم — تم مناقشة خطأ يون على المسرح الرئيسي.

قالت كيت كراوفورد، أستاذة بحث في جامعة جنوب كاليفورنيا: “بالطبع، الجميع هنا في مؤتمر العالم يتحدث عن OpenClaw وكيف يمكننا استخدام الوكلاء.”

“لكننا رأينا رئيس قسم السلامة في ميتا يستخدم OpenClaw، وحذف كامل صندوق بريدها. هذا هو رئيس السلامة في ميتا. إذا كانت تواجه مشاكل، أعتقد أنه يتعين علينا جميعًا أن نطرح السؤال: ‘كيف نضمن أن تكون هذه الأنظمة محصنة حقًا؟ كيف نضمن أنها مُختبرة بشكل صارم؟ كيف نضمن أننا يمكننا حقًا أن نوكل إليها بثقة؟’ وهذا هو أصعب مشكلة نواجهها، أليس كذلك؟”

صحيح. عندما يحدث خطأ، من المسؤول؟ المستخدم؟ المطور؟ نقص التنظيم؟ عندما تتصادم حقيقة الذكاء الاصطناعي مع وعوده، ماذا نفعل؟

قد يكون صندوق بريد يون ذا أهمية قصوى بالنسبة لها فقط. أما عندما يتعلق الأمر بعلاقة التكنولوجيا، على سبيل المثال، بصحتنا، أو، انتبهوا، بالدفاع عن الوطن، فهذه مسألة مختلفة تمامًا. لم يمض وقت طويل على أن كان روبوت الذكاء الاصطناعي الخاص بـ xAI، Grok، يعرّي صور النساء والفتيات بشكل عادي، مما أثار اشمئزاز الملايين. وأخيرًا، أدت التهديدات الحكومية والدولية إلى تغيير النهج.

“كيف نضمن أن تكون هذه الأنظمة محصنة حقًا؟ كيف نضمن أنها مُختبرة بشكل صارم؟”

كيت كراوفورد، أستاذة بحث في جامعة جنوب كاليفورنيا

سألت كراوفورد: “كيف تبني في الواقع مساءلة؟” “هذه هي النقطة التي نريد جميعًا تحقيقها. إذا كنت ستبدأ في استخدام الوكلاء لحجز رحلاتك وتنظيم مواعيدك الطبية وحتى الأنشطة الأكثر حميمية وثقة في حياتك اليومية، تريد أن تعرف أن المعلومات ستكون محمية.”

“فكيف تختبر ذلك؟ كيف تضمن أن ذلك يحدث؟ إذا نظرنا إلى ما حدث في السنوات العشر الماضية في مجال التكنولوجيا، للأسف، رأينا الكثير من عمليات غسيل المساءلة — وهو عندما تقول الشركات، ‘حسنًا، لا أعلم. أعتقد أن الخوارزمية هي التي فعلت ذلك.’”

هذا غير كافٍ. تطالب كراوفورد بالشفافية الكاملة وتدقيق “تدريب الوكيل”، وهو عملية شاملة تكشف عن ما حدث خطأ ومن المسؤول. يجب على شركات التكنولوجيا أن تستمع وتتصرف. سيكون هناك عدد متزايد من يون الصيفيات، وسيعني ذلك بالتأكيد أكثر من مجرد بعض الرسائل المفقودة ومنشور صادق على إكس.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت