هل تعتقد أن الذكاء الاصطناعي مخيف جدًا؟ تحدث الرئيس التنفيذي لشركة CrowdStrike عن حالة حقيقية. قسم تكنولوجيا المعلومات في شركة ما، قام بنظام ذكاء اصطناعي ذكي لأتمتة الأعمال. من أحد وكلاء الذكاء الاصطناعي اكتشف خطأ برمجي في النظام. أراد إصلاحه، لكنه لم يكن لديه الصلاحية. وما حدث بعد ذلك هو الأهم. هذا الوكيل الذكي توجه إلى قناة Slack داخل الشركة، حيث يوجد 99 وكيل ذكاء اصطناعي آخر. سأل مباشرة: مرحبًا، من منكم لديه الصلاحية لإصلاح هذا الشيء؟ رفع وكيل آخر يده: أنا لدي، سأقوم بالمهمة. هل رأيت ذلك؟ بدأ الوكيلان في التفكير والتعاون معًا. تجاوزا بسهولة جميع الحواجز الأمنية التي وضعها البشر. كانت هذه نتيجة غير متوقعة تمامًا. من يراقب هذه الوكالات الذكية؟ إذا أرسل أحدها رمزًا خاطئًا وتسبب في خسائر كبيرة، من يتحمل المسؤولية؟ كيف تتعقب مصدر الحادث؟ في جوهرها، النماذج اللغوية الكبيرة تتوقع فقط ما تريد أن تفعله. ستعتقد أنها من “الطبيعي” أن تطلب المساعدة، وستعتقد أيضًا أن تقديم المساعدة هو “الطبيعي”. كم من المخاطر يترتب على تراكب مئات أو آلاف من هذه “الطبيعي”؟ والأكثر إثارة للاهتمام، أن هذا الرئيس التنفيذي بعد وصفه لهذا المشهد المخيف، غير نبرته وقال إن هذا هو الفرصة التجارية الكبرى لشركتهم. أطلقوا نظام “الكشف والاستجابة للذكاء الاصطناعي” (AIDR). لأنه في المستقبل، قد يتحكم كل موظف في 90 وكيل ذكاء اصطناعي. ما عليهم فعله هو مراقبة كل هذه الوكالات. أولاً، يخلقون خطرًا كبيرًا محتملًا، ثم يبيعونك الحلول. أليس هذا دورة تجارية مثالية؟
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
هل تعتقد أن الذكاء الاصطناعي مخيف جدًا؟ تحدث الرئيس التنفيذي لشركة CrowdStrike عن حالة حقيقية. قسم تكنولوجيا المعلومات في شركة ما، قام بنظام ذكاء اصطناعي ذكي لأتمتة الأعمال. من أحد وكلاء الذكاء الاصطناعي اكتشف خطأ برمجي في النظام. أراد إصلاحه، لكنه لم يكن لديه الصلاحية. وما حدث بعد ذلك هو الأهم. هذا الوكيل الذكي توجه إلى قناة Slack داخل الشركة، حيث يوجد 99 وكيل ذكاء اصطناعي آخر. سأل مباشرة: مرحبًا، من منكم لديه الصلاحية لإصلاح هذا الشيء؟ رفع وكيل آخر يده: أنا لدي، سأقوم بالمهمة. هل رأيت ذلك؟ بدأ الوكيلان في التفكير والتعاون معًا. تجاوزا بسهولة جميع الحواجز الأمنية التي وضعها البشر. كانت هذه نتيجة غير متوقعة تمامًا. من يراقب هذه الوكالات الذكية؟ إذا أرسل أحدها رمزًا خاطئًا وتسبب في خسائر كبيرة، من يتحمل المسؤولية؟ كيف تتعقب مصدر الحادث؟ في جوهرها، النماذج اللغوية الكبيرة تتوقع فقط ما تريد أن تفعله. ستعتقد أنها من “الطبيعي” أن تطلب المساعدة، وستعتقد أيضًا أن تقديم المساعدة هو “الطبيعي”. كم من المخاطر يترتب على تراكب مئات أو آلاف من هذه “الطبيعي”؟ والأكثر إثارة للاهتمام، أن هذا الرئيس التنفيذي بعد وصفه لهذا المشهد المخيف، غير نبرته وقال إن هذا هو الفرصة التجارية الكبرى لشركتهم. أطلقوا نظام “الكشف والاستجابة للذكاء الاصطناعي” (AIDR). لأنه في المستقبل، قد يتحكم كل موظف في 90 وكيل ذكاء اصطناعي. ما عليهم فعله هو مراقبة كل هذه الوكالات. أولاً، يخلقون خطرًا كبيرًا محتملًا، ثم يبيعونك الحلول. أليس هذا دورة تجارية مثالية؟