مصدر الصورة: تم إنشاؤه بواسطة الذكاء الاصطناعي غير محدود
في فيلم الخيال العلمي القادم في هوليوود "مؤسس الذكاء الاصطناعي" ، يفجر الذكاء الاصطناعي الذي كان من المفترض أن يخدم البشرية قنبلة نووية في لوس أنجلوس.
ما هو أكثر خيالا علميا من الفيلم هو أنه في الواقع ، بدأت الشركات الذكاء الاصطناعي تقلق من أن مثل هذه السيناريوهات ستظهر بالفعل في العالم الحقيقي.
** في الآونة الأخيرة ، قالت OpenAI أنه من منطلق القلق على أمن أنظمة الذكاء الاصطناعي ، تقوم الشركة بإنشاء فريق متخصص للتعامل مع "المخاطر الكارثية" التي قد تواجهها الذكاء الاصطناعي المتطورة ، بما في ذلك التهديدات النووية. **
في الواقع، كان الرئيس التنفيذي سام ألتمان قلقا منذ فترة طويلة بشأن تهديد "الانقراض" الذي تشكله الذكاء الاصطناعي على البشرية، ودعا سابقا إلى تنظيم أكبر الذكاء الاصطناعي في عدة مناسبات، بما في ذلك بالتشاور مع الكونجرس الأمريكي. ومع ذلك ، فإن مجموعة من العلماء ، بما في ذلك عالم Meta Yann LeCun ، لديهم وجهة نظر مختلفة عن التنظيم الذكاء الاصطناعي ، بحجة أن القدرات الذكاء الاصطناعي لا تزال محدودة وأن التنظيم السابق لأوانه لن يفيد الشركات الكبيرة فحسب ، بل يخنق الابتكار أيضا.
وهذا يسلط الضوء على استمرار الخلاف في الصناعة حول تنظيم الذكاء الاصطناعي المتطورة. قد يؤدي التنظيم السابق لأوانه إلى تقييد تطوير التكنولوجيا ، لكن الافتقار إلى التنظيم سيجعل من الصعب معالجة المخاطر. لا تزال كيفية تحقيق التوازن بين التكنولوجيا والوقاية والتنظيم ، بحيث يمكن تطوير الذكاء الاصطناعي بكفاءة وأمان ، مشكلة صعبة في الصناعة.
**01 الذكاء الاصطناعي أو الحدود أو الخطر **
في الآونة الأخيرة ، قالت OpenAI في تحديث أنه من منطلق القلق على أمن أنظمة الذكاء الاصطناعي ، تقوم الشركة بتشكيل فريق جديد "الاستعداد" لتتبع وتقييم والتنبؤ بتطوير "النماذج المتطورة" ** لمنع ما يسمى ب "المخاطر الكارثية" ، بما في ذلك قضايا الأمن السيبراني والتهديدات الكيميائية والنووية والبيولوجية. **
مصدر الصورة: الموقع الرسمي ل OpenAI
سيقود الفريق ألكسندر مادري ، الذي هو حاليا مقيد كمدير لمركز التعلم الآلي القابل للنشر في معهد ماساتشوستس للتكنولوجيا.
بالإضافة إلى ذلك ، تم تكليف الفريق بتطوير والحفاظ على "سياسة تطوير مستنيرة بالمخاطر" والتي ستوضح بالتفصيل نهج OpenAI لبناء أدوات تقييم ومراقبة نموذج الذكاء الاصطناعي ، وإجراءات الشركة لتخفيف المخاطر ، وهيكل الحوكمة الذي يشرف على عملية تطوير النموذج بأكملها. تهدف هذه السياسة إلى استكمال عمل OpenAI في مجال أمن الذكاء الاصطناعي والحفاظ على الأمان والاتساق قبل النشر وبعده.
تقترح OpenAI أن إدارة المخاطر الكارثية المحتملة لنماذج الذكاء الاصطناعي المتطورة تتطلب الإجابة على الأسئلة الرئيسية التالية:
ما مدى خطورة إساءة استخدام نموذج الذكاء الاصطناعي المتطور؟ **
كيف يمكن إنشاء إطار قوي لرصد وتقييم والتنبؤ ومنع مخاطر نماذج الذكاء الاصطناعي المتطورة؟ **
إذا تم اختراق نماذج الذكاء الاصطناعي المتطورة ، فكيف يمكن للجهات الفاعلة الخبيثة استغلالها؟ **
في التحديث ، كتب OpenAI: "نعتقد ... نماذج الذكاء الاصطناعي المتطورة التي ستتجاوز النماذج الحديثة الحالية لديها القدرة على إفادة البشرية جمعاء ... لكنها تشكل أيضا مخاطر خطيرة بشكل متزايد".
** في الآونة الأخيرة ، أكدت OpenAI باستمرار على أمن الذكاء الاصطناعي ونفذت سلسلة من الإجراءات على مستوى الشركات ومستوى الرأي العام وحتى المستوى السياسي. **
في وقت سابق ، في 7 يوليو ، أعلنت OpenAI عن تشكيل فريق جديد لاستكشاف طرق لتوجيه ومراقبة "الذكاء الاصطناعي الفائق" ، بقيادة المؤسس المشارك وكبير العلماء في OpenAI Ilya Sutskever ورئيس Alignment Jan Leike.
توقع سوتسكيفر ولايك أن الذكاء الاصطناعي يتجاوز الذكاء البشري سيظهر في غضون 10 سنوات ، قائلين إن مثل هذه الذكاء الاصطناعي ليست جيدة بالضرورة ، لذلك من الضروري دراسة طرق السيطرة عليها والحد منها.
وفقا للتقارير في ذلك الوقت ، تم إعطاء الفريق أولوية قصوى ودعمه بنسبة 20٪ من موارد الحوسبة للشركة ، وكان هدفهم هو حل التحديات التقنية الأساسية للتحكم في "الذكاء الاصطناعي الفائقة" في غضون السنوات الأربع المقبلة.
تزامنا مع إطلاق فريق "Ready" ، عقدت Open الذكاء الاصطناعي أيضا تحديا للغرباء للتوصل إلى أفكار حول كيفية إساءة استخدام الذكاء الاصطناعي والتسبب في ضرر في العالم الحقيقي ، وسيحصل أفضل 10 مقدمين على جائزة قدرها 25000 دولار ووظيفة "جاهزة".
**02 القلق بشأن "الذكاء الاصطناعي قد يؤدي إلى انقراض الإنسان" **
كان الرئيس التنفيذي لشركة OpenAI سام ألتمان قلقا من أن الذكاء الاصطناعي يمكن أن يؤدي إلى انقراض البشرية.
في جلسة استماع للكونغرس تحت عنوان الذكاء الاصطناعي في مايو ، قال ألتمان إن الذكاء الاصطناعي يحتاج إلى تنظيم ، وأنه بدون معايير تنظيمية صارمة ل الذكاء الاصطناعي الفائقة ، سيكون هناك المزيد من المخاطر في السنوات ال 20 المقبلة.
في نهاية شهر مايو، وقع ألتمان بيانا موجزا مع الرؤساء التنفيذيين لشركة DeepMind و Anthropic التابعة لشركة Google وعدد من الباحثين البارزين في الذكاء الاصطناعي، مشيرا إلى أن "التخفيف من خطر الانقراض الناجم عن الذكاء الاصطناعي يجب أن يكون أحد الأولويات العالمية، كما هو الحال مع الأوبئة والحرب النووية".
في قمة سان فرانسيسكو للتكنولوجيا في يونيو ، ذكر سام ألتمان أنه "لا يجب أن تثق في شركة ، وبالتأكيد ليس شخصا واحدا" عندما يتعلق الأمر بتكنولوجيا الذكاء الاصطناعي ، بحجة أن التكنولوجيا نفسها ، وفوائدها ، ووصولها ، وحوكمتها ، تنتمي إلى البشرية جمعاء.
ومع ذلك ، هناك أيضا أولئك (الذين يمثلهم Elon Musk) الذين يتهمون Altman ب "الدعوة إلى التنظيم" فقط لحماية قيادة OpenAI. أجاب سام ألتمان في ذلك الوقت ، "نعتقد أنه يجب أن يكون هناك المزيد من التنظيم للشركات الكبيرة ونماذج الملكية التي تتجاوز عتبة قدرة عالية معينة ، وتنظيم أقل للشركات الناشئة الأصغر ونماذج المصادر المفتوحة." لقد رأينا المشاكل التي تواجهها الدول التي تحاول الإفراط في تنظيم التكنولوجيا، وهذا ليس ما توقعناه".
وأضاف: "يقوم الأشخاص بتدريب نماذج تتجاوز بكثير حجم أي نموذج لدينا اليوم ، ولكن إذا تم تجاوز عتبات معينة للقدرة ، أعتقد أنه يجب أن تكون هناك عملية اعتماد ، إلى جانب عمليات التدقيق الخارجية والاختبار الأمني". علاوة على ذلك، يجب إبلاغ الحكومة بهذه النماذج ويجب أن تخضع للتدقيق الحكومي".
على عكس وجهة نظر ألتمان ، في 19 أكتوبر ، أعرب عالم ميتا يان ليكون عن معارضته للتنظيم السابق لأوانه الذكاء الاصطناعي في مقابلة مع صحيفة فاينانشال تايمز.
يان ليكون عضو في الأكاديمية الوطنية للعلوم ، والأكاديمية الوطنية للهندسة ، والأكاديمية الفرنسية للعلوم ، وهو معروف أيضا بعمله على الشبكات التلافيفية ، بالإضافة إلى التعرف البصري على الأحرف ورؤية الكمبيوتر باستخدام الشبكات العصبية التلافيفية (CNNs).
في عام 2018 ، فاز يان ليكون بجائزة تورينج (يشار إليها غالبا باسم "جائزة نوبل للحوسبة") جنبا إلى جنب مع يوشوا بينجيو وجيفري هينتون ، الذين يشار إليهم غالبا باسم "عرابي الذكاء الاصطناعي" و "عرابين التعلم العميق".
في المقابلة، يتبنى يان ليكون وجهة نظر أكثر سلبية للتنظيم الذكاء الاصطناعي بشكل عام، بحجة أن تنظيم نماذج الذكاء الاصطناعي الآن يشبه تنظيم الطائرات النفاثة في عام 1925 (قبل اختراع مثل هذه الطائرات)، وأن التنظيم السابق لأوانه الذكاء الاصطناعي لن يؤدي إلا إلى تعزيز هيمنة شركات التكنولوجيا الكبرى وخنق المنافسة.
وقال يان ليكون إن "تنظيم البحث والتطوير الذكاء الاصطناعي يؤدي إلى نتائج عكسية بشكل لا يصدق" ، مضيفا أن الحاجة إلى تنظيم الذكاء الاصطناعي تنبع من "غطرسة" أو "تفوق" بعض شركات التكنولوجيا الرائدة التي تعتقد أنه يمكن الوثوق بها فقط لتطوير الذكاء الاصطناعي بأمان ، "ويريدون التنظيم تحت ستار الأمن الذكاء الاصطناعي".
يقول يان ليكون: "ولكن في الواقع ، حتى نتمكن من تصميم نظام يمكن أن يضاهي قدرة القطط على التعلم ، من السابق لأوانه مناقشة المخاطر التي قد يشكلها الذكاء الاصطناعي" ، مضيفا أن الجيل الحالي من نماذج الذكاء الاصطناعي ليس قريبا من القوة التي يدعي بعض الباحثين ، "إنهم لا يفهمون كيف يعمل العالم ، وليس لديهم القدرة على التخطيط ، وليس لديهم القدرة على تقديم تفكير حقيقي ".
في رأيه ، كان OpenAI و DeepMind من Google "مفرطين في التفاؤل" بشأن تعقيد المشكلة ، وفي الواقع ، سيستغرق الأمر العديد من "الاختراقات المفاهيمية" قبل أن يصل الذكاء الاصطناعي إلى مستوى الذكاء البشري. ولكن حتى ذلك الحين، يمكن التحكم في الذكاء الاصطناعي عن طريق ترميز "الصفات الأخلاقية" في النظام، تماما كما يمكن الآن استخدام القوانين لتنظيم السلوك البشري.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
قلق من الذكاء الاصطناعي إسقاط القنابل النووية على البشر ، OpenAI جاد
المصدر الأصلي: المهوس بارك
المؤلف: ليان ران
في فيلم الخيال العلمي القادم في هوليوود "مؤسس الذكاء الاصطناعي" ، يفجر الذكاء الاصطناعي الذي كان من المفترض أن يخدم البشرية قنبلة نووية في لوس أنجلوس.
ما هو أكثر خيالا علميا من الفيلم هو أنه في الواقع ، بدأت الشركات الذكاء الاصطناعي تقلق من أن مثل هذه السيناريوهات ستظهر بالفعل في العالم الحقيقي.
** في الآونة الأخيرة ، قالت OpenAI أنه من منطلق القلق على أمن أنظمة الذكاء الاصطناعي ، تقوم الشركة بإنشاء فريق متخصص للتعامل مع "المخاطر الكارثية" التي قد تواجهها الذكاء الاصطناعي المتطورة ، بما في ذلك التهديدات النووية. **
في الواقع، كان الرئيس التنفيذي سام ألتمان قلقا منذ فترة طويلة بشأن تهديد "الانقراض" الذي تشكله الذكاء الاصطناعي على البشرية، ودعا سابقا إلى تنظيم أكبر الذكاء الاصطناعي في عدة مناسبات، بما في ذلك بالتشاور مع الكونجرس الأمريكي. ومع ذلك ، فإن مجموعة من العلماء ، بما في ذلك عالم Meta Yann LeCun ، لديهم وجهة نظر مختلفة عن التنظيم الذكاء الاصطناعي ، بحجة أن القدرات الذكاء الاصطناعي لا تزال محدودة وأن التنظيم السابق لأوانه لن يفيد الشركات الكبيرة فحسب ، بل يخنق الابتكار أيضا.
وهذا يسلط الضوء على استمرار الخلاف في الصناعة حول تنظيم الذكاء الاصطناعي المتطورة. قد يؤدي التنظيم السابق لأوانه إلى تقييد تطوير التكنولوجيا ، لكن الافتقار إلى التنظيم سيجعل من الصعب معالجة المخاطر. لا تزال كيفية تحقيق التوازن بين التكنولوجيا والوقاية والتنظيم ، بحيث يمكن تطوير الذكاء الاصطناعي بكفاءة وأمان ، مشكلة صعبة في الصناعة.
**01 الذكاء الاصطناعي أو الحدود أو الخطر **
في الآونة الأخيرة ، قالت OpenAI في تحديث أنه من منطلق القلق على أمن أنظمة الذكاء الاصطناعي ، تقوم الشركة بتشكيل فريق جديد "الاستعداد" لتتبع وتقييم والتنبؤ بتطوير "النماذج المتطورة" ** لمنع ما يسمى ب "المخاطر الكارثية" ، بما في ذلك قضايا الأمن السيبراني والتهديدات الكيميائية والنووية والبيولوجية. **
سيقود الفريق ألكسندر مادري ، الذي هو حاليا مقيد كمدير لمركز التعلم الآلي القابل للنشر في معهد ماساتشوستس للتكنولوجيا.
بالإضافة إلى ذلك ، تم تكليف الفريق بتطوير والحفاظ على "سياسة تطوير مستنيرة بالمخاطر" والتي ستوضح بالتفصيل نهج OpenAI لبناء أدوات تقييم ومراقبة نموذج الذكاء الاصطناعي ، وإجراءات الشركة لتخفيف المخاطر ، وهيكل الحوكمة الذي يشرف على عملية تطوير النموذج بأكملها. تهدف هذه السياسة إلى استكمال عمل OpenAI في مجال أمن الذكاء الاصطناعي والحفاظ على الأمان والاتساق قبل النشر وبعده.
تقترح OpenAI أن إدارة المخاطر الكارثية المحتملة لنماذج الذكاء الاصطناعي المتطورة تتطلب الإجابة على الأسئلة الرئيسية التالية:
ما مدى خطورة إساءة استخدام نموذج الذكاء الاصطناعي المتطور؟ ** كيف يمكن إنشاء إطار قوي لرصد وتقييم والتنبؤ ومنع مخاطر نماذج الذكاء الاصطناعي المتطورة؟ ** إذا تم اختراق نماذج الذكاء الاصطناعي المتطورة ، فكيف يمكن للجهات الفاعلة الخبيثة استغلالها؟ **
في التحديث ، كتب OpenAI: "نعتقد ... نماذج الذكاء الاصطناعي المتطورة التي ستتجاوز النماذج الحديثة الحالية لديها القدرة على إفادة البشرية جمعاء ... لكنها تشكل أيضا مخاطر خطيرة بشكل متزايد".
** في الآونة الأخيرة ، أكدت OpenAI باستمرار على أمن الذكاء الاصطناعي ونفذت سلسلة من الإجراءات على مستوى الشركات ومستوى الرأي العام وحتى المستوى السياسي. **
في وقت سابق ، في 7 يوليو ، أعلنت OpenAI عن تشكيل فريق جديد لاستكشاف طرق لتوجيه ومراقبة "الذكاء الاصطناعي الفائق" ، بقيادة المؤسس المشارك وكبير العلماء في OpenAI Ilya Sutskever ورئيس Alignment Jan Leike.
توقع سوتسكيفر ولايك أن الذكاء الاصطناعي يتجاوز الذكاء البشري سيظهر في غضون 10 سنوات ، قائلين إن مثل هذه الذكاء الاصطناعي ليست جيدة بالضرورة ، لذلك من الضروري دراسة طرق السيطرة عليها والحد منها.
وفقا للتقارير في ذلك الوقت ، تم إعطاء الفريق أولوية قصوى ودعمه بنسبة 20٪ من موارد الحوسبة للشركة ، وكان هدفهم هو حل التحديات التقنية الأساسية للتحكم في "الذكاء الاصطناعي الفائقة" في غضون السنوات الأربع المقبلة.
تزامنا مع إطلاق فريق "Ready" ، عقدت Open الذكاء الاصطناعي أيضا تحديا للغرباء للتوصل إلى أفكار حول كيفية إساءة استخدام الذكاء الاصطناعي والتسبب في ضرر في العالم الحقيقي ، وسيحصل أفضل 10 مقدمين على جائزة قدرها 25000 دولار ووظيفة "جاهزة".
**02 القلق بشأن "الذكاء الاصطناعي قد يؤدي إلى انقراض الإنسان" **
كان الرئيس التنفيذي لشركة OpenAI سام ألتمان قلقا من أن الذكاء الاصطناعي يمكن أن يؤدي إلى انقراض البشرية.
في جلسة استماع للكونغرس تحت عنوان الذكاء الاصطناعي في مايو ، قال ألتمان إن الذكاء الاصطناعي يحتاج إلى تنظيم ، وأنه بدون معايير تنظيمية صارمة ل الذكاء الاصطناعي الفائقة ، سيكون هناك المزيد من المخاطر في السنوات ال 20 المقبلة.
في نهاية شهر مايو، وقع ألتمان بيانا موجزا مع الرؤساء التنفيذيين لشركة DeepMind و Anthropic التابعة لشركة Google وعدد من الباحثين البارزين في الذكاء الاصطناعي، مشيرا إلى أن "التخفيف من خطر الانقراض الناجم عن الذكاء الاصطناعي يجب أن يكون أحد الأولويات العالمية، كما هو الحال مع الأوبئة والحرب النووية".
في قمة سان فرانسيسكو للتكنولوجيا في يونيو ، ذكر سام ألتمان أنه "لا يجب أن تثق في شركة ، وبالتأكيد ليس شخصا واحدا" عندما يتعلق الأمر بتكنولوجيا الذكاء الاصطناعي ، بحجة أن التكنولوجيا نفسها ، وفوائدها ، ووصولها ، وحوكمتها ، تنتمي إلى البشرية جمعاء.
ومع ذلك ، هناك أيضا أولئك (الذين يمثلهم Elon Musk) الذين يتهمون Altman ب "الدعوة إلى التنظيم" فقط لحماية قيادة OpenAI. أجاب سام ألتمان في ذلك الوقت ، "نعتقد أنه يجب أن يكون هناك المزيد من التنظيم للشركات الكبيرة ونماذج الملكية التي تتجاوز عتبة قدرة عالية معينة ، وتنظيم أقل للشركات الناشئة الأصغر ونماذج المصادر المفتوحة." لقد رأينا المشاكل التي تواجهها الدول التي تحاول الإفراط في تنظيم التكنولوجيا، وهذا ليس ما توقعناه".
وأضاف: "يقوم الأشخاص بتدريب نماذج تتجاوز بكثير حجم أي نموذج لدينا اليوم ، ولكن إذا تم تجاوز عتبات معينة للقدرة ، أعتقد أنه يجب أن تكون هناك عملية اعتماد ، إلى جانب عمليات التدقيق الخارجية والاختبار الأمني". علاوة على ذلك، يجب إبلاغ الحكومة بهذه النماذج ويجب أن تخضع للتدقيق الحكومي".
على عكس وجهة نظر ألتمان ، في 19 أكتوبر ، أعرب عالم ميتا يان ليكون عن معارضته للتنظيم السابق لأوانه الذكاء الاصطناعي في مقابلة مع صحيفة فاينانشال تايمز.
يان ليكون عضو في الأكاديمية الوطنية للعلوم ، والأكاديمية الوطنية للهندسة ، والأكاديمية الفرنسية للعلوم ، وهو معروف أيضا بعمله على الشبكات التلافيفية ، بالإضافة إلى التعرف البصري على الأحرف ورؤية الكمبيوتر باستخدام الشبكات العصبية التلافيفية (CNNs).
في عام 2018 ، فاز يان ليكون بجائزة تورينج (يشار إليها غالبا باسم "جائزة نوبل للحوسبة") جنبا إلى جنب مع يوشوا بينجيو وجيفري هينتون ، الذين يشار إليهم غالبا باسم "عرابي الذكاء الاصطناعي" و "عرابين التعلم العميق".
في المقابلة، يتبنى يان ليكون وجهة نظر أكثر سلبية للتنظيم الذكاء الاصطناعي بشكل عام، بحجة أن تنظيم نماذج الذكاء الاصطناعي الآن يشبه تنظيم الطائرات النفاثة في عام 1925 (قبل اختراع مثل هذه الطائرات)، وأن التنظيم السابق لأوانه الذكاء الاصطناعي لن يؤدي إلا إلى تعزيز هيمنة شركات التكنولوجيا الكبرى وخنق المنافسة.
وقال يان ليكون إن "تنظيم البحث والتطوير الذكاء الاصطناعي يؤدي إلى نتائج عكسية بشكل لا يصدق" ، مضيفا أن الحاجة إلى تنظيم الذكاء الاصطناعي تنبع من "غطرسة" أو "تفوق" بعض شركات التكنولوجيا الرائدة التي تعتقد أنه يمكن الوثوق بها فقط لتطوير الذكاء الاصطناعي بأمان ، "ويريدون التنظيم تحت ستار الأمن الذكاء الاصطناعي".
يقول يان ليكون: "ولكن في الواقع ، حتى نتمكن من تصميم نظام يمكن أن يضاهي قدرة القطط على التعلم ، من السابق لأوانه مناقشة المخاطر التي قد يشكلها الذكاء الاصطناعي" ، مضيفا أن الجيل الحالي من نماذج الذكاء الاصطناعي ليس قريبا من القوة التي يدعي بعض الباحثين ، "إنهم لا يفهمون كيف يعمل العالم ، وليس لديهم القدرة على التخطيط ، وليس لديهم القدرة على تقديم تفكير حقيقي ".
في رأيه ، كان OpenAI و DeepMind من Google "مفرطين في التفاؤل" بشأن تعقيد المشكلة ، وفي الواقع ، سيستغرق الأمر العديد من "الاختراقات المفاهيمية" قبل أن يصل الذكاء الاصطناعي إلى مستوى الذكاء البشري. ولكن حتى ذلك الحين، يمكن التحكم في الذكاء الاصطناعي عن طريق ترميز "الصفات الأخلاقية" في النظام، تماما كما يمكن الآن استخدام القوانين لتنظيم السلوك البشري.