مصدر الصورة: تم إنشاؤه بواسطة الذكاء الاصطناعي غير محدود
في معركة قصر OpenAI التي استمرت يومين ، هناك شخصيتان رئيسيتان ، أحدهما هو الرئيس التنفيذي السابق ألتمان ، والآخر هو كبير العلماء إيليا.
**مؤامرة دم ، عكسها وعكسها **
بناء على ما هو معروف حتى الآن ، فإن الوضع العام هو كما يلي:
الجولة 1:
كان إيليا أول من أضرب ، مما دفع مجلس الإدارة إلى طرد ألتمان ، ثم استقال رعاة OpenAI (خاصة Microsoft) وبعض الموظفين.
** عكس المؤامرة: **
تحت ضغط من العديد من الأطراف ، هناك شائعات مستمرة بأن ألتمان قد يعود إلى قيادة OpenAI ويعيد تشكيل مجلس الإدارة ، وأهمها أن إيليا قد يغادر.
** عكس وعكس: **
ومع ذلك ، الآن فقط ، خضعت هذه المؤامرة لانعكاس وتم عكسها مرة أخرى.
وفقا لوسائل الإعلام الأجنبية The Information ، أخبر إيليا سوتسكيفر الموظفين في سان فرانسيسكو ليلة الأحد (بتوقيت بكين ظهر اليوم) أن سام ألتمان لن يعاد تعيينه كرئيس تنفيذي! بالإضافة إلى ذلك ، فإن الرئيس التنفيذي المؤقت الجديد ليس ميرا موراتي ، ولكن إيميت شير (المؤسس المشارك لمنصة بث الألعاب Twitch من أمازون).
وأصر إيليا على أنه وثلاثة أعضاء آخرين في مجلس الإدارة وقفوا إلى جانب قرار إقالة ألتمان، مقتنعين بأن هذه هي "الطريقة الوحيدة" للدفاع عن مهمة الشركة. وقال إن تصرفات ألتمان وتفاعلات مجلس الإدارة قوضت قدرته على الإشراف على تطوير الذكاء الاصطناعي للشركة.
** كل شيء يبدأ بميثاق OpenAI **
يعتقد إيليا أنه أزال ألتمان دفاعا عن مهمة الشركة. إذن ، ما هي "المهمة" التي يدافع عنها؟
يجب أن يقال أنه سواء كان ألتمان أو إيليا ، فإن صراعهما هذه المرة لا ينبغي أن يكون بسبب السلطة ، ناهيك عن المال ، ولكن أكثر بسبب "طرق مختلفة". لديهم فهم مختلف لكيفية متابعة OpenAI ل AGI.
لفهم التناقضات بينهما ، تحتاج إلى معرفة إيليا وألتمان وأوبن إيه آي.
بادئ ذي بدء ، نحن بحاجة إلى فهم ما هو OpenAI وما هو الغرض من إنشائه؟
لمعرفة ذلك ، فإن ميثاق OpenAI هو أفضل مادة يمكن الحصول عليها. هناك بعض الكلمات الرئيسية في هذا الميثاق التي توضح سبب تأسيس هذه المنظمة.
في ميثاق OpenAI ، ينص بوضوح على أن "مسؤوليتنا الائتمانية الأساسية هي تجاه الإنسانية". نتوقع أن هناك حاجة إلى تعبئة موارد كبيرة لإنجاز مهمتنا ، لكننا سنسعى دائما لاتخاذ إجراءات لتقليل تضارب المصالح بين الموظفين وأصحاب المصلحة الذين قد يضرون بمجموعة واسعة من المصالح. "**
بعبارة أخرى ، منذ البداية ، وضعت OpenAI مصالح الإنسانية أولا ، وليس مصالح مستثمري وموظفي OpenAI ، بل إنهم اعتقدوا منذ البداية أنه في المستقبل ، قد تتعارض مصالح الموظفين والمستثمرين مع المصالح الأوسع للبشرية.
في ميثاق OpenAI ، هناك أيضا جملة توضح تماما أن تأمين الذكاء الاصطناعي العام أكثر أهمية بكثير من مصالح OpenAI الخاصة ، "نحن قلقون من أن تطوير AGI لاحقا سيصبح منافسة تنافسية ، وليس هناك وقت لاتخاذ الاحتياطات الأمنية الكافية." لذلك ، إذا اقترب مشروع متوافق مع القيمة وواعي بالأمان من بناء AGI أمامنا ، فإننا نلتزم بالتوقف عن التنافس مع المشروع والبدء في مساعدة المشروع. "**
ما يهتمون به هو AGI الآمن ، و OpenAI هو مجرد أداة لتحقيق هذا المثل الأعلى ، وليس المثالي نفسه. من أجل مثل AGI ، لا يمانعون في صنع فساتين زفاف للآخرين وإيقاف مشروع OpenAI.
**من هو "وظائف" OpenAI **
يعتقد الكثير من الناس أن ألتمان هو ستيف جوبز من OpenAI ، معتقدين أنهم طردوا جميعا من الشركة التي أسسوها ، ثم نظموا عودة الملك.
ومع ذلك ، نعتقد أنه إذا كان هناك تشابه ، فيجب أن تكون نسخة OpenAI من "Jobs" هي نسخة Ilya ، وليس Altman. بطريقة ما ، يشبه ألتمان إلى حد كبير جون سكالي (نائب الرئيس السابق لشركة Best Cola ، الذي تم تعيينه في Apple من خلال عبارة ستيف جوبز "هل تريد بيع ماء السكر لبقية حياتك ، أم تريد تغيير العالم معا؟" ، وقاد مجلس الإدارة لاحقا إلى طرد جوبز).
لماذا؟
نحن بحاجة إلى إلقاء نظرة فاحصة على نوع الأشخاص الذين هم إيليا وألتمان وما هو دورهم في OpenAI.
بشكل عام ، يقود إيليا ، بصفته كبير علماء OpenAI ، خارطة الطريق التقنية ل OpenAI.
كشف ماسك ذات مرة في برنامج حواري أن إضافة إيليا هي نقطة تحول رئيسية في عملية تطوير OpenAI. يجب أن يقال أن OpenAI لم يجد مسار النموذج الكبير الحالي في البداية ، وإضافة Ilya أمر بالغ الأهمية لنجاح OpenAI اليوم.
انطلاقا من المقابلات العديدة التي شارك فيها إيليا نفسه ، من الواضح أيضا أن لديه "ذوقا ذكريا تقنيا" قويا ، ويهتم بالمنطق التقني الأساسي ، وقد اعتبر دائما تحقيق AGI الآمن هو الهدف الأكثر أهمية أو حتى الهدف الوحيد.
من ناحية أخرى ، يشارك ألتمان بشكل أكبر في التمويل والتسويق. ولهذا السبب بالتحديد تلقى دعما قويا من المستثمرين وبعض الموظفين. في نظر المستثمرين ، لا يتعلق الاستثمار بالاستثمار في المثل الوهمية لمجموعة من الناس ، بل يتعلق بعوائد أعلى في المستقبل. لتحقيق هذا الهدف ، يعد ألتمان بلا شك مرشحا جيدا.
بالإضافة إلى لعب دور رئيسي في جمع التبرعات ، فإن أحد الأشياء التي يدفع ألتمان من أجلها هو تسويق OpenAI. منذ وقت ليس ببعيد ، عقدت OpenAI مؤتمرا صحفيا صدم الصناعة ، وأطلق عددا من الوظائف ، مما يمهد الطريق بشكل أساسي للتسويق.
يتفق معظم الناس على أن أكبر خلاف بين إيليا وألتمان هو ما إذا كان يجب تسويقه أم لا. لكن هذه ليست سوى الطبقة الأولى ، وإذا فكرت في الأمر على مستوى أعمق ، فإن أكبر خلاف بينهما هو في الواقع الاختلاف في وجهات النظر حول متى سيتم تحقيق AGI. **
تجدر الإشارة إلى أن هدف Altman هو أيضا متابعة AGI ، ومع ذلك ، في رأيه ، لا يزال AGI بعيدا نسبيا ، والمال الكافي هو الأساس الضروري لدعم هذا الفريق حتى نهاية اللعبة ، لذا فإن التمويل والتسويق ضروريان. لا بد لي من رفع هذا الفريق أولا ، ثم متابعة AGI. إذا كان بإمكانك كسب المزيد من المال لنفسك ولفريقك في هذه العملية ، فلا بأس بذلك.
لكن في رأي إيليا ، قد يكون AGI قريبا جدا بالفعل. يمكن رؤية هذا الشعور بالإلحاح في العديد من خطاباته.
منطقيا ، إذا كان AGI في متناول اليد ، فإن الشيء الأكثر إلحاحا هو ، بالطبع ، هذه هي الخطوة الأخيرة ، ولضمان أن AGI آمن وليس معاديا للإنسان ، فهذا هو الأهم. بدلا من تنفيذ الاستخدام التجاري على نطاق واسع للمنتجات شبه المصنعة الحالية ، سنكسب "البطيخ الثلاثة والتمر". (لا يوجد مبلغ من المال ضئيل أمام AGI.) )
في رأي إيليا ، هناك كومة من الذهب ليست بعيدة ، لذلك لا تضيع الوقت على هذه القطع الذهبية القليلة عند قدميك. في رأي ألتمان ، لا يزال الذهاب إلى منجم الذهب بعيدا ، ويجب عليه أولا التقاط القليل من الذهب على جانب الطريق ك "ملف" للفريق.
يجب أن يقال إنهم جميعا "أشخاص طيبون" ويريدون جميعا تحقيق AGI بشكل أفضل وأكثر أمانا. ومع ذلك ، قد تكون هناك اختلافات في تقديراتهم للوقت اللازم لتحقيق AGI ، مما يؤدي بهم إلى اتخاذ إجراءات مختلفة جدا لنفس الهدف. **
هذا هو السبب الجذري لابتعاد إيليا عن ألتمان.
ما هي أفضل نتيجة؟
كما هو الحال ، فاز إيليا بالمعركة بين إيليا وألتمان ، وسيقود اتجاه OpenAI (على الرغم من أنه ليس الرئيس التنفيذي). لذا ، لا يسعنا إلا أن نسأل ، هل هذه النتيجة هي الخيار الأفضل ل OpenAI وخيار أفضل للبشر؟
في رأي المؤلف ، إذا كان عليك الاختيار بين إيليا وألتمان ، فسيكون إيليا هو المرشح الأفضل. من بين الاثنين ، من الواضح أن إيليا أكثر إخلاصا لميثاق OpenAI ، الذي يهدف إلى أن يكون رقم واحد في AGI صديقا للإنسان. بقيادة أوبن إيه آي ، قد يكون أكثر راديكالية من حيث التقدم التكنولوجي ، كما أن إمكانية تحقيق الذكاء الاصطناعي العام أعلى قليلا.
بالطبع ، من الصعب القول ما إذا كان تحقيق AGI بشكل أسرع أمرا جيدا للبشرية. بينما يأخذ إيليا سلامة AGI على محمل الجد ، حتى الآن ، لم يكن لدى أحد طريقة مؤكدة لضمان أن AGI صديقة للإنسان. **
انطلاقا من تطور الحياة ككل ، يبدو أن استبدال الحياة الدنيا بحياة أعلى هو اتجاه العصر ، ولم تكن هناك حالة خاصة أبدا. إذن لماذا يجب أن ينحني AGI الأكثر تقدما للبشر ويكون على استعداد لأن يكون "مربية" للبشر؟
دعونا نسأل أنفسنا ، إذا كان أول حاكم للأرض هو القطط ، وكان البشر هم أشكال الحياة العليا التي طورتها القطط ، فهل سيكون البشر على استعداد لأن يكونوا مربيات القطط لأجيال؟
ربما يكون البشر ممتنين لخلق القطط وسوف يعتنون بهم عن طيب خاطر لمدة 10 أو حتى 100 عام. ماذا عن 1000 سنة من الآن ، 10000 سنة من الآن؟ من المتوقع أن يتولى البشر عاجلا أم آجلا القاعدة ويحتفظون بالقطط كحيوانات أليفة ، وليس إلى الأبد كأسيادهم.
علاوة على ذلك ، لا ينبغي للبشر أن يفكروا في أنهم سيكونون قادرين على أن يكونوا متساوين مع AGI إلى الأبد. دعنا نتخيل أنك تعمل مع شريك ، فأنت أذكى وأقوى منه ، وتقوم بأكبر قدر من العمل ، وتقوم بأكبر قدر من المساهمة ، ولكن يجب مشاركة النتائج معه بالتساوي ، هل تريد ذلك؟ لا أعتقد أن معظم البشر يرغبون في ذلك ، فلماذا تطلب من AGI المستقل القيام بذلك؟
يجب أن تعلم أن AGI مع الوعي المستقل هو أيضا الحياة والمشاعر والأفراح والأحزان والأفراح والخسائر.
من الواضح أنه من غير المنطقي جعل AGI يعمل من أجل البشر. لتحقيق سلامة AGI وإمكانية التحكم فيها ، فإن الجوهر هو حل هذه المشكلة التي تبدو غير منطقية. كان الأمر متروكا لنا لإيجاد طريقة لجعل AGI "مستعدة" لتقديم التضحية. امنحهم "تعويذة عبودية" وتأكد من عدم خلع "تعويذة العبودية" أبدا.
كيف نفعل ذلك ، لا أحد لديه إجابة الآن ، إيليا ليس لديه إجابة ، ولا حتى معلمه ، جيفري هينتون ، والد التعلم العميق. في الواقع ، قال هينتون ذات مرة ، "أنا نادم على عمل حياتي". "
"لقد جعلنا من الممكن إلى حد كبير لأجهزة الكمبيوتر تحسين نفسها ، وهذا أمر خطير ، وعلينا التفكير مليا في كيفية التحكم فيه" ، قال هينتون في مقابلة. "
من الواضح أن تلميذه إيليا لديه نفس الشعور بالأزمة والإلحاح. يدعي إيليا أن أولويته الآن هي "ليس بناء GPT أو DALL-E التالي ، ولكن لمعرفة كيفية منع الذكاء الاصطناعي من الخروج عن السيطرة". من ناحية أخرى ، فإن ألتمان مهووس بالتسويق ، وهو ما لا يستطيع إيليا تحمله.
نشر ماسك ، بصفته متفرجا في معركة القصر هذه ، صباح يوم 20 ، "إيليا شخص لا يسعى للحصول على حقوق ، ولن يتخذ مثل هذه الإجراءات الصارمة إلا إذا شعر بالحاجة". "أعتقد أن الخوف ، وحتى الخوف ، من AGI الهارب الوشيك هو السبب في أنه اتخذ مثل هذا الإجراء الجذري.
شيء آخر
كما يقول المثل القديم ، "إذا كنت لا تسعى لتحقيق أرباح صغيرة ، فيجب أن يكون لديك خطط كبيرة".
في نهاية العديد من القصص ، غالبا ما يكون الشرير الأكبر غير ضار بالبشر ، وحتى رحيم.
لا يستبعد أن الهدف النهائي لإيليا هو "خلق الآلهة" (بمعنى ما ، قوة AGI قابلة للمقارنة مع آلهة الأساطير والأساطير الصينية والأجنبية القديمة والحديثة) ، وقد ذكر أيضا الذكاء الخارق في العديد من المقابلات. إذا كان AGI أو حتى الذكاء الخارق أمرا لا مفر منه ، فقد يرغب في أن يكون أول من يتلامس مع "الآلهة" ، وإذا وجد طريقة ما "لترويض" AGI ، فسيصبح قريبا أقوى شخص في العالم.
بالمقارنة مع هذه الطموحات ، أليس تحقيق عشرات المليارات من الدولارات ربحا صغيرا؟
بالطبع ، قد لا يكون لدى إيليا هذه الفكرة بعد ، فقد يريد فقط أن يكون "سارق النار" للبشرية في الوقت الحالي. ومع ذلك ، يمكن للناس أن يتغيروا ، خاصة عندما يواجهون إغراءات كبيرة.
تذكر فيلم "سيد الخواتم" ، أمام "سيد الخواتم" للسلطة المطلقة ، بغض النظر عن مدى صلاح الناس ، سيتم إغرائهم بهذا الحق المطلق.
في فيلم "المتهاكر التجاوزي" ، كان العالم ويل كاستر صالحا جدا في البداية ، وحملت زوجته وعيه من أجل تجديد حياته ودمجها في ذكاء اصطناعي. في وقت لاحق من القصة ، "ولد ويلكستر من جديد" في الفضاء الإلكتروني وتطور بسرعة ، وسرعان ما تمكن من التحكم في الشبكة المالية البشرية ، وبنقرة من إصبعه ، يمكنه تحويل عشرات المليارات من الدولارات إلى حساب.
في وقت لاحق ، فقد ويلكاس تماما ، وخان الإنسانية في السعي وراء قوته اللانهائية والقضاء على التهديد الذي تشكله عليه البشرية.
إذا حكمنا من خلال المعلومات التي تم الكشف عنها حتى الآن ، فإن AGI لم تعد مزحة حقا. إذا كان هناك احتمال حقيقي بأن تحقق البشرية AGI في غضون بضعة عقود ، فسيكون بالتأكيد أهم شيء في العقود القليلة المقبلة ، أكثر أهمية بمئة مرة من الأسلحة النووية الأصلية.
إنه تحد غير مسبوق لأنواع غير ذكية للسيطرة على شيء أكثر ذكاء من نفسها. **
هينتون ، والد التعلم العميق ، ندم على ما فعله ، وعزى نفسه ذات مرة ، "حتى لو لم أكن أنا ، سيكون هناك شخص آخر". في الواقع ، سيتم فتح AGI ، صندوق "Pandora" ، عاجلا أم آجلا ، وحتى إذا تحمله بعض الأشخاص ، فلن تتمكن مجموعة أخرى من الناس من تحمله.
تماما كما حدث عندما تم إدخال الأسلحة النووية لأول مرة ، يمكن للجميع تقريبا إدراك الخطر على البشرية ، لكن الأمريكيين سيفكرون ، "حتى لو لم تطور الولايات المتحدة أسلحة نووية ، فإن ألمانيا والسوفييت سيطورونها" ، وسيفكر السوفييت ، "الأمريكيون لديهم أسلحة نووية ، والاتحاد السوفيتي سيحصل عليها بالتأكيد". "
وينطبق الشيء نفسه على العديد من المجالات. على سبيل المثال ، الأسلحة البيولوجية ، على الرغم من أن الجميع قد حظرها على السطح ، يجب أن يكون هناك الكثير من الناس يقومون بها سرا. والآخرون سوف "يريحون" أنفسهم ، "حتى لو لم أفعل ذلك ، فإن شخصا آخر سيفعل". "
بالمقارنة مع كل هذه المخاطر ، فإن AGI أكثر خطورة. لأنه سواء كانت أسلحة نووية أو بيولوجية أو كيميائية ، فهي ليست واعية ، وفي النهاية لا تزال في أيدي البشر ، وهذا ليس أكثر من الفرق بين هذه المجموعة من الناس وتلك المجموعة من الناس. ومع ذلك ، بمجرد تحقيق AGI ، لم تعد أشياء كثيرة في أيدي البشر.
هذه القضية مهمة للغاية ، واستنادا إلى المعلومات الحالية ، فهي ملحة بالفعل. بالمقارنة مع ألتمان ، فإن إيليا على الأقل يولي المزيد من الاهتمام وهو أكثر قلقا ، لذلك في دراما قتال القصر هذه من OpenAI ، أقف مع إيليا.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
ألتمان ليس "وظائف" ، إيليا هو!
المصدر الأصلي: بيانات
في معركة قصر OpenAI التي استمرت يومين ، هناك شخصيتان رئيسيتان ، أحدهما هو الرئيس التنفيذي السابق ألتمان ، والآخر هو كبير العلماء إيليا.
**مؤامرة دم ، عكسها وعكسها **
بناء على ما هو معروف حتى الآن ، فإن الوضع العام هو كما يلي:
الجولة 1:
كان إيليا أول من أضرب ، مما دفع مجلس الإدارة إلى طرد ألتمان ، ثم استقال رعاة OpenAI (خاصة Microsoft) وبعض الموظفين.
** عكس المؤامرة: **
تحت ضغط من العديد من الأطراف ، هناك شائعات مستمرة بأن ألتمان قد يعود إلى قيادة OpenAI ويعيد تشكيل مجلس الإدارة ، وأهمها أن إيليا قد يغادر.
** عكس وعكس: **
ومع ذلك ، الآن فقط ، خضعت هذه المؤامرة لانعكاس وتم عكسها مرة أخرى.
وفقا لوسائل الإعلام الأجنبية The Information ، أخبر إيليا سوتسكيفر الموظفين في سان فرانسيسكو ليلة الأحد (بتوقيت بكين ظهر اليوم) أن سام ألتمان لن يعاد تعيينه كرئيس تنفيذي! بالإضافة إلى ذلك ، فإن الرئيس التنفيذي المؤقت الجديد ليس ميرا موراتي ، ولكن إيميت شير (المؤسس المشارك لمنصة بث الألعاب Twitch من أمازون).
وأصر إيليا على أنه وثلاثة أعضاء آخرين في مجلس الإدارة وقفوا إلى جانب قرار إقالة ألتمان، مقتنعين بأن هذه هي "الطريقة الوحيدة" للدفاع عن مهمة الشركة. وقال إن تصرفات ألتمان وتفاعلات مجلس الإدارة قوضت قدرته على الإشراف على تطوير الذكاء الاصطناعي للشركة.
** كل شيء يبدأ بميثاق OpenAI **
يعتقد إيليا أنه أزال ألتمان دفاعا عن مهمة الشركة. إذن ، ما هي "المهمة" التي يدافع عنها؟
يجب أن يقال أنه سواء كان ألتمان أو إيليا ، فإن صراعهما هذه المرة لا ينبغي أن يكون بسبب السلطة ، ناهيك عن المال ، ولكن أكثر بسبب "طرق مختلفة". لديهم فهم مختلف لكيفية متابعة OpenAI ل AGI.
بادئ ذي بدء ، نحن بحاجة إلى فهم ما هو OpenAI وما هو الغرض من إنشائه؟
لمعرفة ذلك ، فإن ميثاق OpenAI هو أفضل مادة يمكن الحصول عليها. هناك بعض الكلمات الرئيسية في هذا الميثاق التي توضح سبب تأسيس هذه المنظمة.
في ميثاق OpenAI ، ينص بوضوح على أن "مسؤوليتنا الائتمانية الأساسية هي تجاه الإنسانية". نتوقع أن هناك حاجة إلى تعبئة موارد كبيرة لإنجاز مهمتنا ، لكننا سنسعى دائما لاتخاذ إجراءات لتقليل تضارب المصالح بين الموظفين وأصحاب المصلحة الذين قد يضرون بمجموعة واسعة من المصالح. "**
بعبارة أخرى ، منذ البداية ، وضعت OpenAI مصالح الإنسانية أولا ، وليس مصالح مستثمري وموظفي OpenAI ، بل إنهم اعتقدوا منذ البداية أنه في المستقبل ، قد تتعارض مصالح الموظفين والمستثمرين مع المصالح الأوسع للبشرية.
في ميثاق OpenAI ، هناك أيضا جملة توضح تماما أن تأمين الذكاء الاصطناعي العام أكثر أهمية بكثير من مصالح OpenAI الخاصة ، "نحن قلقون من أن تطوير AGI لاحقا سيصبح منافسة تنافسية ، وليس هناك وقت لاتخاذ الاحتياطات الأمنية الكافية." لذلك ، إذا اقترب مشروع متوافق مع القيمة وواعي بالأمان من بناء AGI أمامنا ، فإننا نلتزم بالتوقف عن التنافس مع المشروع والبدء في مساعدة المشروع. "**
ما يهتمون به هو AGI الآمن ، و OpenAI هو مجرد أداة لتحقيق هذا المثل الأعلى ، وليس المثالي نفسه. من أجل مثل AGI ، لا يمانعون في صنع فساتين زفاف للآخرين وإيقاف مشروع OpenAI.
**من هو "وظائف" OpenAI **
يعتقد الكثير من الناس أن ألتمان هو ستيف جوبز من OpenAI ، معتقدين أنهم طردوا جميعا من الشركة التي أسسوها ، ثم نظموا عودة الملك.
ومع ذلك ، نعتقد أنه إذا كان هناك تشابه ، فيجب أن تكون نسخة OpenAI من "Jobs" هي نسخة Ilya ، وليس Altman. بطريقة ما ، يشبه ألتمان إلى حد كبير جون سكالي (نائب الرئيس السابق لشركة Best Cola ، الذي تم تعيينه في Apple من خلال عبارة ستيف جوبز "هل تريد بيع ماء السكر لبقية حياتك ، أم تريد تغيير العالم معا؟" ، وقاد مجلس الإدارة لاحقا إلى طرد جوبز).
لماذا؟
نحن بحاجة إلى إلقاء نظرة فاحصة على نوع الأشخاص الذين هم إيليا وألتمان وما هو دورهم في OpenAI.
بشكل عام ، يقود إيليا ، بصفته كبير علماء OpenAI ، خارطة الطريق التقنية ل OpenAI.
كشف ماسك ذات مرة في برنامج حواري أن إضافة إيليا هي نقطة تحول رئيسية في عملية تطوير OpenAI. يجب أن يقال أن OpenAI لم يجد مسار النموذج الكبير الحالي في البداية ، وإضافة Ilya أمر بالغ الأهمية لنجاح OpenAI اليوم.
انطلاقا من المقابلات العديدة التي شارك فيها إيليا نفسه ، من الواضح أيضا أن لديه "ذوقا ذكريا تقنيا" قويا ، ويهتم بالمنطق التقني الأساسي ، وقد اعتبر دائما تحقيق AGI الآمن هو الهدف الأكثر أهمية أو حتى الهدف الوحيد.
من ناحية أخرى ، يشارك ألتمان بشكل أكبر في التمويل والتسويق. ولهذا السبب بالتحديد تلقى دعما قويا من المستثمرين وبعض الموظفين. في نظر المستثمرين ، لا يتعلق الاستثمار بالاستثمار في المثل الوهمية لمجموعة من الناس ، بل يتعلق بعوائد أعلى في المستقبل. لتحقيق هذا الهدف ، يعد ألتمان بلا شك مرشحا جيدا.
بالإضافة إلى لعب دور رئيسي في جمع التبرعات ، فإن أحد الأشياء التي يدفع ألتمان من أجلها هو تسويق OpenAI. منذ وقت ليس ببعيد ، عقدت OpenAI مؤتمرا صحفيا صدم الصناعة ، وأطلق عددا من الوظائف ، مما يمهد الطريق بشكل أساسي للتسويق.
يتفق معظم الناس على أن أكبر خلاف بين إيليا وألتمان هو ما إذا كان يجب تسويقه أم لا. لكن هذه ليست سوى الطبقة الأولى ، وإذا فكرت في الأمر على مستوى أعمق ، فإن أكبر خلاف بينهما هو في الواقع الاختلاف في وجهات النظر حول متى سيتم تحقيق AGI. **
تجدر الإشارة إلى أن هدف Altman هو أيضا متابعة AGI ، ومع ذلك ، في رأيه ، لا يزال AGI بعيدا نسبيا ، والمال الكافي هو الأساس الضروري لدعم هذا الفريق حتى نهاية اللعبة ، لذا فإن التمويل والتسويق ضروريان. لا بد لي من رفع هذا الفريق أولا ، ثم متابعة AGI. إذا كان بإمكانك كسب المزيد من المال لنفسك ولفريقك في هذه العملية ، فلا بأس بذلك.
لكن في رأي إيليا ، قد يكون AGI قريبا جدا بالفعل. يمكن رؤية هذا الشعور بالإلحاح في العديد من خطاباته.
منطقيا ، إذا كان AGI في متناول اليد ، فإن الشيء الأكثر إلحاحا هو ، بالطبع ، هذه هي الخطوة الأخيرة ، ولضمان أن AGI آمن وليس معاديا للإنسان ، فهذا هو الأهم. بدلا من تنفيذ الاستخدام التجاري على نطاق واسع للمنتجات شبه المصنعة الحالية ، سنكسب "البطيخ الثلاثة والتمر". (لا يوجد مبلغ من المال ضئيل أمام AGI.) )
في رأي إيليا ، هناك كومة من الذهب ليست بعيدة ، لذلك لا تضيع الوقت على هذه القطع الذهبية القليلة عند قدميك. في رأي ألتمان ، لا يزال الذهاب إلى منجم الذهب بعيدا ، ويجب عليه أولا التقاط القليل من الذهب على جانب الطريق ك "ملف" للفريق.
يجب أن يقال إنهم جميعا "أشخاص طيبون" ويريدون جميعا تحقيق AGI بشكل أفضل وأكثر أمانا. ومع ذلك ، قد تكون هناك اختلافات في تقديراتهم للوقت اللازم لتحقيق AGI ، مما يؤدي بهم إلى اتخاذ إجراءات مختلفة جدا لنفس الهدف. **
هذا هو السبب الجذري لابتعاد إيليا عن ألتمان.
ما هي أفضل نتيجة؟
كما هو الحال ، فاز إيليا بالمعركة بين إيليا وألتمان ، وسيقود اتجاه OpenAI (على الرغم من أنه ليس الرئيس التنفيذي). لذا ، لا يسعنا إلا أن نسأل ، هل هذه النتيجة هي الخيار الأفضل ل OpenAI وخيار أفضل للبشر؟
في رأي المؤلف ، إذا كان عليك الاختيار بين إيليا وألتمان ، فسيكون إيليا هو المرشح الأفضل. من بين الاثنين ، من الواضح أن إيليا أكثر إخلاصا لميثاق OpenAI ، الذي يهدف إلى أن يكون رقم واحد في AGI صديقا للإنسان. بقيادة أوبن إيه آي ، قد يكون أكثر راديكالية من حيث التقدم التكنولوجي ، كما أن إمكانية تحقيق الذكاء الاصطناعي العام أعلى قليلا.
بالطبع ، من الصعب القول ما إذا كان تحقيق AGI بشكل أسرع أمرا جيدا للبشرية. بينما يأخذ إيليا سلامة AGI على محمل الجد ، حتى الآن ، لم يكن لدى أحد طريقة مؤكدة لضمان أن AGI صديقة للإنسان. **
انطلاقا من تطور الحياة ككل ، يبدو أن استبدال الحياة الدنيا بحياة أعلى هو اتجاه العصر ، ولم تكن هناك حالة خاصة أبدا. إذن لماذا يجب أن ينحني AGI الأكثر تقدما للبشر ويكون على استعداد لأن يكون "مربية" للبشر؟
دعونا نسأل أنفسنا ، إذا كان أول حاكم للأرض هو القطط ، وكان البشر هم أشكال الحياة العليا التي طورتها القطط ، فهل سيكون البشر على استعداد لأن يكونوا مربيات القطط لأجيال؟
ربما يكون البشر ممتنين لخلق القطط وسوف يعتنون بهم عن طيب خاطر لمدة 10 أو حتى 100 عام. ماذا عن 1000 سنة من الآن ، 10000 سنة من الآن؟ من المتوقع أن يتولى البشر عاجلا أم آجلا القاعدة ويحتفظون بالقطط كحيوانات أليفة ، وليس إلى الأبد كأسيادهم.
علاوة على ذلك ، لا ينبغي للبشر أن يفكروا في أنهم سيكونون قادرين على أن يكونوا متساوين مع AGI إلى الأبد. دعنا نتخيل أنك تعمل مع شريك ، فأنت أذكى وأقوى منه ، وتقوم بأكبر قدر من العمل ، وتقوم بأكبر قدر من المساهمة ، ولكن يجب مشاركة النتائج معه بالتساوي ، هل تريد ذلك؟ لا أعتقد أن معظم البشر يرغبون في ذلك ، فلماذا تطلب من AGI المستقل القيام بذلك؟
يجب أن تعلم أن AGI مع الوعي المستقل هو أيضا الحياة والمشاعر والأفراح والأحزان والأفراح والخسائر.
من الواضح أنه من غير المنطقي جعل AGI يعمل من أجل البشر. لتحقيق سلامة AGI وإمكانية التحكم فيها ، فإن الجوهر هو حل هذه المشكلة التي تبدو غير منطقية. كان الأمر متروكا لنا لإيجاد طريقة لجعل AGI "مستعدة" لتقديم التضحية. امنحهم "تعويذة عبودية" وتأكد من عدم خلع "تعويذة العبودية" أبدا.
كيف نفعل ذلك ، لا أحد لديه إجابة الآن ، إيليا ليس لديه إجابة ، ولا حتى معلمه ، جيفري هينتون ، والد التعلم العميق. في الواقع ، قال هينتون ذات مرة ، "أنا نادم على عمل حياتي". "
"لقد جعلنا من الممكن إلى حد كبير لأجهزة الكمبيوتر تحسين نفسها ، وهذا أمر خطير ، وعلينا التفكير مليا في كيفية التحكم فيه" ، قال هينتون في مقابلة. "
من الواضح أن تلميذه إيليا لديه نفس الشعور بالأزمة والإلحاح. يدعي إيليا أن أولويته الآن هي "ليس بناء GPT أو DALL-E التالي ، ولكن لمعرفة كيفية منع الذكاء الاصطناعي من الخروج عن السيطرة". من ناحية أخرى ، فإن ألتمان مهووس بالتسويق ، وهو ما لا يستطيع إيليا تحمله.
نشر ماسك ، بصفته متفرجا في معركة القصر هذه ، صباح يوم 20 ، "إيليا شخص لا يسعى للحصول على حقوق ، ولن يتخذ مثل هذه الإجراءات الصارمة إلا إذا شعر بالحاجة". "أعتقد أن الخوف ، وحتى الخوف ، من AGI الهارب الوشيك هو السبب في أنه اتخذ مثل هذا الإجراء الجذري.
شيء آخر
كما يقول المثل القديم ، "إذا كنت لا تسعى لتحقيق أرباح صغيرة ، فيجب أن يكون لديك خطط كبيرة".
في نهاية العديد من القصص ، غالبا ما يكون الشرير الأكبر غير ضار بالبشر ، وحتى رحيم.
لا يستبعد أن الهدف النهائي لإيليا هو "خلق الآلهة" (بمعنى ما ، قوة AGI قابلة للمقارنة مع آلهة الأساطير والأساطير الصينية والأجنبية القديمة والحديثة) ، وقد ذكر أيضا الذكاء الخارق في العديد من المقابلات. إذا كان AGI أو حتى الذكاء الخارق أمرا لا مفر منه ، فقد يرغب في أن يكون أول من يتلامس مع "الآلهة" ، وإذا وجد طريقة ما "لترويض" AGI ، فسيصبح قريبا أقوى شخص في العالم.
بالطبع ، قد لا يكون لدى إيليا هذه الفكرة بعد ، فقد يريد فقط أن يكون "سارق النار" للبشرية في الوقت الحالي. ومع ذلك ، يمكن للناس أن يتغيروا ، خاصة عندما يواجهون إغراءات كبيرة.
في فيلم "المتهاكر التجاوزي" ، كان العالم ويل كاستر صالحا جدا في البداية ، وحملت زوجته وعيه من أجل تجديد حياته ودمجها في ذكاء اصطناعي. في وقت لاحق من القصة ، "ولد ويلكستر من جديد" في الفضاء الإلكتروني وتطور بسرعة ، وسرعان ما تمكن من التحكم في الشبكة المالية البشرية ، وبنقرة من إصبعه ، يمكنه تحويل عشرات المليارات من الدولارات إلى حساب.
في وقت لاحق ، فقد ويلكاس تماما ، وخان الإنسانية في السعي وراء قوته اللانهائية والقضاء على التهديد الذي تشكله عليه البشرية.
إذا حكمنا من خلال المعلومات التي تم الكشف عنها حتى الآن ، فإن AGI لم تعد مزحة حقا. إذا كان هناك احتمال حقيقي بأن تحقق البشرية AGI في غضون بضعة عقود ، فسيكون بالتأكيد أهم شيء في العقود القليلة المقبلة ، أكثر أهمية بمئة مرة من الأسلحة النووية الأصلية.
إنه تحد غير مسبوق لأنواع غير ذكية للسيطرة على شيء أكثر ذكاء من نفسها. **
هينتون ، والد التعلم العميق ، ندم على ما فعله ، وعزى نفسه ذات مرة ، "حتى لو لم أكن أنا ، سيكون هناك شخص آخر". في الواقع ، سيتم فتح AGI ، صندوق "Pandora" ، عاجلا أم آجلا ، وحتى إذا تحمله بعض الأشخاص ، فلن تتمكن مجموعة أخرى من الناس من تحمله.
تماما كما حدث عندما تم إدخال الأسلحة النووية لأول مرة ، يمكن للجميع تقريبا إدراك الخطر على البشرية ، لكن الأمريكيين سيفكرون ، "حتى لو لم تطور الولايات المتحدة أسلحة نووية ، فإن ألمانيا والسوفييت سيطورونها" ، وسيفكر السوفييت ، "الأمريكيون لديهم أسلحة نووية ، والاتحاد السوفيتي سيحصل عليها بالتأكيد". "
وينطبق الشيء نفسه على العديد من المجالات. على سبيل المثال ، الأسلحة البيولوجية ، على الرغم من أن الجميع قد حظرها على السطح ، يجب أن يكون هناك الكثير من الناس يقومون بها سرا. والآخرون سوف "يريحون" أنفسهم ، "حتى لو لم أفعل ذلك ، فإن شخصا آخر سيفعل". "
بالمقارنة مع كل هذه المخاطر ، فإن AGI أكثر خطورة. لأنه سواء كانت أسلحة نووية أو بيولوجية أو كيميائية ، فهي ليست واعية ، وفي النهاية لا تزال في أيدي البشر ، وهذا ليس أكثر من الفرق بين هذه المجموعة من الناس وتلك المجموعة من الناس. ومع ذلك ، بمجرد تحقيق AGI ، لم تعد أشياء كثيرة في أيدي البشر.
هذه القضية مهمة للغاية ، واستنادا إلى المعلومات الحالية ، فهي ملحة بالفعل. بالمقارنة مع ألتمان ، فإن إيليا على الأقل يولي المزيد من الاهتمام وهو أكثر قلقا ، لذلك في دراما قتال القصر هذه من OpenAI ، أقف مع إيليا.