* مصدر الصورة: تم إنشاؤه بواسطة الذكاء الاصطناعي غير محدود *
ملاحظة: يمكن لأي شخص تنزيل البيانات التي تقوم بتحميلها عند إنشاء GPTs بسهولة ...
فقط مطالبتين ، ويمكن أن تؤخذ بعيدا!
على الجانب الآخر ، تم حظر أقرب حليف ل OpenAI ، Microsoft ، بشكل عاجل داخليا ، والأسباب الموضحة على الموقع هي:
نظرا للمخاوف المتعلقة بالأمان والبيانات ، لم تعد العديد من أدوات الذكاء الاصطناعي متاحة للموظفين.
منذ إطلاق الإصدار المخصص من GPT ، شاركت العديد من الآلهة روابط GPT الحية الخاصة بهم.
نتيجة لذلك ، التقط بعض مستخدمي الإنترنت عن طريق الخطأ ملف قاعدة المعرفة خلف أحد GPTs ، وتم الكشف مباشرة عن بيانات رتبة ورواتب العديد من شركات التكنولوجيا الكبرى فيه ...
مع عدد قليل من المطالبات البسيطة ، ستقوم GPTs بتحميلها بطاعة.
قال بعض مستخدمي الإنترنت: هل هذه ثغرة أمنية جديدة؟ بدأ الكثير من الناس في القلق بشأن التخصيص للمؤسسات.
تجدر الإشارة إلى أنه حتى Microsoft ، أقرب حليف ل OpenAI ، قد ألغت مؤقتا الوصول الداخلي إلى ChatGPT **.
يتم تسريب البيانات والمطالبات
كما ذكرنا سابقا ، يمكن للمستخدمين تخصيص هوية الروبوت وميزات اللغة بعمق وبناء قاعدة معارفهم الخاصة.
يتم وصفه ببساطة باللغة الطبيعية تحت إشراف GPT Builder ، الذي يمكنه أتمتة معظم الإعدادات باستثناء قاعدة المعرفة الخاصة به.
يمكن استخدام GPTs المخصصة بنفسك أو يمكن مشاركة الرابط مع الآخرين.
ولكن هنا تكمن المشكلة.
استخدمها أحد المطورين لإنشاء GPT أساسي ل Levels.fyi ، والذي يمكنه تحليل تصور البيانات وفتح الرابط للجمهور.
نتيجة لذلك ، وجد مستخدمو الإنترنت أنه يمكنهم تنزيل الملف بمجرد طرح بضع كلمات.
لفترة من الوقت ، ذهل مستخدمو الإنترنت: يجب أن يكون هذا مقيدا ، أليس كذلك؟
ولكن هناك أيضا أولئك الذين يعتقدون أن هذا ليس خطأ ، ولكن وظيفة له. يجب أن تكون البيانات الموجودة في الملف عامة.
هناك أيضا مستخدمو الإنترنت المتحمسون الذين قدموا الحل مباشرة: القدرة على إلغاء تحديد مترجم الكود عند الإعداد.
ولكن حتى لو لم يتم التقاطها من قبل شخص آخر ، فإن البيانات التي تقوم بتحميلها ستصبح مياه خندق OpenAI.
بالإضافة إلى ذلك ، وجد بعض مستخدمي الإنترنت أنه قد يتم أيضا تسريب نص وصفك الفوري.
ومع ذلك ، هناك حل ، وهو تعيين القاعدة بشكل صريح عند التخصيص ، وبعد ذلك يمكنك حظرها بنجاح.
مايكروسوفت تقيد الوصول إلى ChatGPT داخليا
بالأمس فقط ، بعد 3 أيام من ظهورها لأول مرة ، تم فتح GPTs بالكامل للمستخدمين الذين يدفعون.
أعد OpenAI رسميا بعض الإصدارات المخصصة من الروبوتات على صفحة GPTs للمستخدمين لاستخدامها ، مثل مدرسي الرياضيات ومساعدي الطهي وخبراء التفاوض وما إلى ذلك.
لكن هذا أبعد ما يكون عن إرضاء فضول المستخدمين ، وفي أقل من يوم واحد ، قام المطورون بالفعل بالكثير من الأشياء الغريبة باستخدام هذه الميزة.
جاد وجاد ، هناك من يمكنه مساعدة الناس على أخذ زمام المبادرة لكتابة ومراجعة سيرهم الذاتية.
أكثر حيوية قليلا ، لوحظ أن الكيوبتات تحتوي على "تسجيل كلام الأب" ، والذي يمكن أن يساعد المستخدمين على مقاومة الوعظ المزعج بشكل فعال من PUA.
أكثر ميتافيزيقية قليلا ، هناك أيضا أولئك الذين لديهم أشياء مثل تحليل الشخصية MBTI 16 ، وعرافة بطاقة التارو ، وما إلى ذلك ...
باختصار ، كان الجميع يستمتعون كثيرا.
ومع ذلك ، نظرا لحقيقة أنه لا يزال هناك حد 3 ساعات و 50 قطعة ، فإن العديد من مستخدمي الإنترنت ليس لديهم خيار سوى التنهد أنه من السهل تشغيل هذا الحد كل يوم عند لعب GPTs.
ومع ذلك ، لا يزال لدى بعض مستخدمي الإنترنت تحفظات ، معتقدين أن هذا سيكون مثل ذروة ظهور ChatGPT من قبل ، وبعد ذلك سيعود تدريجيا إلى فترة هادئة.
في الوقت نفسه ، أعرب ماسك بوضوح عن موقفه تجاه GPTs ، أي أنه يحتقر GPTs.
اقتبس مباشرة تغريدة ألتمان عن فرك جروك ب GPTs ، وفسر بشكل غير رسمي "GPTs" على أنها "GPT-Snore".
بصفته الرئيس وراء نموذج كبير آخر ، Grok ، لا يبدو من غير المعتاد بالنسبة ل Musk ، الذي كان دائما منفتح الفم ، أن يكون يين ويانغ.
يجب أن يكون الشيء الأكثر انفتاحا للعين هو أول أمس - أي اليوم الذي تم فيه اختراق OpenAI ، حظرت Microsoft ذات مرة الموظفين من استخدام ChatGPT.
نعم ، هذا صحيح ، مايكروسوفت ، أكبر شريك ومساهم في OpenAI ، منعت الموظفين من الوصول إلى ChatGPT.
يذكر أن مايكروسوفت كتبت على موقعها الداخلي:
نظرا للمخاوف المتعلقة بالأمان والبيانات ، لن تكون بعض أدوات الذكاء الاصطناعي متاحة للموظفين في المستقبل.
ما الذكاء الاصطناعي الأدوات هي تلك التي يتم تسميتها بواسطة ChatGPT وموقع التصميم Canva.
بعد ذلك ، تم حظر ChatGPT على الأجهزة الداخلية لموظفي Microsoft.
ليس ذلك فحسب ، فقد قالت Microsoft أيضا في ذلك الوقت أنه على الرغم من أننا استثمرنا في OpenAI ، بالنسبة لأفراد Microsoft ، فإن ChatGPT هي أداة تابعة لجهة خارجية.
يجب على الموظفين استخدامه بنفس الحذر الذي يفعلونه عند استخدام أدوات الذكاء الاصطناعي الخارجية مثل Midjourney.
ومع ذلك ، فإن الحظر لم يدم طويلا.
قريبا ، تمت استعادة وصول الموظف إلى ChatGPT ، ويقول البيان الرسمي إنه كان مجرد سوء فهم جميل ، لكنني ما زلت أوصي ب Bing (doge) للجميع.
نحن نختبر نظام التحكم في المحطة الطرفية ل LLM وقمنا بتشغيل هذا الخيار عن غير قصد لجميع المستخدمين. بعد وقت قصير من اكتشاف الخطأ ، استأنفنا الخدمة. > >كما قلنا من قبل ، نشجع موظفينا وعملائنا على استخدام خدمات مثل Bing Chat Enterprise و ChatGPT Enterprise التي تتمتع بمستوى أعلى من حماية الخصوصية والأمان.
لا أعرف ما إذا كان ذلك لكسر شائعات "المظهر الجيد" في العالم الخارجي ، كما قام Ultraman شخصيا بالتغريد لإثبات أن OpenAI لم يكن لديه تقلبات نفسية بسبب هذا الحادث ، كما أن OpenAI المشاع حظر Microsoft 365 كرد فعل هو هراء أكثر.
ولكن في هذه السلسلة من الحوادث ، من المستحيل تجنب مسألة "الخصوصية" و "أمن البيانات".
بمعنى آخر ، الآن ، لم يجد العمالقة والشركات فقط أن استخدام ChatGPT / GPTs ينطوي على خطر خفي يتمثل في "مشاركة البيانات الداخلية" ، كما ذكر أعلاه ، فقد وجد رواد الأعمال والمطورون وحتى المستخدمون العاديون هذه المشكلة أمامهم.
لذا فإن جولة جديدة من المناقشة على قدم وساق:
إذا كان لا يمكن ضمان خصوصية البيانات والمستندات التي تم تحميلها من قبل أي مستخدم على GPTs ، فكيف يمكنهم اتخاذ الخطوة التالية في التسويق؟
بالنسبة إلى OpenAI ، التي تريد إنشاء "متجر تطبيقات" في عصر ChatGPT ، لا يبدو هذا جيدا.
لكنها بدأت للتو ، لذلك دعونا نلقي نظرة على علاجات المتابعة الخاصة ب OpenAI للسماح للرصاص بالتطاير لفترة من الوقت.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تم حظر ChatGPT مؤخرا داخليا بواسطة Microsoft!GPTs خطأ جديد: يمكن أخذ البيانات بعيدا من خلال مطالبتين فقط
المصدر: البعد الكمي
ملاحظة: يمكن لأي شخص تنزيل البيانات التي تقوم بتحميلها عند إنشاء GPTs بسهولة ...
فقط مطالبتين ، ويمكن أن تؤخذ بعيدا!
نتيجة لذلك ، التقط بعض مستخدمي الإنترنت عن طريق الخطأ ملف قاعدة المعرفة خلف أحد GPTs ، وتم الكشف مباشرة عن بيانات رتبة ورواتب العديد من شركات التكنولوجيا الكبرى فيه ...
قال بعض مستخدمي الإنترنت: هل هذه ثغرة أمنية جديدة؟ بدأ الكثير من الناس في القلق بشأن التخصيص للمؤسسات.
تجدر الإشارة إلى أنه حتى Microsoft ، أقرب حليف ل OpenAI ، قد ألغت مؤقتا الوصول الداخلي إلى ChatGPT **.
يتم تسريب البيانات والمطالبات
كما ذكرنا سابقا ، يمكن للمستخدمين تخصيص هوية الروبوت وميزات اللغة بعمق وبناء قاعدة معارفهم الخاصة.
يتم وصفه ببساطة باللغة الطبيعية تحت إشراف GPT Builder ، الذي يمكنه أتمتة معظم الإعدادات باستثناء قاعدة المعرفة الخاصة به.
يمكن استخدام GPTs المخصصة بنفسك أو يمكن مشاركة الرابط مع الآخرين.
استخدمها أحد المطورين لإنشاء GPT أساسي ل Levels.fyi ، والذي يمكنه تحليل تصور البيانات وفتح الرابط للجمهور.
لفترة من الوقت ، ذهل مستخدمو الإنترنت: يجب أن يكون هذا مقيدا ، أليس كذلك؟
بالإضافة إلى ذلك ، وجد بعض مستخدمي الإنترنت أنه قد يتم أيضا تسريب نص وصفك الفوري.
مايكروسوفت تقيد الوصول إلى ChatGPT داخليا
بالأمس فقط ، بعد 3 أيام من ظهورها لأول مرة ، تم فتح GPTs بالكامل للمستخدمين الذين يدفعون.
أعد OpenAI رسميا بعض الإصدارات المخصصة من الروبوتات على صفحة GPTs للمستخدمين لاستخدامها ، مثل مدرسي الرياضيات ومساعدي الطهي وخبراء التفاوض وما إلى ذلك.
لكن هذا أبعد ما يكون عن إرضاء فضول المستخدمين ، وفي أقل من يوم واحد ، قام المطورون بالفعل بالكثير من الأشياء الغريبة باستخدام هذه الميزة.
جاد وجاد ، هناك من يمكنه مساعدة الناس على أخذ زمام المبادرة لكتابة ومراجعة سيرهم الذاتية.
أكثر حيوية قليلا ، لوحظ أن الكيوبتات تحتوي على "تسجيل كلام الأب" ، والذي يمكن أن يساعد المستخدمين على مقاومة الوعظ المزعج بشكل فعال من PUA.
أكثر ميتافيزيقية قليلا ، هناك أيضا أولئك الذين لديهم أشياء مثل تحليل الشخصية MBTI 16 ، وعرافة بطاقة التارو ، وما إلى ذلك ...
ومع ذلك ، نظرا لحقيقة أنه لا يزال هناك حد 3 ساعات و 50 قطعة ، فإن العديد من مستخدمي الإنترنت ليس لديهم خيار سوى التنهد أنه من السهل تشغيل هذا الحد كل يوم عند لعب GPTs.
اقتبس مباشرة تغريدة ألتمان عن فرك جروك ب GPTs ، وفسر بشكل غير رسمي "GPTs" على أنها "GPT-Snore".
يجب أن يكون الشيء الأكثر انفتاحا للعين هو أول أمس - أي اليوم الذي تم فيه اختراق OpenAI ، حظرت Microsoft ذات مرة الموظفين من استخدام ChatGPT.
نعم ، هذا صحيح ، مايكروسوفت ، أكبر شريك ومساهم في OpenAI ، منعت الموظفين من الوصول إلى ChatGPT.
يذكر أن مايكروسوفت كتبت على موقعها الداخلي:
ما الذكاء الاصطناعي الأدوات هي تلك التي يتم تسميتها بواسطة ChatGPT وموقع التصميم Canva.
بعد ذلك ، تم حظر ChatGPT على الأجهزة الداخلية لموظفي Microsoft.
ليس ذلك فحسب ، فقد قالت Microsoft أيضا في ذلك الوقت أنه على الرغم من أننا استثمرنا في OpenAI ، بالنسبة لأفراد Microsoft ، فإن ChatGPT هي أداة تابعة لجهة خارجية.
يجب على الموظفين استخدامه بنفس الحذر الذي يفعلونه عند استخدام أدوات الذكاء الاصطناعي الخارجية مثل Midjourney.
قريبا ، تمت استعادة وصول الموظف إلى ChatGPT ، ويقول البيان الرسمي إنه كان مجرد سوء فهم جميل ، لكنني ما زلت أوصي ب Bing (doge) للجميع.
لا أعرف ما إذا كان ذلك لكسر شائعات "المظهر الجيد" في العالم الخارجي ، كما قام Ultraman شخصيا بالتغريد لإثبات أن OpenAI لم يكن لديه تقلبات نفسية بسبب هذا الحادث ، كما أن OpenAI المشاع حظر Microsoft 365 كرد فعل هو هراء أكثر.
بمعنى آخر ، الآن ، لم يجد العمالقة والشركات فقط أن استخدام ChatGPT / GPTs ينطوي على خطر خفي يتمثل في "مشاركة البيانات الداخلية" ، كما ذكر أعلاه ، فقد وجد رواد الأعمال والمطورون وحتى المستخدمون العاديون هذه المشكلة أمامهم.
لذا فإن جولة جديدة من المناقشة على قدم وساق:
إذا كان لا يمكن ضمان خصوصية البيانات والمستندات التي تم تحميلها من قبل أي مستخدم على GPTs ، فكيف يمكنهم اتخاذ الخطوة التالية في التسويق؟
لكنها بدأت للتو ، لذلك دعونا نلقي نظرة على علاجات المتابعة الخاصة ب OpenAI للسماح للرصاص بالتطاير لفترة من الوقت.