Примітка: Дані, які ви завантажуєте під час створення GPT, може легко завантажити будь-хто...
Всього дві підказки, і вас можуть забрати!
З іншого боку, найближчий союзник OpenAI, Microsoft, колись був терміново заблокований всередині компанії, і причини, показані на веб-сайті, такі:
Через проблеми з безпекою та даними багато інструментів штучного інтелекту більше не доступні для співробітників.
З моменту запуску кастомізованої версії GPT різні боги ділилися своїми посиланнями на GPT у реальному часі.
В результаті деякі користувачі мережі випадково підібрали файл бази знань за одним із GPT, і дані про ранг і зарплату різних великих технологічних компаній у ньому були безпосередньо розкриті...
За допомогою лише кількох простих підказок GPT слухняно завантажать їх.
Деякі користувачі мережі сказали: Це нова вразливість безпеки? Багато людей почали турбуватися про кастомізацію для підприємств.
Варто зазначити, що навіть Microsoft, найближчий союзник OpenAI, тимчасово скасувала внутрішній доступ до ChatGPT.
Витік даних та підказок
Як зазначалося раніше, користувачі можуть глибоко налаштувати ідентичність бота, мовні особливості та створити власну базу знань.
Просто описується природною мовою під керівництвом GPT Builder, який може автоматизувати більшість налаштувань, крім власної бази знань.
Налаштовані GPT можна використовувати самостійно або посиланням поділитися з іншими.
Але в цьому і криється проблема.
Один розробник використав їх для створення базового GPT для Levels.fyi, який може аналізувати візуалізацію даних і відкривати посилання для громадськості.
В результаті користувачі мережі виявили, що вони можуть завантажити файл, просто запитавши кілька слів.
На деякий час користувачі мережі були приголомшені: це має бути обмежувальним, чи не так?
Але є й ті, хто думає, що це не баг, а його функція. Дані у файлі мають бути загальнодоступними.
Є й захоплені користувачі мережі, які прямо дали рішення: можливість зняти галочку з інтерпретатора коду під час налаштування.
Але навіть якщо це не буде зроблено кимось іншим, дані, які ви завантажите, стануть водою рову OpenAI.
Крім того, деякі користувачі мережі виявили, що текст вашого опису підказки також може бути витік.
Однак є рішення, яке полягає в тому, щоб явно встановити правило при налаштуванні, а потім ви зможете успішно його заблокувати.
Microsoft обмежує внутрішній доступ до ChatGPT
Буквально вчора, через 3 дні після свого дебюту, GPT був повністю відкритий для платних користувачів.
OpenAI офіційно підготувала кілька кастомізованих версій роботів на сторінці GPTs для використання користувачами, таких як репетитори з математики, помічники кухаря, експерти з переговорів тощо.
Але це далеко не задовольняє цікавість користувачів, і менш ніж за добу розробники вже зробили багато дивних речей з цією функцією.
Серйозні і серйозні, є ті, хто може допомогти людям проявити ініціативу в написанні і перегляді своїх резюме.
Було помічено, що кубіти трохи жвавіші, мають «оцінку татової мови», що може допомогти користувачам ефективно боротися з надокучливими проповідями PUA.
Трохи більш метафізичні, є також ті, хто має такі речі, як аналіз особистості MBTI 16, ворожіння на картах Таро тощо...
Словом, всім було дуже весело.
Однак через те, що все ще існує обмеження в 3 години 50 штук, багатьом користувачам мережі нічого не залишається, як зітхати, що легко спрацьовувати цей ліміт щодня під час гри в GPT.
Однак деякі користувачі мережі все ще мають застереження, вважаючи, що це буде як пік появи ChatGPT раніше, а потім поступово повернеться до спокійного періоду.
При цьому Маск чітко висловив своє ставлення до GPT, тобто зневажає GPT.
Він прямо процитував твіт Альтмана про те, як він натирав Грока GPT, і безцеремонно інтерпретував «GPT» як «GPT-Snore».
Як бос іншої великої моделі, Грока, не здається надто незвичайним, щоб Маск, який завжди був з відкритим ротом, був таким інь і ян.
Найяскравішим має бути позавчорашній день – тобто день, коли OpenAI зламали, Microsoft свого часу заборонила співробітникам використовувати ChatGPT.
Так, саме так, Microsoft, найбільший партнер та акціонер OpenAI, заборонила співробітникам доступ до ChatGPT.
Повідомляється, що Microsoft написала на своєму внутрішньому сайті:
Через проблеми з безпекою та даними деякі інструменти штучного інтелекту не будуть доступні співробітникам у майбутньому.
Які інструменти штучного інтелекту називають ChatGPT та дизайнерський сайт Canva.
Тоді ChatGPT заблокували на внутрішніх пристроях співробітників Microsoft.
Мало того, Microsoft також тоді заявила, що, хоча ми інвестували в OpenAI, для людей Microsoft ChatGPT є стороннім інструментом.
Співробітники повинні використовувати його з такою ж обережністю, як і під час використання зовнішніх інструментів штучного інтелекту, таких як Midjourney.
Однак заборона тривала недовго.
Незабаром доступ співробітників до ChatGPT був відновлений, і в офіційній заяві йдеться, що це було просто красиве непорозуміння, але я все одно всім рекомендую Bing (doge).
Ми тестуємо систему керування терміналами LLM і ненавмисно ввімкнули цю опцію для всіх користувачів. Невдовзі після виявлення помилки ми відновили обслуговування. > >Як ми вже говорили раніше, ми заохочуємо наших співробітників і клієнтів використовувати такі сервіси, як Bing Chat Enterprise і ChatGPT Enterprise, які мають вищий рівень захисту конфіденційності та безпеки.
Я не знаю, чи це для того, щоб розвіяти чутки про «гарну зовнішність» у зовнішньому світі, Ультрамен також особисто написав у Твіттері, щоб довести, що OpenAI не мала психологічних коливань через цей інцидент, а чутки, що OpenAI заборонила Microsoft 365 у відповідь, є ще більшою нісенітницею.
Але в цій низці інцидентів неможливо уникнути питання «конфіденційності» та «безпеки даних».
Іншими словами, тепер не тільки гіганти та компанії виявили, що використання ChatGPT/GPT має приховану небезпеку «внутрішнього обміну даними», як було сказано вище, підприємці, розробники та навіть звичайні користувачі також виявили цю проблему перед собою.
Тож новий виток дискусії в самому розпалі:
Якщо дані та документи, завантажені будь-яким користувачем на GPT, не можуть бути гарантовано приватними, як вони можуть зробити наступний крок у комерціалізації?
Для OpenAI, яка хоче створити «App Store» в епоху ChatGPT, це не здається хорошим.
Але все тільки починається, тому давайте подивимося на подальші засоби OpenAI, щоб дозволити кулям полетіти на деякий час.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Нещодавно ChatGPT був внутрішньо забанений Microsoft!Нова помилка GPT: дані можна забрати лише двома підказками
Джерело: Quantum Dimension
Примітка: Дані, які ви завантажуєте під час створення GPT, може легко завантажити будь-хто...
Всього дві підказки, і вас можуть забрати!
В результаті деякі користувачі мережі випадково підібрали файл бази знань за одним із GPT, і дані про ранг і зарплату різних великих технологічних компаній у ньому були безпосередньо розкриті...
Деякі користувачі мережі сказали: Це нова вразливість безпеки? Багато людей почали турбуватися про кастомізацію для підприємств.
Варто зазначити, що навіть Microsoft, найближчий союзник OpenAI, тимчасово скасувала внутрішній доступ до ChatGPT.
Витік даних та підказок
Як зазначалося раніше, користувачі можуть глибоко налаштувати ідентичність бота, мовні особливості та створити власну базу знань.
Просто описується природною мовою під керівництвом GPT Builder, який може автоматизувати більшість налаштувань, крім власної бази знань.
Налаштовані GPT можна використовувати самостійно або посиланням поділитися з іншими.
Один розробник використав їх для створення базового GPT для Levels.fyi, який може аналізувати візуалізацію даних і відкривати посилання для громадськості.
На деякий час користувачі мережі були приголомшені: це має бути обмежувальним, чи не так?
Крім того, деякі користувачі мережі виявили, що текст вашого опису підказки також може бути витік.
Microsoft обмежує внутрішній доступ до ChatGPT
Буквально вчора, через 3 дні після свого дебюту, GPT був повністю відкритий для платних користувачів.
OpenAI офіційно підготувала кілька кастомізованих версій роботів на сторінці GPTs для використання користувачами, таких як репетитори з математики, помічники кухаря, експерти з переговорів тощо.
Але це далеко не задовольняє цікавість користувачів, і менш ніж за добу розробники вже зробили багато дивних речей з цією функцією.
Серйозні і серйозні, є ті, хто може допомогти людям проявити ініціативу в написанні і перегляді своїх резюме.
Було помічено, що кубіти трохи жвавіші, мають «оцінку татової мови», що може допомогти користувачам ефективно боротися з надокучливими проповідями PUA.
Трохи більш метафізичні, є також ті, хто має такі речі, як аналіз особистості MBTI 16, ворожіння на картах Таро тощо...
Однак через те, що все ще існує обмеження в 3 години 50 штук, багатьом користувачам мережі нічого не залишається, як зітхати, що легко спрацьовувати цей ліміт щодня під час гри в GPT.
Він прямо процитував твіт Альтмана про те, як він натирав Грока GPT, і безцеремонно інтерпретував «GPT» як «GPT-Snore».
Найяскравішим має бути позавчорашній день – тобто день, коли OpenAI зламали, Microsoft свого часу заборонила співробітникам використовувати ChatGPT.
Так, саме так, Microsoft, найбільший партнер та акціонер OpenAI, заборонила співробітникам доступ до ChatGPT.
Повідомляється, що Microsoft написала на своєму внутрішньому сайті:
Які інструменти штучного інтелекту називають ChatGPT та дизайнерський сайт Canva.
Тоді ChatGPT заблокували на внутрішніх пристроях співробітників Microsoft.
Мало того, Microsoft також тоді заявила, що, хоча ми інвестували в OpenAI, для людей Microsoft ChatGPT є стороннім інструментом.
Співробітники повинні використовувати його з такою ж обережністю, як і під час використання зовнішніх інструментів штучного інтелекту, таких як Midjourney.
Незабаром доступ співробітників до ChatGPT був відновлений, і в офіційній заяві йдеться, що це було просто красиве непорозуміння, але я все одно всім рекомендую Bing (doge).
Я не знаю, чи це для того, щоб розвіяти чутки про «гарну зовнішність» у зовнішньому світі, Ультрамен також особисто написав у Твіттері, щоб довести, що OpenAI не мала психологічних коливань через цей інцидент, а чутки, що OpenAI заборонила Microsoft 365 у відповідь, є ще більшою нісенітницею.
Іншими словами, тепер не тільки гіганти та компанії виявили, що використання ChatGPT/GPT має приховану небезпеку «внутрішнього обміну даними», як було сказано вище, підприємці, розробники та навіть звичайні користувачі також виявили цю проблему перед собою.
Тож новий виток дискусії в самому розпалі:
Якщо дані та документи, завантажені будь-яким користувачем на GPT, не можуть бути гарантовано приватними, як вони можуть зробити наступний крок у комерціалізації?
Але все тільки починається, тому давайте подивимося на подальші засоби OpenAI, щоб дозволити кулям полетіти на деякий час.