Примечание: Данные, которые вы загружаете при создании GPT, могут быть легко загружены кем угодно...
Всего две подсказки, и вас можно забрать!
С другой стороны, ближайший союзник OpenAI, Microsoft, когда-то был срочно забанен внутри компании, и причины, указанные на веб-сайте, следующие:
Из-за проблем с безопасностью и данными многие инструменты искусственного интеллекта больше не доступны сотрудникам.
С момента запуска кастомизированной версии GPT различные боги делились своими живыми ссылками на GPT.
В результате некоторые пользователи сети случайно подобрали файл базы знаний за одним из GPT, и данные о ранге и зарплате различных крупных технологических компаний в нем были напрямую раскрыты...
С помощью всего нескольких простых подсказок GPT послушно загрузит их.
Некоторые пользователи сети спросили: Это новая уязвимость в системе безопасности? Многие люди начали беспокоиться о настройке для предприятий.
Стоит отметить, что даже Microsoft, ближайший союзник OpenAI, временно отменил внутренний доступ к ChatGPT.
Утечка данных и подсказок
Как уже говорилось ранее, пользователи могут глубоко настраивать идентификацию бота, языковые функции и создавать собственную базу знаний.
Проще говоря, описано на естественном языке под руководством GPT Builder, который может автоматизировать большинство настроек, кроме собственной базы знаний.
Пользовательские GPT можно использовать самостоятельно или поделиться ссылкой с другими.
Но в этом и заключается проблема.
Один разработчик использовал их для создания базового GPT для Levels.fyi, который может анализировать визуализацию данных и открывать ссылку для общественности.
В результате пользователи сети обнаружили, что они могут скачать файл, просто спросив несколько слов.
Какое-то время пользователи сети были ошеломлены: это должно быть ограничительно, верно?
Но есть и те, кто считает, что это не баг, а его функция. Данные в файле должны быть публичными.
Есть и энтузиасты-пользователи сети, которые прямо дали решение: возможность снять галочку с интерпретатора кода при настройке.
Но даже если их не возьмет кто-то другой, данные, которые вы загружаете, станут водой рва OpenAI.
Кроме того, некоторые пользователи сети обнаружили, что текст описания вашей подсказки также может утекать.
Однако есть решение, которое заключается в том, чтобы явно установить правило при настройке, а затем вы можете успешно его заблокировать.
Microsoft ограничивает внутренний доступ к ChatGPT
Буквально вчера, через 3 дня после своего дебюта, GPT был полностью открыт для платных пользователей.
OpenAI официально подготовила несколько кастомизированных версий роботов на странице GPT для пользователей, таких как репетиторы по математике, помощники по приготовлению, эксперты по переговорам и т. д.
Но это далеко не удовлетворит любопытство пользователей, и менее чем за сутки разработчики уже сделали много странных вещей с этой функцией.
Серьезные и серьезные, есть те, кто может помочь людям проявить инициативу в написании и пересмотре резюме.
Было замечено, что кубиты имеют «оценку речи папы», которая может помочь пользователям эффективно бороться с надоедливыми проповедями PUA.
Немного более метафизические, есть и те, у которых есть такие вещи, как анализ личности MBTI 16, гадание на картах Таро и т. д.
Короче говоря, всем было очень весело.
Однако из-за того, что все еще существует ограничение в 3 часа и 50 штук, у многих пользователей сети нет другого выбора, кроме как вздыхать, что легко запускать этот лимит каждый день при игре в GPT.
Однако некоторые пользователи сети все еще сомневаются, полагая, что это будет похоже на пик появления ChatGPT раньше, а затем он постепенно вернется к периоду затишья.
При этом Маск четко выразил свое отношение к GPT, то есть презирает GPT.
Он прямо процитировал твит Альтмана о том, что он натирает Грока GPT, и бесцеремонно интерпретировал «GPT» как «GPT-Храп».
Как босс другой крупной модели, Grok, не кажется слишком необычным для Маска, который всегда был открыт для рта, быть таким инь и янь.
Самым поучительным событием должен стать позавчерашний день - то есть день, когда был взломан OpenAI, Microsoft когда-то запретила сотрудникам использовать ChatGPT.
Да-да, именно так, Microsoft, крупнейший партнер и акционер OpenAI, запретила сотрудникам доступ к ChatGPT.
Сообщается, что Microsoft написала на своем внутреннем сайте:
Из-за проблем с безопасностью и данными некоторые инструменты искусственного интеллекта будут недоступны сотрудникам в будущем.
Какие инструменты искусственного интеллекта называют ChatGPT и веб-сайт дизайна Canva.
Тогда ChatGPT был заблокирован на внутренних устройствах сотрудников Microsoft.
Мало того, Microsoft также заявила в то время, что, хотя мы инвестировали в OpenAI, для людей Microsoft ChatGPT является сторонним инструментом.
Сотрудники должны использовать его с той же осторожностью, что и при использовании внешних инструментов ИИ, таких как Midjourney.
Однако запрет продлился недолго.
Вскоре доступ сотрудников к ChatGPT был восстановлен, и в официальном заявлении говорится, что это было просто красивое недоразумение, но я все равно рекомендую Bing (doge) всем.
Мы тестируем систему управления терминалом LLM и непреднамеренно включили эту опцию для всех пользователей. Вскоре после обнаружения ошибки мы возобновили обслуживание. > >Как мы уже говорили ранее, мы призываем наших сотрудников и клиентов использовать такие сервисы, как Bing Chat Enterprise и ChatGPT Enterprise, которые имеют более высокий уровень защиты конфиденциальности и безопасности.
Не знаю, стоит ли это для того, чтобы развеять слухи о «красивой внешности» во внешнем мире, Ультрамен также лично написал в Твиттере, чтобы доказать, что у OpenAI не было психологических колебаний из-за этого инцидента, а слухи о запрете OpenAI Microsoft 365 в качестве ответа — еще большая чушь.
Но в этой череде инцидентов невозможно избежать вопроса «конфиденциальности» и «безопасности данных».
Другими словами, теперь не только гиганты и компании обнаружили, что использование ChatGPT/GPT имеет скрытую опасность «внутреннего обмена данными», как уже говорилось выше, предприниматели, разработчики и даже обычные пользователи также столкнулись с этой проблемой.
Итак, новый виток дискуссии в самом разгаре:
Если данные и документы, загруженные любым пользователем на GPT, не могут быть гарантированно конфиденциальными, как они могут сделать следующий шаг в коммерциализации?
Для OpenAI, которая хочет создать «App Store» в эпоху ChatGPT, это не кажется хорошим.
Но это только начало, поэтому давайте взглянем на последующие средства OpenAI, чтобы позволить пулям летать какое-то время.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
ChatGPT недавно был забанен внутри Microsoft!GPTs новая ошибка: данные могут быть удалены всего двумя запросами
Источник: Quantum Dimension
Примечание: Данные, которые вы загружаете при создании GPT, могут быть легко загружены кем угодно...
Всего две подсказки, и вас можно забрать!
В результате некоторые пользователи сети случайно подобрали файл базы знаний за одним из GPT, и данные о ранге и зарплате различных крупных технологических компаний в нем были напрямую раскрыты...
Некоторые пользователи сети спросили: Это новая уязвимость в системе безопасности? Многие люди начали беспокоиться о настройке для предприятий.
Стоит отметить, что даже Microsoft, ближайший союзник OpenAI, временно отменил внутренний доступ к ChatGPT.
Утечка данных и подсказок
Как уже говорилось ранее, пользователи могут глубоко настраивать идентификацию бота, языковые функции и создавать собственную базу знаний.
Проще говоря, описано на естественном языке под руководством GPT Builder, который может автоматизировать большинство настроек, кроме собственной базы знаний.
Пользовательские GPT можно использовать самостоятельно или поделиться ссылкой с другими.
Один разработчик использовал их для создания базового GPT для Levels.fyi, который может анализировать визуализацию данных и открывать ссылку для общественности.
Какое-то время пользователи сети были ошеломлены: это должно быть ограничительно, верно?
Кроме того, некоторые пользователи сети обнаружили, что текст описания вашей подсказки также может утекать.
Microsoft ограничивает внутренний доступ к ChatGPT
Буквально вчера, через 3 дня после своего дебюта, GPT был полностью открыт для платных пользователей.
OpenAI официально подготовила несколько кастомизированных версий роботов на странице GPT для пользователей, таких как репетиторы по математике, помощники по приготовлению, эксперты по переговорам и т. д.
Но это далеко не удовлетворит любопытство пользователей, и менее чем за сутки разработчики уже сделали много странных вещей с этой функцией.
Серьезные и серьезные, есть те, кто может помочь людям проявить инициативу в написании и пересмотре резюме.
Было замечено, что кубиты имеют «оценку речи папы», которая может помочь пользователям эффективно бороться с надоедливыми проповедями PUA.
Немного более метафизические, есть и те, у которых есть такие вещи, как анализ личности MBTI 16, гадание на картах Таро и т. д.
Однако из-за того, что все еще существует ограничение в 3 часа и 50 штук, у многих пользователей сети нет другого выбора, кроме как вздыхать, что легко запускать этот лимит каждый день при игре в GPT.
Он прямо процитировал твит Альтмана о том, что он натирает Грока GPT, и бесцеремонно интерпретировал «GPT» как «GPT-Храп».
Самым поучительным событием должен стать позавчерашний день - то есть день, когда был взломан OpenAI, Microsoft когда-то запретила сотрудникам использовать ChatGPT.
Да-да, именно так, Microsoft, крупнейший партнер и акционер OpenAI, запретила сотрудникам доступ к ChatGPT.
Сообщается, что Microsoft написала на своем внутреннем сайте:
Какие инструменты искусственного интеллекта называют ChatGPT и веб-сайт дизайна Canva.
Тогда ChatGPT был заблокирован на внутренних устройствах сотрудников Microsoft.
Мало того, Microsoft также заявила в то время, что, хотя мы инвестировали в OpenAI, для людей Microsoft ChatGPT является сторонним инструментом.
Сотрудники должны использовать его с той же осторожностью, что и при использовании внешних инструментов ИИ, таких как Midjourney.
Вскоре доступ сотрудников к ChatGPT был восстановлен, и в официальном заявлении говорится, что это было просто красивое недоразумение, но я все равно рекомендую Bing (doge) всем.
Не знаю, стоит ли это для того, чтобы развеять слухи о «красивой внешности» во внешнем мире, Ультрамен также лично написал в Твиттере, чтобы доказать, что у OpenAI не было психологических колебаний из-за этого инцидента, а слухи о запрете OpenAI Microsoft 365 в качестве ответа — еще большая чушь.
Другими словами, теперь не только гиганты и компании обнаружили, что использование ChatGPT/GPT имеет скрытую опасность «внутреннего обмена данными», как уже говорилось выше, предприниматели, разработчики и даже обычные пользователи также столкнулись с этой проблемой.
Итак, новый виток дискуссии в самом разгаре:
Если данные и документы, загруженные любым пользователем на GPT, не могут быть гарантированно конфиденциальными, как они могут сделать следующий шаг в коммерциализации?
Но это только начало, поэтому давайте взглянем на последующие средства OpenAI, чтобы позволить пулям летать какое-то время.