Remarque : Les données que vous téléchargez lorsque vous créez des GPT peuvent être facilement téléchargées par n’importe qui...
Juste deux invites, et vous pouvez être emporté !
De l’autre côté, le plus proche allié d’OpenAI, Microsoft, a déjà été banni d’urgence en interne, et les raisons indiquées sur le site Web sont les suivantes :
En raison de problèmes de sécurité et de données, de nombreux outils d’IA ne sont plus disponibles pour les employés.
Depuis le lancement de la version personnalisée de GPT, divers dieux ont partagé leurs liens en direct avec GPT.
En conséquence, certains internautes ont accidentellement récupéré le fichier de la base de connaissances derrière l’un des GPT, et les données du rang et du salaire de diverses grandes entreprises technologiques qui s’y trouvaient ont été directement exposées...
Avec seulement quelques invites simples, les GPT les téléchargeront docilement.
Certains internautes ont déclaré : S’agit-il d’une nouvelle faille de sécurité ? Beaucoup de gens ont commencé à s’inquiéter de la personnalisation pour les entreprises.
Il convient de noter que même Microsoft, le plus proche allié d’OpenAI, a temporairement annulé l’accès interne à ChatGPT.
Les données et les invites sont divulguées
Comme indiqué précédemment, les utilisateurs peuvent personnaliser en profondeur l’identité du bot, les fonctionnalités linguistiques et créer leur propre base de connaissances.
Simplement décrit en langage naturel sous la direction de GPT Builder, qui peut automatiser la plupart des paramètres, à l’exception de sa propre base de connaissances.
Les GPT personnalisés peuvent être utilisés par vous-même ou le lien peut être partagé avec d’autres.
Mais c’est là que le bât blesse.
Un développeur les a utilisés pour créer un GPT de base pour Levels.fyi, qui peut analyser la visualisation des données et ouvrir le lien au public.
En conséquence, les internautes ont découvert qu’ils pouvaient télécharger le fichier simplement en demandant quelques mots.
Pendant un certain temps, les internautes ont été stupéfaits : cela devrait être restrictif, non ?
Mais il y a aussi ceux qui pensent que ce n’est pas un bug, mais une fonction de lui. Les données contenues dans le fichier doivent être publiques.
Il y a aussi des internautes enthousiastes qui ont directement donné la solution : la possibilité de décocher l’interpréteur de code lors de la mise en place.
Mais même si elles ne sont pas prises par quelqu’un d’autre, les données que vous téléchargez deviendront l’eau des douves d’OpenAI.
De plus, certains internautes ont constaté que le texte de votre description d’invite pouvait également être divulgué.
Cependant, il existe une solution, qui consiste à définir explicitement la règle lors de la personnalisation, puis à la bloquer avec succès.
Microsoft restreint l’accès à ChatGPT en interne
Pas plus tard qu’hier, 3 jours après ses débuts, GPT a été entièrement ouvert aux utilisateurs payants.
OpenAI a officiellement préparé des versions personnalisées de robots sur la page GPT pour que les utilisateurs puissent les utiliser, tels que des tuteurs en mathématiques, des assistants de cuisine, des experts en négociation, etc.
Mais c’est loin de satisfaire la curiosité des utilisateurs, et en moins d’une journée, les développeurs ont déjà fait beaucoup de choses bizarres avec cette fonctionnalité.
Sérieux et sérieux, il y a ceux qui peuvent aider les gens à prendre l’initiative de rédiger et de réviser leur CV.
Un peu plus vivants, les qubits ont été observés comme ayant une « notation de la parole de papa », ce qui peut aider les utilisateurs à lutter efficacement contre la prédication PUA ennuyeuse.
Un peu plus métaphysiques, il y a aussi ceux qui ont des choses comme l’analyse de personnalité MBTI 16, la divination par carte de tarot, etc...
Bref, tout le monde s’est bien amusé.
Cependant, en raison du fait qu’il y a toujours une limite de 3 heures et 50 pièces, de nombreux internautes n’ont pas d’autre choix que de soupirer qu’il est facile de déclencher cette limite tous les jours lorsqu’ils jouent à des GPT.
Cependant, certains internautes ont encore des réserves, estimant que ce sera comme le pic de l’apparition de ChatGPT auparavant, puis qu’il reviendra progressivement à une période calme.
Dans le même temps, Musk a clairement exprimé son attitude envers les GPT, c’est-à-dire qu’il les dédaigne.
Il a directement cité le tweet d’Altman sur le frottement de Grok avec des GPT, et a interprété sans ménagement « GPT » comme « GPT-Snore ».
En tant que patron d’un autre grand mannequin, Grok, il ne semble pas trop inhabituel pour Musk, qui a toujours été bouche bée, d’être si yin et yang.
La chose la plus révélatrice doit être avant-hier - c’est-à-dire le jour où OpenAI a été piraté, Microsoft a déjà interdit aux employés d’utiliser ChatGPT.
Oui, c’est vrai, Microsoft, le plus grand partenaire et actionnaire d’OpenAI, a interdit aux employés d’accéder à ChatGPT.
Il est rapporté que Microsoft a écrit sur son site Web interne :
Pour des raisons de sécurité et de données, certains outils d’IA ne seront plus disponibles pour les employés à l’avenir.
Quels sont les outils d’IA qui sont nommés par ChatGPT et le site Web de conception Canva.
Ensuite, ChatGPT a été bloqué sur les appareils internes des employés de Microsoft.
De plus, Microsoft a également déclaré à l’époque que, bien que nous ayons investi dans OpenAI, pour les gens de Microsoft, ChatGPT est un outil tiers.
Les employés doivent l’utiliser avec la même prudence qu’ils le font lorsqu’ils utilisent des outils d’IA externes comme Midjourney.
Cependant, l’interdiction n’a pas duré longtemps.
Bientôt, l’accès des employés à ChatGPT a été rétabli, et la déclaration officielle dit que ce n’était qu’un beau malentendu, mais je recommande toujours Bing (doge) à tout le monde.
Nous testons le système de contrôle des terminaux du LLM et avons activé cette option par inadvertance pour tous les utilisateurs. Peu de temps après avoir découvert l’erreur, nous avons repris le service. > >Comme nous l’avons déjà dit, nous encourageons nos employés et nos clients à utiliser des services tels que Bing Chat Enterprise et ChatGPT Enterprise qui offrent un niveau plus élevé de protection de la vie privée et de sécurité.
Je ne sais pas si c’est pour briser les rumeurs de « belle apparence » dans le monde extérieur, Ultraman a également tweeté personnellement pour prouver qu’OpenAI n’avait pas de fluctuations psychologiques à cause de cet incident, et la rumeur selon laquelle OpenAI aurait interdit Microsoft 365 en réponse est encore plus absurde.
Mais dans cette série d’incidents, il est impossible d’éviter la question de la « vie privée » et de la « sécurité des données ».
En d’autres termes, maintenant, non seulement les géants et les entreprises ont découvert que l’utilisation de ChatGPT/GPT présentait le danger caché du « partage de données internes », comme mentionné ci-dessus, mais les entrepreneurs, les développeurs et même les utilisateurs ordinaires ont également trouvé ce problème devant eux.
Un nouveau cycle de discussion bat donc son plein :
S’il n’est pas possible de garantir la confidentialité des données et des documents téléchargés par un utilisateur sur GPT, comment peuvent-ils passer à l’étape suivante de la commercialisation ?
Pour OpenAI, qui veut créer un « App Store » à l’ère de ChatGPT, cela ne semble pas être une bonne chose.
Mais ce n’est que le début, alors jetons un coup d’œil aux remèdes de suivi d’OpenAI pour laisser les balles voler pendant un certain temps.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
ChatGPT a récemment été banni en interne par Microsoft !Bug de GPT : les données peuvent être supprimées avec seulement deux invites
La source : Dimension quantique
Remarque : Les données que vous téléchargez lorsque vous créez des GPT peuvent être facilement téléchargées par n’importe qui...
Juste deux invites, et vous pouvez être emporté !
En conséquence, certains internautes ont accidentellement récupéré le fichier de la base de connaissances derrière l’un des GPT, et les données du rang et du salaire de diverses grandes entreprises technologiques qui s’y trouvaient ont été directement exposées...
Certains internautes ont déclaré : S’agit-il d’une nouvelle faille de sécurité ? Beaucoup de gens ont commencé à s’inquiéter de la personnalisation pour les entreprises.
Il convient de noter que même Microsoft, le plus proche allié d’OpenAI, a temporairement annulé l’accès interne à ChatGPT.
Les données et les invites sont divulguées
Comme indiqué précédemment, les utilisateurs peuvent personnaliser en profondeur l’identité du bot, les fonctionnalités linguistiques et créer leur propre base de connaissances.
Simplement décrit en langage naturel sous la direction de GPT Builder, qui peut automatiser la plupart des paramètres, à l’exception de sa propre base de connaissances.
Les GPT personnalisés peuvent être utilisés par vous-même ou le lien peut être partagé avec d’autres.
Un développeur les a utilisés pour créer un GPT de base pour Levels.fyi, qui peut analyser la visualisation des données et ouvrir le lien au public.
Pendant un certain temps, les internautes ont été stupéfaits : cela devrait être restrictif, non ?
De plus, certains internautes ont constaté que le texte de votre description d’invite pouvait également être divulgué.
Microsoft restreint l’accès à ChatGPT en interne
Pas plus tard qu’hier, 3 jours après ses débuts, GPT a été entièrement ouvert aux utilisateurs payants.
OpenAI a officiellement préparé des versions personnalisées de robots sur la page GPT pour que les utilisateurs puissent les utiliser, tels que des tuteurs en mathématiques, des assistants de cuisine, des experts en négociation, etc.
Mais c’est loin de satisfaire la curiosité des utilisateurs, et en moins d’une journée, les développeurs ont déjà fait beaucoup de choses bizarres avec cette fonctionnalité.
Sérieux et sérieux, il y a ceux qui peuvent aider les gens à prendre l’initiative de rédiger et de réviser leur CV.
Un peu plus vivants, les qubits ont été observés comme ayant une « notation de la parole de papa », ce qui peut aider les utilisateurs à lutter efficacement contre la prédication PUA ennuyeuse.
Un peu plus métaphysiques, il y a aussi ceux qui ont des choses comme l’analyse de personnalité MBTI 16, la divination par carte de tarot, etc...
Cependant, en raison du fait qu’il y a toujours une limite de 3 heures et 50 pièces, de nombreux internautes n’ont pas d’autre choix que de soupirer qu’il est facile de déclencher cette limite tous les jours lorsqu’ils jouent à des GPT.
Il a directement cité le tweet d’Altman sur le frottement de Grok avec des GPT, et a interprété sans ménagement « GPT » comme « GPT-Snore ».
La chose la plus révélatrice doit être avant-hier - c’est-à-dire le jour où OpenAI a été piraté, Microsoft a déjà interdit aux employés d’utiliser ChatGPT.
Oui, c’est vrai, Microsoft, le plus grand partenaire et actionnaire d’OpenAI, a interdit aux employés d’accéder à ChatGPT.
Il est rapporté que Microsoft a écrit sur son site Web interne :
Quels sont les outils d’IA qui sont nommés par ChatGPT et le site Web de conception Canva.
Ensuite, ChatGPT a été bloqué sur les appareils internes des employés de Microsoft.
De plus, Microsoft a également déclaré à l’époque que, bien que nous ayons investi dans OpenAI, pour les gens de Microsoft, ChatGPT est un outil tiers.
Les employés doivent l’utiliser avec la même prudence qu’ils le font lorsqu’ils utilisent des outils d’IA externes comme Midjourney.
Bientôt, l’accès des employés à ChatGPT a été rétabli, et la déclaration officielle dit que ce n’était qu’un beau malentendu, mais je recommande toujours Bing (doge) à tout le monde.
Je ne sais pas si c’est pour briser les rumeurs de « belle apparence » dans le monde extérieur, Ultraman a également tweeté personnellement pour prouver qu’OpenAI n’avait pas de fluctuations psychologiques à cause de cet incident, et la rumeur selon laquelle OpenAI aurait interdit Microsoft 365 en réponse est encore plus absurde.
En d’autres termes, maintenant, non seulement les géants et les entreprises ont découvert que l’utilisation de ChatGPT/GPT présentait le danger caché du « partage de données internes », comme mentionné ci-dessus, mais les entrepreneurs, les développeurs et même les utilisateurs ordinaires ont également trouvé ce problème devant eux.
Un nouveau cycle de discussion bat donc son plein :
S’il n’est pas possible de garantir la confidentialité des données et des documents téléchargés par un utilisateur sur GPT, comment peuvent-ils passer à l’étape suivante de la commercialisation ?
Mais ce n’est que le début, alors jetons un coup d’œil aux remèdes de suivi d’OpenAI pour laisser les balles voler pendant un certain temps.