ChatGPT fue recientemente prohibido internamente por Microsoft!GPT Nuevo error: los datos se pueden quitar con solo dos indicaciones

Fuente: Dimensión Cuántica

Fuente de la imagen: Generada por Unbounded AI

Nota: Los datos que subes cuando creas GPT pueden ser descargados fácilmente por cualquiera...

¡Solo dos indicaciones y te pueden llevar!

Por otro lado, el aliado más cercano de OpenAI, Microsoft, fue una vez prohibido internamente de manera urgente, y las razones que se muestran en el sitio web son:

Debido a problemas de seguridad y datos, muchas herramientas de IA ya no están disponibles para los empleados.

Desde el lanzamiento de la versión personalizada de GPT, varios dioses han compartido sus enlaces en vivo de GPT.

Como resultado, algunos internautas recogieron accidentalmente el archivo de la base de conocimientos detrás de uno de los GPT, y los datos del rango y el salario de varias de las principales empresas de tecnología en él quedaron directamente expuestos...

Con solo unas pocas indicaciones simples, los GPT los cargarán obedientemente.

Algunos internautas dijeron: ¿Es esta una nueva vulnerabilidad de seguridad? Muchas personas han comenzado a preocuparse por la personalización para las empresas.

Vale la pena señalar que incluso Microsoft, el aliado más cercano de OpenAI, ha cancelado temporalmente el acceso interno a ChatGPT.

Se filtran datos y avisos

Como se indicó anteriormente, los usuarios pueden personalizar profundamente la identidad del bot, las características del lenguaje y crear su propia base de conocimientos.

Simplemente descrito en lenguaje natural bajo la guía de GPT Builder, que puede automatizar la mayoría de las configuraciones excepto su propia base de conocimientos.

Los GPT personalizados pueden ser utilizados por usted mismo o el enlace puede ser compartido con otros.

Pero aquí radica el problema.

Un desarrollador los utilizó para crear un GPT básico para Levels.fyi, que puede analizar la visualización de datos y abrir el enlace al público.

Como resultado, los internautas descubrieron que podían descargar el archivo con solo preguntar unas pocas palabras.

Durante un tiempo, los internautas se quedaron atónitos: esto debería ser restrictivo, ¿verdad?

Pero también hay quienes piensan que esto no es un error, sino una función suya. Los datos del fichero deben ser públicos.

También hay internautas entusiastas que dieron directamente la solución: la capacidad de desmarcar el intérprete de código al configurarlo.

Pero incluso si no es tomado por otra persona, los datos que cargue se convertirán en el agua del foso de OpenAI.

Además, algunos internautas descubrieron que el texto de su descripción de la pregunta también puede filtrarse.

Sin embargo, hay una solución, que es establecer explícitamente la regla al personalizar, y luego puede bloquearla con éxito.

Microsoft restringe el acceso a ChatGPT internamente

Justo ayer, 3 días después de su debut, GPT se abrió por completo a los usuarios de pago.

OpenAI ha preparado oficialmente algunas versiones personalizadas de robots en la página de GPT para que los usuarios las utilicen, como tutores de matemáticas, asistentes de cocina, expertos en negociación, etc.

Pero esto está lejos de satisfacer la curiosidad de los usuarios, y en menos de un día, los desarrolladores ya han hecho muchas cosas extrañas con esta función.

Serios y serios, hay quienes pueden ayudar a las personas a tomar la iniciativa de escribir y revisar sus currículos.

Un poco más animados, se ha observado que los qubits tienen una "puntuación de habla de papá", que puede ayudar a los usuarios a luchar eficazmente contra la molesta prédica de PUA.

Un poco más metafísicos, también los hay con cosas como el análisis de personalidad MBTI 16, la adivinación de cartas del tarot, etc.

En resumen, todos se divirtieron mucho.

Sin embargo, debido a que todavía hay un límite de 3 horas y 50 piezas, muchos internautas no tienen más remedio que suspirar que es fácil activar este límite todos los días cuando se juega a GPT.

Sin embargo, algunos internautas todavía tienen reservas, creyendo que esto será como el pico de la aparición de ChatGPT antes, y luego volverá gradualmente a un período tranquilo.

Al mismo tiempo, Musk ha expresado claramente su actitud hacia los GPT, es decir, desdeña los GPT.

Citó directamente el tuit de Altman en el que frotaba a Grok con GPT, e interpretó sin contemplaciones "GPT" como "GPT-Snore".

Como jefe detrás de otro gran modelo, Grok, no parece demasiado inusual que Musk, que siempre ha estado con la boca abierta, sea tan yin y yang.

Lo más revelador tiene que ser anteayer, es decir, el día en que OpenAI fue hackeado, Microsoft prohibió una vez a los empleados usar ChatGPT.

Sí, así es, Microsoft, el mayor socio y accionista de OpenAI, prohibió a los empleados acceder a ChatGPT.

Se informa que Microsoft escribió en su sitio web interno:

Debido a problemas de seguridad y datos, algunas herramientas de IA no estarán disponibles para los empleados en el futuro.

Qué herramientas de IA son las que están siendo nombradas por ChatGPT y el sitio web de diseño Canva.

Luego, ChatGPT fue bloqueado en los dispositivos internos de los empleados de Microsoft.

No solo eso, Microsoft también dijo en ese momento que, aunque invertimos en OpenAI, para la gente de Microsoft, ChatGPT es una herramienta de terceros.

Los empleados deben usarlo con la misma precaución que cuando usan herramientas de IA externas como Midjourney.

Sin embargo, la prohibición no duró mucho.

Pronto, se restableció el acceso de los empleados a ChatGPT, y la declaración oficial dice que fue solo un hermoso malentendido, pero aún así recomiendo Bing (doge) a todos.

Estamos probando el sistema de control de terminal del LLM y, sin darnos cuenta, hemos activado esta opción para todos los usuarios. Poco después de descubrir el error, reanudamos el servicio. > >Como hemos dicho antes, animamos a nuestros empleados y clientes a utilizar servicios como Bing Chat Enterprise y ChatGPT Enterprise, que tienen un mayor nivel de protección de la privacidad y la seguridad.

No sé si es para romper los rumores de "buena apariencia" en el mundo exterior, Ultraman también tuiteó personalmente para demostrar que OpenAI no tuvo fluctuaciones psicológicas debido a este incidente, y el rumoreado OpenAI prohibió Microsoft 365 como respuesta es aún más absurdo.

Pero en esta serie de incidentes, es imposible eludir el tema de la "privacidad" y la "seguridad de los datos".

Es decir, ahora, no solo los gigantes y las empresas han descubierto que el uso de ChatGPT/GPT tiene el peligro oculto del "intercambio interno de datos", como se mencionó anteriormente, los emprendedores, desarrolladores e incluso los usuarios comunes también se han encontrado con este problema frente a ellos.

Así que una nueva ronda de discusión está en pleno apogeo:

Si no se puede garantizar que los datos y documentos cargados por cualquier usuario en GPT sean privados, ¿cómo pueden dar el siguiente paso en la comercialización?

Para OpenAI, que quiere crear una "App Store" en la era de ChatGPT, esto no parece ser bueno.

Pero esto no ha hecho más que empezar, así que echemos un vistazo a los remedios de seguimiento de OpenAI para dejar que las balas vuelen por un tiempo.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)