ChatGPT baru-baru ini dilarang secara internal oleh Microsoft!GPT bug baru: data dapat diambil hanya dengan dua petunjuk

Sumber: Quantum Dimension

Sumber gambar: Dihasilkan oleh Unbounded AI

Catatan: Data yang Anda unggah saat membuat GPT dapat diunduh dengan mudah oleh siapa saja...

Hanya dua petunjuk, dan Anda bisa dibawa pergi!

Di sisi lain, sekutu terdekat OpenAI, Microsoft, pernah dilarang secara internal, dan alasan yang ditampilkan di situs web adalah:

Karena masalah keamanan dan data, banyak alat AI tidak lagi tersedia untuk karyawan.

Sejak peluncuran GPT versi khusus, berbagai dewa telah membagikan tautan langsung GPT mereka.

Akibatnya, beberapa netizen secara tidak sengaja mengambil file basis pengetahuan di belakang salah satu GPT, dan data pangkat dan gaji berbagai perusahaan teknologi besar di dalamnya langsung terungkap ...

Hanya dengan beberapa petunjuk sederhana, GPT akan mengunggahnya dengan patuh.

Beberapa netizen berkata: Apakah ini kerentanan keamanan baru? Banyak orang mulai khawatir tentang penyesuaian untuk perusahaan.

Perlu dicatat bahwa bahkan Microsoft, sekutu terdekat OpenAI, telah ** sementara membatalkan akses internal ke ChatGPT **.

Data dan petunjuk bocor

Seperti yang dinyatakan sebelumnya, pengguna dapat menyesuaikan identitas bot, fitur bahasa, dan membangun basis pengetahuan mereka sendiri.

Cukup dijelaskan dalam bahasa alami di bawah bimbingan GPT Builder, yang dapat mengotomatiskan sebagian besar pengaturan kecuali untuk basis pengetahuannya sendiri.

GPT yang disesuaikan dapat digunakan sendiri atau tautannya dapat dibagikan dengan orang lain.

Tapi di sinilah letak masalahnya.

Seorang pengembang menggunakannya untuk membuat GPT dasar untuk Levels.fyi, yang dapat menganalisis visualisasi data dan membuka tautan ke publik.

Akibatnya, netizen menemukan bahwa mereka dapat mengunduh file hanya dengan menanyakan beberapa kata.

Untuk sementara, netizen tercengang: Ini seharusnya membatasi, bukan?

Tetapi ada juga yang berpikir bahwa ini bukan bug, tetapi fungsinya. Data dalam file harus bersifat publik.

Ada juga netizen antusias yang langsung memberikan solusi: kemampuan untuk menghapus centang pada penerjemah kode saat mengatur.

Tetapi bahkan jika itu tidak diambil oleh orang lain, data yang Anda unggah akan menjadi air parit OpenAI.

Selain itu, beberapa netizen menemukan bahwa teks deskripsi prompt Anda juga dapat bocor.

Namun, ada solusinya, yaitu secara eksplisit menetapkan aturan saat menyesuaikan, dan kemudian Anda dapat berhasil memblokirnya.

Microsoft membatasi akses ChatGPT secara internal

Baru kemarin, 3 hari setelah debutnya, GPT sepenuhnya dibuka untuk pengguna berbayar.

OpenAI telah secara resmi menyiapkan beberapa versi robot yang disesuaikan di halaman GPT untuk digunakan pengguna, seperti tutor matematika, asisten memasak, pakar negosiasi, dll.

Tapi ini jauh dari memuaskan rasa ingin tahu pengguna, dan dalam waktu kurang dari sehari, pengembang telah melakukan banyak hal aneh dengan fitur ini.

Serius dan serius, ada orang-orang yang dapat membantu orang mengambil inisiatif untuk menulis dan merevisi resume mereka.

Sedikit lebih hidup, qubit telah diamati memiliki "penilaian pidato ayah", yang dapat membantu pengguna secara efektif melawan khotbah PUA yang mengganggu.

Sedikit lebih metafisik, ada juga yang memiliki hal-hal seperti analisis kepribadian MBTI 16, ramalan kartu tarot, dll ...

Singkatnya, semua orang bersenang-senang.

Namun, karena faktanya masih ada batasan 3 jam dan 50 buah, banyak netizen tidak punya pilihan selain mengeluh bahwa mudah untuk memicu batas ini setiap hari saat bermain GPT.

Namun, beberapa netizen masih memiliki keberatan, percaya bahwa ini akan seperti puncak kemunculan ChatGPT sebelumnya, dan kemudian secara bertahap akan kembali ke masa tenang.

Pada saat yang sama, Musk dengan jelas menyatakan sikapnya terhadap GPT, yaitu, dia meremehkan GPT.

Dia secara langsung mengutip tweet Altman tentang menggosok Grok dengan GPT, dan tanpa basa-basi menafsirkan "GPT" sebagai "GPT-Mendengkur".

Sebagai bos di balik model besar lainnya, Grok, tampaknya tidak terlalu aneh bagi Musk, yang selalu bermulut terbuka, untuk menjadi begitu yin dan yang.

Hal yang paling membuka mata adalah sehari sebelum kemarin - yaitu, pada hari OpenAI diretas, Microsoft pernah melarang karyawan menggunakan ChatGPT.

Ya, benar, Microsoft, mitra dan pemegang saham terbesar OpenAI, melarang karyawan mengakses ChatGPT.

Dilaporkan bahwa Microsoft menulis di situs web internalnya:

Karena masalah keamanan dan data, beberapa alat AI tidak akan tersedia untuk karyawan di masa mendatang.

Alat AI apa yang diberi nama oleh ChatGPT dan situs web desain Canva.

Kemudian, ChatGPT diblokir di perangkat internal karyawan Microsoft.

Tidak hanya itu, Microsoft juga mengatakan pada saat itu bahwa meskipun kami berinvestasi di OpenAI, bagi orang-orang Microsoft, ChatGPT adalah alat pihak ketiga.

Karyawan harus menggunakannya dengan hati-hati yang sama seperti saat menggunakan alat AI eksternal seperti Midjourney.

Namun, larangan itu tidak berlangsung lama.

Segera, akses karyawan ke ChatGPT telah dipulihkan, dan pernyataan resmi mengatakan bahwa itu hanya kesalahpahaman yang indah, tetapi saya tetap merekomendasikan Bing (doge) kepada semua orang.

Kami sedang menguji sistem kontrol terminal LLM dan secara tidak sengaja mengaktifkan opsi ini untuk semua pengguna. Tak lama setelah menemukan kesalahan, kami melanjutkan layanan. > >Seperti yang telah kami katakan sebelumnya, kami mendorong karyawan dan pelanggan kami untuk menggunakan layanan seperti Bing Chat Enterprise dan ChatGPT Enterprise yang memiliki tingkat perlindungan privasi dan keamanan yang lebih tinggi.

Saya tidak tahu apakah itu untuk mematahkan rumor "ketampanan" di dunia luar, Ultraman juga secara pribadi men-tweet untuk membuktikan bahwa OpenAI tidak memiliki fluktuasi psikologis karena kejadian ini, dan OpenAI yang dikabarkan melarang Microsoft 365 sebagai tanggapan bahkan lebih tidak masuk akal.

Namun dalam rangkaian insiden ini, tidak mungkin untuk menghindari masalah "privasi" dan "keamanan data".

Dengan kata lain, sekarang, tidak hanya raksasa dan perusahaan yang menemukan bahwa penggunaan ChatGPT/GPT memiliki bahaya tersembunyi dari "berbagi data internal", seperti yang disebutkan di atas, pengusaha, pengembang, dan bahkan pengguna biasa juga menemukan masalah ini di depan mereka.

Jadi babak baru diskusi sedang berjalan lancar:

Jika data dan dokumen yang diunggah oleh pengguna mana pun di GPT tidak dapat dijamin bersifat pribadi, bagaimana mereka dapat mengambil langkah selanjutnya dalam komersialisasi?

Untuk OpenAI, yang ingin membuat "App Store" di era ChatGPT, ini sepertinya tidak bagus.

Tapi ini baru saja dimulai, jadi mari kita lihat solusi tindak lanjut OpenAI untuk membiarkan peluru terbang sebentar.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)