ChatGPT gần đây đã bị Microsoft cấm nội bộ!Lỗi mới của GPT: dữ liệu có thể bị lấy đi chỉ với hai lời nhắc

Nguồn: Quantum Dimension

Nguồn hình ảnh: Được tạo bởi Unbounded AI

Lưu ý: Bất kỳ ai cũng có thể dễ dàng tải xuống dữ liệu bạn tải lên khi tạo GPT...

Chỉ cần hai lời nhắc, và bạn có thể bị lấy đi!

Ở phía bên kia, đồng minh thân cận nhất của OpenAI, Microsoft, đã từng bị cấm khẩn cấp trong nội bộ và những lý do được hiển thị trên trang web là:

Do lo ngại về bảo mật và dữ liệu, nhiều công cụ AI không còn khả dụng cho nhân viên.

Kể từ khi ra mắt phiên bản GPT tùy chỉnh, nhiều vị thần khác nhau đã chia sẻ các liên kết trực tiếp GPT của họ.

Kết quả là, một số cư dân mạng đã vô tình nhặt được tệp cơ sở kiến thức đằng sau một trong những GPT, và dữ liệu về cấp bậc và mức lương của các công ty công nghệ lớn khác nhau trong đó đã bị lộ trực tiếp...

Chỉ với một vài lời nhắc đơn giản, GPT sẽ tải chúng lên một cách ngoan ngoãn.

Một số cư dân mạng cho biết: Đây có phải là lỗ hổng bảo mật mới? Nhiều người đã bắt đầu lo lắng về việc tùy chỉnh cho doanh nghiệp.

Điều đáng chú ý là ngay cả Microsoft, đồng minh thân cận nhất của OpenAI, cũng đã ** tạm thời hủy quyền truy cập nội bộ vào ChatGPT **.

Dữ liệu và lời nhắc bị rò rỉ

Như đã nêu trước đây, người dùng có thể tùy chỉnh sâu danh tính, tính năng ngôn ngữ của bot và xây dựng cơ sở kiến thức của riêng họ.

Được mô tả đơn giản bằng ngôn ngữ tự nhiên dưới sự hướng dẫn của GPT Builder, người có thể tự động hóa hầu hết các cài đặt ngoại trừ cơ sở kiến thức của riêng mình.

GPT tùy chỉnh có thể được sử dụng bởi chính bạn hoặc liên kết có thể được chia sẻ với người khác.

Nhưng đây là vấn đề.

Một nhà phát triển đã sử dụng chúng để tạo GPT cơ bản cho Levels.fyi, có thể phân tích trực quan hóa dữ liệu và mở liên kết đến công chúng.

Kết quả là, cư dân mạng thấy rằng họ có thể tải xuống tệp chỉ bằng cách hỏi một vài từ.

Nhất thời, cư dân mạng sững sờ: Cái này nên hạn chế đúng không?

Nhưng cũng có những người nghĩ rằng đây không phải là một lỗi, mà là một chức năng của anh ta. Dữ liệu trong tệp phải được công khai.

Cũng có những cư dân mạng nhiệt tình trực tiếp đưa ra giải pháp: khả năng bỏ chọn trình thông dịch mã khi thiết lập.

Nhưng ngay cả khi nó không được lấy bởi người khác, dữ liệu bạn tải lên sẽ trở thành nước hào của OpenAI.

Ngoài ra, một số cư dân mạng nhận thấy rằng văn bản mô tả nhanh chóng của bạn cũng có thể bị rò rỉ.

Tuy nhiên, có một giải pháp, đó là đặt rõ ràng quy tắc khi tùy chỉnh và sau đó bạn có thể chặn nó thành công.

Microsoft hạn chế quyền truy cập ChatGPT nội bộ

Mới hôm qua, 3 ngày sau khi ra mắt, GPT đã được mở hoàn toàn cho người dùng trả phí.

OpenAI đã chính thức chuẩn bị một số phiên bản tùy chỉnh của robot trên trang GPT để người dùng sử dụng, chẳng hạn như gia sư toán, trợ lý nấu ăn, chuyên gia đàm phán, v.v.

Nhưng điều này còn lâu mới thỏa mãn được sự tò mò của người dùng và trong vòng chưa đầy một ngày, các nhà phát triển đã làm được rất nhiều điều kỳ lạ với tính năng này.

Nghiêm túc và nghiêm túc, có những người có thể giúp mọi người chủ động viết và sửa đổi sơ yếu lý lịch của họ.

Sống động hơn một chút, qubit đã được quan sát là có "điểm bài phát biểu của cha", có thể giúp người dùng chống lại hiệu quả chống lại việc rao giảng PUA gây phiền nhiễu.

Siêu hình hơn một chút, cũng có những người có những thứ như phân tích tính cách MBTI 16, bói toán bài tarot, vv...

Nói tóm lại, mọi người đều có rất nhiều niềm vui.

Tuy nhiên, do vẫn còn giới hạn 3 giờ 50 miếng, nhiều cư dân mạng không còn cách nào khác ngoài việc thở dài rằng rất dễ kích hoạt giới hạn này mỗi ngày khi chơi GPT.

Tuy nhiên, một số cư dân mạng vẫn tỏ ra e dè, tin rằng đây sẽ giống như đỉnh cao xuất hiện của ChatGPT trước đây, và sau đó nó sẽ dần trở lại thời kỳ trầm lắng.

Đồng thời, Musk đã thể hiện rõ thái độ của mình đối với GPT, nghĩa là ông coi thường GPT.

Ông trực tiếp trích dẫn tweet của Altman về việc cọ xát Grok với GPT, và giải thích một cách bất ngờ "GPT" là "GPT-Snore".

Là ông chủ đứng sau một người mẫu lớn khác, Grok, dường như không quá bất thường khi Musk, người luôn há hốc mồm, lại âm dương như vậy.

Điều mở mang tầm mắt nhất phải là ngày hôm trước - tức là ngày OpenAI bị hack, Microsoft từng cấm nhân viên sử dụng ChatGPT.

Đúng vậy, Microsoft, đối tác và cổ đông lớn nhất của OpenAI, đã cấm nhân viên truy cập ChatGPT.

Được biết, Microsoft đã viết trên trang web nội bộ của mình:

Do lo ngại về bảo mật và dữ liệu, một số công cụ AI sẽ không có sẵn cho nhân viên trong tương lai.

Những công cụ AI nào đang được ChatGPT và trang web thiết kế Canva đặt tên.

Sau đó, ChatGPT đã bị chặn trên các thiết bị nội bộ của nhân viên Microsoft.

Không chỉ vậy, Microsoft cũng cho biết vào thời điểm đó rằng mặc dù chúng tôi đã đầu tư vào OpenAI, nhưng đối với người Microsoft, ChatGPT là một công cụ của bên thứ ba.

Nhân viên nên sử dụng nó một cách thận trọng giống như khi sử dụng các công cụ AI bên ngoài như Midjourney.

Tuy nhiên, lệnh cấm không kéo dài.

Ngay sau đó, quyền truy cập của nhân viên vào ChatGPT đã được khôi phục và tuyên bố chính thức nói rằng đó chỉ là một sự hiểu lầm đẹp, nhưng tôi vẫn giới thiệu Bing (doge) cho mọi người.

Chúng tôi đang thử nghiệm hệ thống điều khiển thiết bị đầu cuối của LLM và đã vô tình bật tùy chọn này cho tất cả người dùng. Ngay sau khi phát hiện ra lỗi, chúng tôi đã tiếp tục dịch vụ. > >Như chúng tôi đã nói trước đây, chúng tôi khuyến khích nhân viên và khách hàng của mình sử dụng các dịch vụ như Bing Chat Enterprise và ChatGPT Enterprise có mức độ bảo vệ quyền riêng tư và bảo mật cao hơn.

Không biết có phải để phá vỡ những tin đồn về "ngoại hình ưa nhìn" ở thế giới bên ngoài hay không, cá nhân Ultraman cũng đã tweet để chứng minh rằng OpenAI không có biến động tâm lý vì sự cố này, và tin đồn OpenAI đã cấm Microsoft 365 như một phản ứng thậm chí còn vô nghĩa hơn.

Nhưng trong chuỗi sự cố này, không thể tránh khỏi vấn đề "quyền riêng tư" và "bảo mật dữ liệu".

Nói cách khác, bây giờ, không chỉ những gã khổng lồ và công ty đã phát hiện ra rằng việc sử dụng ChatGPT / GPT có nguy cơ tiềm ẩn là "chia sẻ dữ liệu nội bộ", như đã đề cập ở trên, các doanh nhân, nhà phát triển và thậm chí cả người dùng thông thường cũng đã tìm thấy vấn đề này trước mặt họ.

Vì vậy, một vòng thảo luận mới đang diễn ra sôi nổi:

Nếu dữ liệu và tài liệu được tải lên bởi bất kỳ người dùng nào trên GPT không thể được đảm bảo là riêng tư, làm thế nào họ có thể thực hiện bước tiếp theo trong thương mại hóa?

Đối với OpenAI, công ty muốn tạo ra một "App Store" trong kỷ nguyên ChatGPT, điều này dường như không tốt.

Nhưng nó chỉ mới bắt đầu, vì vậy chúng ta hãy xem các biện pháp tiếp theo của OpenAI để cho đạn bay trong một thời gian.

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Chia sẻ
Bình luận
0/400
Không có bình luận
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)