💥 Gate廣場活動: #FST创作大赛# 💥
在 Gate廣場 發布 CandyDrop 第71期:CandyDrop x FreeStyle Classic Token (FST) 相關原創內容,即有機會瓜分 3,000 FST 獎勵!
📅 活動時間:2025年8月27日 – 9月2日
📌 參與方式:
發布原創內容,主題需與 FST 或 CandyDrop 活動相關
內容不少於 80 字
帖子添加話題: #FST创作大赛#
附上 CandyDrop 參與截圖
🏆 獎勵設置:
一等獎(1名):1,000 FST
二等獎(3名):500 FST/人
三等獎(5名):200 FST/人
📄 注意事項:
內容必須原創,禁止抄襲或刷量
獲獎者需完成 Gate 廣場身分認證
活動最終解釋權歸 Gate 所有
活動詳情連結: https://www.gate.com/announcements/article/46757
ChatGPT最近被微軟內部禁用!GPTs新bug:數據只要兩句提示詞就能套走
來源:量子維度
注意!你創建GPTs時上傳的數據,任何人都能輕易下載......
只需兩句提示詞,就可被直接套走!
結果有網友一個不小心竟扒出了其中某個GPTs背後知識庫檔,裡面各種科技大廠職級薪資的數據直接曝光......
有網友表示:這是新的安全漏洞嗎?不少人開始為企業定製擔憂。
值得注意的是,就連OpenAI最親密盟友微軟,都曾暫時取消過對ChatGPT的內部訪問。
數據和提示詞都被洩漏
按照之前的說法,用戶可深度定製機器人的身份、語言特徵,以及建立自有知識庫。
只需要在GPT Builder的引導之下用自然語言來描述,他能自動完成除了自有知識庫以外的大部分設置。
定製過後的GPTs可以自己用,也可以將連結分享給他人。
一開發者用他們為Levels.fyi創建了基本GPT,可分析數據可視化,並開放連結對外使用。
一時間網友們都驚呆了:這應該是限制的吧?
除此之外,還有網友發現,你的提示詞說明文本也可能會被洩漏出來。
微軟內部限制ChatGPT訪問
亮相3天后,就在昨天,GPTs面向付費使用者全量開放了。
OpenAI官方是在GPTs頁面準備了一些定製版機器人供使用者使用的,比如數學導師、烹飪助手、談判專家等。
但這遠遠滿足不了使用者們的好奇心,不到一天時間,開發者們已經用這個功能做了很多稀奇古怪的東西。
正經嚴肅的,有能幫助人主動書寫的、簡歷修改的。
稍微整活的,量子位觀察到有“爹味言論打分”,能幫使用者有力回擊討厭的PUA說教。
再玄學一點,還有具備諸如MBTI 16人格分析、塔羅牌占卜的等等......
但由於現在仍然有3小時50條的限制,不少網友無奈感慨,玩GPTs,很容易每日觸發這個數量限制。
他直接引用奧特曼用GPTs手搓Grok的推特,不客氣地把“GPTs”解讀為“GPT-Snore”。
最令人睜大眼睛的,還得是前天——也就是OpenAI被駭客攻擊的那一天,微軟一度禁止員工使用ChatGPT。
是的沒錯,微軟,OpenAI最大合作夥伴、股東,禁止員工訪問ChatGPT。
據悉,微軟在其內部網站上寫道:
什麼AI工具呢?點名的就是ChatGPT和設計網站Canva。
而後,ChatGPT在微軟員工的內部設備上被遮罩。
不僅如此,微軟當時還表示,雖然咱確實投資了OpenAI,但對於微軟人來說,ChatGPT是第三方工具。
員工使用時應當慎之又慎,就像大夥兒使用Midjourney等外部AI工具時一樣。
很快,員工對ChatGPT的訪問已經恢復,並且官方聲明稱,這隻是一次美麗的誤會,but還是推薦大家用Bing(doge)。
不知道是不是為了打破外界「貌合神離」的傳言,奧特曼還親自發了個推特,證明OpenAI並沒有因為這個事件產生心理波動,傳言的OpenAI因此禁用Microsoft 365作為回擊更是無稽之談。
也就是說在現在,不僅僅是巨頭、公司發現使用ChatGPT/GPTs有“內部數據共用”的隱患,如上文提到的,創業者、開發者甚至普通使用者,也發現了這個問題擺在面前。
因此新一輪的討論就此如火如荼地展開了:
如果任何使用者在GPTs上傳的數據、文檔等不能保證私有性,該怎麼邁出商業化的下一步呢?
但一切剛剛開始,不妨看看OpenAI的後續補救措施,讓子彈再飛一會。