💥 Gate广场活动: #FST创作大赛# 💥
在 Gate广场 发布 CandyDrop 第71期:CandyDrop x FreeStyle Classic Token (FST) 相关原创内容,即有机会瓜分 3,000 FST 奖励!
📅 活动时间:2025年8月27日 – 9月2日
📌 参与方式:
发布原创内容,主题需与 FST 或 CandyDrop 活动相关
内容不少于 80 字
帖子添加话题: #FST创作大赛#
附上 CandyDrop 参与截图
🏆 奖励设置:
一等奖(1名):1,000 FST
二等奖(3名):500 FST/人
三等奖(5名):200 FST/人
📄 注意事项:
内容必须原创,禁止抄袭或刷量
获奖者需完成 Gate 广场身份认证
活动最终解释权归 Gate 所有
活动详情链接: https://www.gate.com/announcements/article/46757
ChatGPT最近被微软内部禁用!GPTs新bug:数据只要两句提示词就能套走
来源:量子位
注意!你创建GPTs时上传的数据,任何人都能轻易下载……
只需两句提示词,就可被直接套走!
结果有网友一个不小心竟扒出了其中某个GPTs背后知识库文件,里面各种科技大厂职级薪资的数据直接曝光……
有网友表示:这是新的安全漏洞吗?不少人开始为企业定制担忧。
值得注意的是,就连OpenAI最亲密盟友微软,都曾暂时取消过对ChatGPT的内部访问。
数据和提示词都被泄漏
按照之前的说法,用户可深度定制机器人的身份、语言特征,以及建立自有知识库。
只需要在GPT Builder的引导之下用自然语言来描述,他能自动完成除了自有知识库以外的大部分设置。
定制过后的GPTs可以自己用,也可以将链接分享给他人。
一开发者用他们为Levels.fyi创建了基本GPT,可分析数据可视化,并开放链接对外使用。
一时间网友们都惊呆了:这应该是限制的吧?
除此之外,还有网友发现,你的提示词说明文本也可能会被泄漏出来。
微软内部限制ChatGPT访问
亮相3天后,就在昨天,GPTs面向付费用户全量开放了。
OpenAI官方是在GPTs页面准备了一些定制版机器人供用户使用的,比如数学导师、烹饪助手、谈判专家等。
但这远远满足不了用户们的好奇心,不到一天时间,开发者们已经用这个功能做了很多稀奇古怪的东西。
正经严肃的,有能帮助人主动书写的、简历修改的。
稍微整活的,量子位观察到有“爹味言论打分”,能帮用户有力回击讨厌的PUA说教。
再玄学一点,还有具备诸如MBTI 16人格分析、塔罗牌占卜的等等……
但由于现在仍然有3小时50条的限制,不少网友无奈感慨,玩GPTs,很容易每日触发这个数量限制。
他直接引用奥特曼用GPTs手搓Grok的推特,不客气地把“GPTs”解读为“GPT-Snore”。
最令人睁大眼睛的,还得是前天——也就是OpenAI被黑客攻击的那一天,微软一度禁止员工使用ChatGPT。
是的没错,微软,OpenAI最大合作伙伴、股东,禁止员工访问ChatGPT。
据悉,微软在其内部网站上写道:
什么AI工具呢?点名的就是ChatGPT和设计网站Canva。
而后,ChatGPT在微软员工的内部设备上被屏蔽。
不仅如此,微软当时还表示,虽然咱确实投资了OpenAI,但对于微软人来说,ChatGPT是第三方工具。
员工使用时应当慎之又慎,就像大伙儿使用Midjourney等外部AI工具时一样。
很快,员工对ChatGPT的访问已经恢复,并且官方声明称,这只是一次美丽的误会,but还是推荐大家用Bing(doge)。
不知道是不是为了打破外界“貌合神离”的传言,奥特曼还亲自发了个推特,证明OpenAI并没有因为这个事件产生心理波动,传言的OpenAI因此禁用Microsoft 365作为回击更是无稽之谈。
也就是说在现在,不仅仅是巨头、公司发现使用ChatGPT/GPTs有“内部数据共享”的隐患,如上文提到的,创业者、开发者甚至普通用户,也发现了这个问题摆在面前。
因此新一轮的讨论就此如火如荼地展开了:
如果任何用户在GPTs上传的数据、文档等不能保证私有性,该怎么迈出商业化的下一步呢?
但一切刚刚开始,不妨看看OpenAI的后续补救措施,让子弹再飞一会。