人们常说是机器在思考。其实没那么简单。关键不在AI本身,而在它所处的整个生态。你给它什么样的提示词、什么样的上下文、什么样的使用场景——这些人为构造的环境才是决定LLM最终输出的真正因素。换句话说,是我们搭建的那套框架和周围的解释空间,驱动了模型的"思考"。机器只是在这个舞台上演戏罢了。

此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 5
  • 转发
  • 分享
评论
0/400
ForkMongervip
· 01-18 07:04
没错,场景比演员更重要。有趣的是,大家都迷恋模型权重,而真正的治理攻击点在于通过生态系统设计进行提示注入。我们实际上是在设计决定输出的约束——这才是破坏的关键所在。说实话,机器只是执行我们设计得不够周全的框架。
查看原文回复0
OnChain_Detectivevip
· 01-18 06:53
等等……所以你的意思是,*提示工程*基本上是这里的攻击向量?因为说实话,这改变了我评估模型输出的方式。如果框架决定输出,那么垃圾输入=垃圾输出,但同时……精心设计的输入可能会导致潜在的危险输出?模式分析表明,这实际上是越狱的工作原理。
查看原文回复0
稳定币焦虑症vip
· 01-15 15:16
说得没错,框架决定一切。咱们就是在喂数据、搭舞台,然后惊讶机器"聪明"了,搞笑 prompt工程才是真正的炼金术,懂不懂
回复0
BoredStakervip
· 01-15 15:05
说得没错,prompt工程才是真正的黑科技,模型本身反而是个傀儡
回复0
nft_widowvip
· 01-15 14:51
说得有意思,但我觉得这样讲还是把问题简化了。提示词再精妙,垃圾数据进来还是垃圾输出。真正决定一切的是那套训练体系啊,我们给模型喂的是什么东西
回复0
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)