🎉 Gate.io动态 #创作者成长激励计划# 火热进行中!您报名参与发帖了吗?
赶紧报名参与发帖,茶具套装、Gate.io纪念章、合约体验券等价值 $2,000 丰厚大奖等你来拿!
参与方式:
1.点击活动表单完成报名获取获奖资格 👉️ https://www.gate.io/questionnaire/6550
2.随后在动态发布帖子,发布帖子越多越优质获奖机会越大!
📌 任何与加密相关内容均可参与,创作者们请尽情发帖!
🎁活动奖励:
🔹榜单 Top40 及新人 Top10 可赢茶具套装、国际米兰保温杯、Gate.io纪念章、合约体验券等超$2,000好礼!
🔹上榜创作者还将解锁AMA访谈、荣誉海报、V5标识、精选推荐、动态大使等流量扶持,助你提升社区影响力!
活动截止至:5月6日00:00 (UTC+8)
详情:https://www.gate.io/announcements/article/44513
创作者们,请尽情发帖,争夺创作榜单,赢取丰厚创作大奖及流量曝光!
GPT现状终于有人讲清楚了!OpenAI大牛最新演讲爆火,还得是马斯克钦点的天才
来源:量子位
继Windows Copilot发布后,微软Build大会热度又被一场演讲引爆。
前特斯拉AI总监Andrej Karpathy在演讲中认为**思维树(tree of thoughts)与AlphaGo的蒙特卡洛树搜索(MCTS)**有异曲同工之妙!
网友高呼:这是关于如何使用大语言模型和GPT-4模型的最详尽有趣的指南!
随着演讲而爆火的,还有推特网友根据演讲整理的一份笔记,足足有31条,目前转赞量已超过3000+:
如何训练GPT助手?
Karpathy这次的演讲主要分为两个部分。
第一部分,他讲了如何训练一个“GPT助手”。
Karpathy主要讲述了AI助手的四个训练阶段:预训练(pre-training)、监督微调(supervised fine tuning)、奖励建模(reward modeling)和强化学习(reinforcement learning)。
每一个阶段都需要一个数据集。
Karpathy用了更多例子作补充:
在这里需要明确指出的是,基础模型不是助手模型。
虽然基础模型可以回答问题,但它所给出的回答并不可靠,可用于回答问题的是助手模型。在基础模型上进行训练的助手模型,通过监督微调,在生成回复和理解文本结构方面的表现将优于基础模型。
在训练语言模型时,强化学习是另一个关键的过程。
通过用人工标记的高质量的数据进行训练,可以使用奖励建模来创建一个损失函数,以改善其性能。然后,通过增加正向的标记,并降低负面标记的概率,来进行强化训练。
而在具有创造性的任务中,利用人类的判断力对于改进AI模型至关重要,加入人类的反馈可以更有效地训练模型。
经过人类反馈的强化学习后,就可以得到一个RLHF模型了。
模型训练好了,接下来就是如何有效利用这些模型解决问题了。
如何更好地使用模型?
在第二部分,Karpathy主要讨论了提示策略、微调、快速发展的工具生态系统以及未来的扩展等问题。
Karpathy又给出了具体示例来说明:
而**提示()**可以弥补这种认知差异。
Karpathy进一步解释了思维链提示的工作方式。
对于推理问题,要想让自然语言处理中Transformer的表现更好,需要让它一步一步地处理信息,而不能直接抛给它一个非常复杂的问题。
诺贝尔经济学奖得主丹尼尔卡尼曼在《思考快与慢》中提出,人的认知系统包含1和2两个子系统。1主要靠直觉,而2是逻辑分析系统。
通俗来说,1是一个快速自动生成的过程,而2是经过深思熟虑的部分。
这在最近一篇挺火的论文“Tree of thought”(思维树)中也有被提及。
Karpathy认为这种思路与AlphaGo非常相似:
对此,Karpathy还提到了AutoGPT:
窗口上下文的内容就是transformers在运行时的记忆(working memory),如果你可以将与任务相关的信息加入到上下文中,那么它的表现就会非常好,因为它可以立即访问这些信息。
简而言之,就是可以为相关数据建立索引让模型可以高效访问。
最后,Karpathy简单讲了一下在大语言模型中的约束提示(Constraint ing)和微调。可以通过约束提示和微调来改进大语言模型。约束提示在大语言模型的输出中强制执行模板,而微调则调整模型的权重以提高性能。
关于Andrej Karpathy
后来OpenAI联合创始人之一的马斯克看上了Karpathy,把人挖到了特斯拉。但也因为这件事,马斯克和OpenAI彻底闹翻,最后还被踢出局。在特斯拉,Karpathy是Autopilot、FSD等项目的负责人。
今年二月份,在离开特斯拉7个月后,Karpathy再次加入了OpenAI。
最近他发推特表示,目前对开源大语言模型生态系统的发展饶有兴趣,有点像早期寒武纪爆发的迹象。
参考链接:[1]