02:48🚀Miracle Play (MPT) 交易大赛开启,价值$10,000大奖等你来拿! ⏳ 活动时间:04.22-04.29 11:00AM [UTC+8] ✅ 交易$MPT$瓜分$8,000大奖 ✅ 新用户专属福利,瓜分$1,000奖池 ✅ 邀请新用户,享$1,000奖励 💸 立即参与:https://www.gate.io/zh/article/36075 #Gateio #MPT #Trade MPT-10.31%6
04:57据站长之家 1 月 6 日报道,TinyLlama 团队发布了一款占用仅 637 MB 的高性能 AI 开源模型 TinyLlama。TinyLlama 是 Meta 开源语言模型 Llama2 的紧凑版本,该模型有着 10 亿参数,性能优越,适用于多领域的语言模型研究,其最终版本在性能上超越了现有规模相当的开源语言模型,包括 Pythia-1.4B、OPT-1.3B 和 MPT-1.3B。据悉,TinyLlama 可在边缘设备上部署,也可用于辅助大型模型的推测解码。11
07:39据《科创板日报》8 月 2 日报道,百度智能云千帆大模型平台已完成新一轮升级,全面接入 LLaMA2 全系列、ChatGLM2、RWKV、MPT、Dolly、OpenLLaMA、Falcon 等 33 个大模型,成为国内拥有大模型最多的平台,接入的模型经过千帆平台二次性能增强,模型推理成本可降低 50%。同时,千帆平台上线了预置 _ 模板库,模板数量达 103 个,覆盖对话、游戏、编程、写作十余个场景。此外,本次升级再次发布多款全新插件。
06:55据 IT 之家 6 月 25 日报道,AI 创业公司 MosaicML 近日发布了其语言模型 MPT-30B,该模型具有 300 亿参数,训练成本“仅有其他同类竞品模型的零头”,有望促进行业逐步降低此类模型训练成本,扩大 AI 模型在更广泛领域的运用。 MosaicML 公司的首席执行官兼联合创始人 Naveen Rao 表示,MPT-30B 的训练成本为 70 万美元(约 502.44 万元人民币),远低于 GPT-3 等同类产品所需的数千万美元训练成本。此外,由于 MPT-30B 的成本较低,体积较小,它也可以更快速地被训练,并且更适合部署在本地硬件上。 据悉,MosaicML 使用了 Alibi 和 FlashAttention 技术来优化模型,可以实现更长的文本长度和对 GPU 计算的更高利用率。MosaicML 也是少数几个能够使用 Nvidia H100 GPU 的实验室,相比以往成果,当下每块 GPU 的吞吐量增加了 2.4 倍以上,可带来更快的完成时间。2