📢 Gate广场独家活动: #PUBLIC创作大赛# 正式开启!
参与 Gate Launchpool 第 297 期 — PublicAI (PUBLIC),并在 Gate广场发布你的原创内容,即有机会瓜分 4,000 枚 $PUBLIC 奖励池!
🎨 活动时间
2025年8月18日 10:00 – 2025年8月22日 16:00 (UTC)
📌 参与方式
在 Gate广场发布与 PublicAI (PUBLIC) 或当前 Launchpool 活动相关的原创内容
内容需不少于 100 字(可为分析、教程、创意图文、测评等)
添加话题: #PUBLIC创作大赛#
帖子需附带 Launchpool 参与截图(如质押记录、领取页面等)
🏆 奖励设置(总计 4,000 枚 $PUBLIC)
🥇 一等奖(1名):1,500 $PUBLIC
🥈 二等奖(3名):每人 500 $PUBLIC
🥉 三等奖(5名):每人 200 $PUBLIC
📋 评选标准
内容质量(相关性、清晰度、创意性)
互动热度(点赞、评论)
含有 Launchpool 参与截图的帖子将优先考虑
📄 注意事项
所有内容须为原创,严禁抄袭或虚假互动
获奖用户需完成 Gate广场实名认证
Gate 保留本次活动的最终解释权
图像涂哪就动哪!Gen-2新功能“神笔马良”爆火,网友:急急急
文章来源:量子位
AI搞视频生成,已经进化到这个程度了?!
对着一张照片随手一刷,就能让被选中的目标动起来!
原来,这是Runway给AI视频软件Gen-2打造的新功能,一涂一刷就能让图像中的物体动起来,逼真程度不亚于神笔马良。
虽然只是个功能预热,不过效果一出就在网上爆火:
照片变视频,指哪就动哪
这个Runway新出的功能,叫做运动笔刷(Motion Brush)。
顾名思义,只需要用这个笔刷对着画面中的任意对象“涂”一下,就能让他们动起来。
不仅可以是静止的人,连裙摆和头部的动作都很自然:
下面这些没有涂抹痕迹的视频,更是几乎完全看不出有AI修饰的成分在里面:
不少人试图理解这个功能究竟是怎么实现的。也有网友更关注功能啥时候出,希望到时候直接321上链接(手动狗头)
不过,不止是Runway推出的这个Motion Brush新功能。
最近一连串的AI生成进展似乎都在表明,视频生成领域似乎真要迎来技术大爆发了。
AI生成视频真要崛起了?
就像在这几天,还有网友开发了很火的文生动画软件Animatediff的新玩法。
LCM-LORA是清华大学和Hugging Face新出的一个AI图片生成技术,可以让Stable Diffusion的图片生成速度大幅提升。
其中,LCM(Latent Consistency Models)是基于今年早些时候OpenAI的“一致性模型”提出来的一种图像生成新方法,能快速生成768×768的高分辨率图片。
但LCM不兼容现有模型,因此清华和抱抱脸的成员又新出了一版LCM-LORA模型,可以兼容所有Stable Diffusion模型,加速出图速度。
参考链接:
[1]
[2]