大家除夕快乐,很高兴大家又能读到我的博客,也特别开心看到越来越多的朋友都有了自己的博客。
大家也都知道,现在AI发展得真的太迅猛了,势头特别足,也出了好多特别厉害的AI模型。比如智谱清言他们家的GLM4.7,还有genemi3.0,外加claude后写代码的能力也是一路往上涨,越来越好用。
字节跳动这边呢,尽管豆包大模型一直还是很笨蛋,但是他们也一直都在深耕艺术类的创作模型,就比如前两天刚发布的豆包AI生图背后用的那个Seedream5.0模型,效果也是真强。
不过今天我想重点跟朋友们聊的,是他们家最近被网友们玩出花来的SeedDance模型,也就是Seedance 2.0。
直接上手体验了一下,因为目前他还不支持上传参考图,我这次选的是用首尾帧的方式生成,说白了就是我给一张首帧的图,再给一张尾帧的图,让它自己把中间的画面给我顺起来、连成片。我就只写了几句口语化的、特别简单的提示词
提示词如下
两只动物听到了有人呼喊他们,并且望了过去,结果是这名女生正在推销他的轮胎,想让两位去试试。女生的眼睛要眨,然后手有扶轮胎的动作,不需要文字配音,只需要把相关音效配出来就可以,保证角色稳定,头发动作自然,有摇曳的动作。前后不到5分钟,就给我生成了一段15秒的1080p微番剧视频。总共花费了70wtoken,没有超过免费的额度。 效果真的超出我的预期,甚至到了以假乱真的地步,质感跟正经番剧的画面没差多少。比较让我意外的是,它除了自动给视频配上了对应的音效、人声对白,甚至设计了贴合氛围的背景音乐,跟画面贴得特别好,一点违和感都没有。
真的自己上手玩完才真切觉得,现在AI发展得太快了,生成的精度、对人话的理解度,都在肉眼可见地往上提。再也不是前两年画错手指数量的ai了。
当然,因为测试的素材过于简单,可能看不出来他的实力,按照网上的说法,该模型甚至支持导演运镜等各种高端效果,大家可以自行尝试。
关于能否ai代替人类创作/写代码这一点,网上一直有些争议,但我觉得大家还是利用这些ai技术来表达自己的想法,站在巨人的肩膀上,让自己更全能是更好的方案。在工业革命之后,汽车出现了那车夫就可以选择去学习开车,而不是去抵制汽车。更何况现在ai成本并没有当时买车那么高额。
也感谢字节跳动的火山引擎,尽管一分钱没给我,但是他们的低价,让我能没什么负担地用到这么好用的大模型。😂
就是随手记录一下这次的体验,分享给大家。也祝大家除夕过得开心,新的一年都能顺顺利利。