打开网易新闻 查看精彩图片
音乐AI终于学会"听人话"了。
Suno v5.5 上线,官方说这是表现力最强的版本。但比起参数,我更在意它终于把麦克风递给了用户——现在 Pro 和 Premier 订阅者可以用自己的声音生成歌曲,相当于给AI发了一张带照片的工牌。
打开网易新闻 查看精彩图片
声音克隆这事,Suno 显然被 Deepfake 搞怕了。现场朗读随机短语、声纹比对、档案默认私密,三道锁扣得死死的。可以理解,毕竟谁都不想某天在短视频里听到自己唱《学猫叫》。
真正有意思的是"自定义模型"。高级用户能上传原创曲库,让AI定向学习你的编曲习惯——最多建3个分身。这有点像养了三只不同性格的猫,一只写爵士,一只搞电子,还有只专磕卧室流行。系统会记住你偏好的和弦走向和音色选择,下次创作时自动调用。
打开网易新闻 查看精彩图片
免费用户也没被落下。"我的品味"会默默记录你爱听的流派和情绪,越用越像那个总能在歌单里翻到惊喜的朋友。只不过这个朋友不会问你"在吗",只会直接塞给你一首对味的demo。
Suno 现在年经常性收入3亿美元,估值冲20亿,还在跟唱片公司和解谈判。商业故事很热闹,但一个付费用户的反馈更实在:他用自己的声音做了首摇篮曲,放给两岁的女儿听,孩子愣了一下,然后笑了。
热门跟贴