做音乐的人有个默契:前奏决定听众会不会切歌,副歌决定会不会收藏。谷歌新发的 Lyria 3 Pro,直接把这俩环节的生成精度当成了卖点。
打开网易新闻 查看精彩图片
3 月 26 日,谷歌上线这款号称"最先进"的音乐模型。相比上一代,它最大的变化不是音色多逼真,而是能完整输出约 3 分钟的音轨——前奏、主歌、副歌、桥段这些结构,它现在分得清,也接得上。换句话说,从"能响"到"能听",中间隔了一次版本迭代。
打开网易新闻 查看精彩图片
不过谷歌留了后手。你就算在提示词里写死某位艺人的名字,模型也只拿它当"灵感参考",不会直接复刻风格。训练数据来源被模糊处理成"服务条款允许范围内",具体用了哪些歌、付没付费,没说。所有生成音频都埋了 SynthID 水印,肉眼听不见,但算法一抓一个准。
落地场景已经铺开了:Gemini、企业视频工具 Google Vids、开发者平台 Vertex AI、AI Studio,还有那个叫 ProducerAI 的协作工具。路线很清晰——既要让普通人玩着用,也要让开发者接进自己的流水线。
有个细节值得玩味:3 分钟,刚好是一首流行歌的标准时长。不是技术上限,是产品定义。谷歌似乎认定,AI 音乐真正的战场不在"生成",而在"可用"。
热门跟贴