Suno编曲已超人类但我们的耳朵总能揪出那股AI味

你是不是经常听到一些 AI 生成的音乐,特别被像 SUNO 这种工具刷屏。

我刚试了下,随便丢了句“我在工位摸鱼,老板在身后”,它“Duang”一下就给我整了首“职场悲歌”……

说实话,第一耳是挺惊艳的。

但听多了,总觉得有点“不对劲”。这玩意儿,真的能骗过人吗?

巧了,我刚扒到一篇“丧心病狂”的论文。一群科学家还真就搞了个大型“音乐盲测”,让 Suno 和真人 PK。

结果……简直一波三折,比过山车还刺激。

Suno编曲已超人类但我们的耳朵总能揪出那股AI味-2

图:论文《 人性的回响:探寻 AI 音乐里那股“人味儿”》

(PS:这事儿不光我们在聊,连 OpenAI 都在悄悄布局,Ethan Mollick 教授也说这会带来“巨大变革”。但这些先放一边,我们先来看这个“狼人杀”实验,特有意思。)

一场大型“音乐狼人杀”

这帮“搞事”的科学家,找来一堆人,让他们戴上耳机,然后听两首歌。

一首,来自真人独立音乐人。

另一首,Suno 的大作。

听完,任务只有一个:“来,猜猜看,哪一首是 AI 写的?”

但“骚操作”来了,他们搞了两种“出题模式”:

模式一 :“随机乱斗”AI 歌和真人歌随机配对。可能前一秒你还在听人类唱的民谣,后一秒 AI 就给你来了一段重金属。

模式二 :“神仙打架”故意挑风格、流派、甚至感觉都极为相似的 AI 歌和真人歌放一起。比如,两首都给你上节奏感强烈的电子舞曲,让你听得“雌雄莫辨”。

好了,游戏开始。你觉得,人类能揪出隐藏的 AI 吗?

AI 先完胜,然后又惨败

实验结果,简直了。

首先,在“随机乱斗”模式下(就是两首歌风格差异很大时),结果让人大跌眼镜:

人类,完全是在瞎猜!

是的,你没看错。大家的正确率只有 53%。

这和闭着眼睛抛硬币有啥区别?

在这一局,AI 几乎完美地骗过了所有人的耳朵。

但是!神转折来了!

当这帮人切换到“神仙打架”模式(就是两首风格很像的歌放一起对比时),人类的“金耳朵”仿佛突然觉醒了!

准确率瞬间飙到了 66%!

这差距可不是闹着玩的,在统计学上是质的飞跃。

这说明啥?一个特有意思的结论浮出水面:

当 AI 音乐没有参照物时,它足以乱真。可一旦有了一个“真人参照物”在旁边对比,我们那套基于“人性”和“直觉”的辨别系统,才被瞬间激活了!

看到这我简直拍大腿!这不就是“货比货得扔”嘛?Suno 单独听还行,一跟真人比,那股“AI味儿”就藏不住了。

就在我们聊这个“盲测”的时候,我又刷了一篇苏黎世联邦理工学院(ETH Zurich)更“吓人”的论文,那篇论文是今年 6 月份发的,那时候 Suno 5 还没发布。

他们搞了个“AI 音乐奥运会”,拉了 12 个模型(包括 Suno v3.5、Udio等)生成了 6000 首歌 ,让 2500 多人盲听。

结果发现,Suno v3.5 在“好听”和“贴题”两个维度上,把所有对手都远远甩开了。现在已经是 Suno 5 的时代了,那就更不用说了。

图:AI 音乐盲测评分。越往右越“好听”,越往上越“贴题”。红点 (MTG-Jamendo) 是“人类音乐”——Suno v3.5(右上角)在“好听”上已经超过了它。

最夸张的是,在“好听”程度上,Suno 甚至打败了 人类创作者的音乐 (MTG-Jamendo 基准)。

但!重点来了!这篇论文明确规定,只测试 10 秒的纯音乐(instrumental versions only) 。

这说明什么?

这恰恰说明,一旦 去掉“人声”和“歌词” 这两个最大的马脚,AI 在“编曲”和“旋律”上,可能真的已经强过大部分人类了。

这也让我们下面要扒的这些“马脚”,显得更关键了。

那么,当人们信心满满地指着一首歌说“这首听着很 AI”时,他们到底听出了什么破绽?

揭秘:“AI 的马脚”到底藏在哪?

那么,大家到底听出了啥“不对劲”的地方?

研究人员看了看那上百条反馈,基本都集中在这么几个“马脚”上:

🗣️ 1. 致命的“人声”——最大的破绽!

(对对对,就是这个!被吐槽最多的就是这个。)

听众普遍觉得 AI 歌声“没有感情的”、“像机器人念经”、“发音很奇怪”,甚至有人吐槽 AI “唱歌都忘了换气”。

这种非人的“完美”或“僵硬”,成了它最明显的标签。

✍️ 2. “没灵魂”的歌词——不是乱写就是套话

AI 写的词也经常露怯。

要么就是“歌词毫无意义”、“前后逻辑混乱”,让人听了满头问号;

要么就是堆砌一些“陈词滥调”,听起来“过于平庸”。

🎧 3. 其他技术性问题——挥之不去的“塑料感”

此外,还有很多技术层面的吐槽,比如“声音听起来很假”、“制作有点粗糙”。

这种感觉,就像高清照片里一个劣质的 P 图,总有那么点说不出的“违和感”。

谁是“AI 辨别大师”?是你吗?

更有意思的是,研究还发现,有两类人最不容易被 AI 音乐欺骗。

快来对号入座,看看你是不是:

第一类:音乐老炮儿

那些玩乐器超过 5-10 年的,他们辨别 AI 的准确率明显更高。也许是因为他们对音乐里那些“人性”的瑕疵、即兴的火花和自然的呼吸感,更为敏感。

第二类:AI 圈内人

没错,就是咱们!

数据证明,那些早就知道 Suno、Udio 是什么的人(很可能就是正在读这篇文章的你!),辨别AI的准确率高得多。

用人话说就是:“知识”本身,就是最强的“AI 鉴别器”。

恭喜你,读到这里,你已经比大多数人更“懂行”了。

(顺便提个扎心的发现:研究数据显示,年龄越大的人,反而越容易被 AI 骗到…… 哎,不说了。)

AI 学会了正确,而我们爱的是“背景”

挖出这篇论文的开头,我发现作者引用了科幻大神阿西莫夫(Isaac Asimov)在 1950 年《我,机器人》里的一句话:

“你就是无法区分一个机器人和最优秀的人类。”

在围棋、在图像识别上,AI 早就做到了。但现在,Suno 和 Udio 这样的工具,把这个终极问题带到了艺术领域——一个我们原以为是“人性”最后堡垒的地方。

这就带来了一个直击灵魂的拷问: 到底什么,才叫“听起来像 AI”?

而我们今天扒的这篇论文,恰好就用数据印证了那些顶级音乐人们的直觉。

就在上周,格莱美提名歌手“断眉” Charlie Puth 还在用 Kanye 的《Stronger》举例,解释为什么 AI 音乐感觉很“糟糕”,因为它永远无法复现人类创作时的“灵光一闪”和那些独特的“瑕疵”。

而传奇的《最终幻想》系列作曲家植松伸夫(Nobuo Uematsu),更是斩钉截铁地说,他“永远不会”使用生成式 AI。

他的理由,完美地总结了这场“人与 AI”的辩论:

“我仍然觉得,亲自经历创作的艰辛会更有意义。当你听音乐时,乐趣不也在于发现创作者的背景故事吗?AI,恰恰没有那种背景。”

图: 作曲家植松伸夫称不使用 AI 进行创作

也许,AI 已经学会了音乐理论里所有的“正确”,比如完美的音准、工整的结构和流畅的旋律。

但人类艺术的伟大,恰恰在于那些“不正确”的瞬间——

那个不经意的忘词、那一下轻微的跑调、那个没来由的灵感迸发,和那藏在歌声里,独一无二的、充满了“艰辛”与“故事”的……

人性。

那么,你听 Suno 的时候,是感觉“惊艳”还是“别扭”?

你在哪一刻听出了那股挥之不去的“AI 味儿”?

评论区聊聊。

P.S. 如果觉得这篇“扒皮”有点意思,随手点个 「赞」 和 「收藏」 ,让更多“金耳朵”朋友也来测测。

参考:

https://arxiv.org/pdf/2509.25601

https://arxiv.org/pdf/2506.19085

THE END
分享
二维码
< <上一篇
下一篇>>