背景

今天,2024 年 3 月 25 日,我的一个叫残梦霓虹的好友发来了两个音频文件,是最近新出的 AI 音乐模型 sono 生成的。

听了一下,还有点东西,非常像人做的了。只是有两个缺点:

  1. 不能导出 midi
  2. 只能生成两分钟

于是我开始想:工具、软件的出现让创作音乐的过程变得更加高效了,但随着 AI 生成技术的发展,创作音乐的快乐是不是会被 AI 取缔?

先设想一下,假如效率高到极限,这样的音乐创作过程是什么样的?

坐着不用动,脑子里想,你的想法像电波一样传递给一个高科技程序,自动识别你的想法和意图,一瞬间就出来了一个工程文件,你可以听一遍。然后当有一些地方感觉不对,和自己想的不太一样的时候,这个高科技程序立刻识别到了你的想法,并按照你的意图修改了某个地方。

重复上述过程,直到作品满意了为止。

所以,音乐创作的本质实际上就是将心里的意图,转化为了实际可以听到的声音。

如今突飞猛进的创作工具和 AI 工具,让这个转化的过程不断的缩短。

但 AI 始终是没有意识的 AI,否则那相当于是创造了一种生命体了。所以意图始终是在人心里的,AI 不能自发的创作,AI 只能根据人的意图来产出音乐。

但经常可能会有这样一种情况,人本身的创作意图和需求都是不清晰的,仅仅只是概括和标签化的描述给 AI。AI 在它所有标签的可能性的结果中产生了一个音乐给你。你恰好认为这个不错,所以就拿来当你创作的作品了。

这似乎也无可非议。

音乐是给人服务的,听众听着好听,就没问题。严肃音乐除外。(严肃音乐是……)

观众的审美等级可能是会变化和提高的。

如果认为,音乐的目的就是为了剧情、故事服务,那么 AI 音乐的发展就是一种帮助,帮助我们更快的做动画和电影,游戏。效率更高了。

所以最核心的还是人所要表达的故事。

那么故事的目的又是什么?

还是先看看音乐的目的是什么,或者说音乐有什么用吧:

穷举音乐的目的:

  1. 提供氛围,烘托气氛。
  2. 熟悉的旋律承载个人记忆、民族记忆和文化:中国的京剧、西方的歌剧、非洲的鼓乐等。
  3. 提供一种合作的事情,比如共同创作,共同演唱,增进人与人之间的联系和友谊
  4. 不同国家的语言也许不通,但音乐表达的情感是国际互通的。
  5. 修复社会情绪的一剂良药。一些人通过音乐被治愈,在逆境中获得力量。

第一点:找 AI 音乐烘托气氛也不是不可以。

第二点:不排除现在经历的事情可能被人用 AI 写成 AI 音乐,被后人所流传和保存。

第三点:共同创作音乐可能会变成共同用 AI 创作音乐。设想 AI 变得顶级强悍,这样的合作可能有点无趣。甚至有可能这件合作事情因为 AI 的出现而瓦解,人们通过其他事情来寻找合作和互动的乐趣。

第四点:第四点表达的目的大概可能和第一点重叠了。如果音乐用于一种语言作为国际交流,这似乎不太可能。这似乎只出现在科幻小说中“歌者文明”。

第五点:这个 AI 应该替代不了,因为人肯定希望被真正的温暖治愈,这个真正的温暖可能是听者喜欢的偶像。或者具有相同经历的,能够共情的确确实实存在的人。除非这个 AI 歌手、数字人、以及它所构建的背景故事太逼真了,把别人给骗了,以为是真实存在的人。

所以我认为 AI 音乐对音乐创作本身产生重大影响。会减少学习和关注音乐本身的人的数量。

但关于 AI 音乐的出现会减少音乐学习的人数和关注人数有相反意见:

AI 也可能激发更多人对音乐的兴趣,因为它降低了创作门槛,让更多人有机会接触和尝试音乐创作。同时,高质量的音乐教育和对音乐艺术深层次追求的重要性仍然不可忽视,因为音乐不仅仅关乎创作,还包括欣赏、理论、表演和文化理解等多个维度。因此,AI 音乐的影响可能是双面的,既有挑战也有机遇。

对 AI 音乐创新性的质疑:

有一些音乐听起来不怎么好听,但是是具有颠覆和创新意义存在的,比如全程静音的“四分三十三秒”、比如德彪西的音乐、还有用拼接主义创新出来的音乐、还有用一些微分音和其他体系做出来的音乐,比如宝可梦的紫苑镇背景音乐,作曲家在乐理和音色上进行了极为细节的精心设计。这些极具创新性的音乐虽然不会出现在市场上,但这可能 AI 学不来,目前的 AI 只能根据数据集中的数据来学习模式,生成风格类似的音乐。但数据集里的音乐还是人们创作的音乐。所以 AI 很难做出这种令人意想不到的创新。AI 的创新只是旧有数据集中的模式里学习来的音乐内容变化。除非这些意想不到的音乐已经在数据集中了,被 AI 学习到了。

具体来说是这样:

目前 AI 的数据集中都是流行、古典、爵士、等各种音乐,突然人类在数据集中添加了一个“四分三十三秒”,此时此刻,AI 开始有小概率生成一些全是静音或者前半段有音乐后半段静音,或者中间、前半段静音的奇怪音乐了。

这时候,人类又往数据集中添加了一个含有微分音的音乐,这个时候 AI 学习的时候知道了,原来音乐还可以脱离十二平均律的体系了,于是,AI 生成的音乐开始有些特殊异样的听感了。

这时候人类又往数据集中添加了一些录音,摩擦的噪音……AI 生成的音乐种类又多了。

从这个角度看,还是人类在引领音乐的创新。

这种意想不到的音乐始终还得是由人来创造,然后放入 AI 的训练集供 AI 学习。形成一种新的风格,所以最终引领音乐创新的还是人,不是 AI。除非 AI 学习到了元思维,能够像人一样思考如何对音乐创新。不过貌似让音乐 AI 有这样的元思维也不是不可能,毕竟大语言模型有可能有这种创新思维。

AI 的缺点:无法实践、实验、检验。

音乐最终是给人听的。不是给机器人听的。

一个音乐是否好听,得要有人去听,检验。在乐理逻辑上虽然能做出一些机器自主的判断,计算音程距离、听感和谐程度、整体结构的复杂度,但人是主观的,人类的审美和喜好是随时变化的。

经过一番思考,很难得出一些好的结论来帮我自己做出一些抉择,目前只能对 AI 音乐的发展保持持续的关注。