AI音乐创作已经能够在几秒钟内输出完整的旋律与编曲,但当我们把音符交给听众时,常常会产生一种“机械感”。于是有人问:下一步的突破口会是让机器真正“感受”音乐吗?

目前主流模型(如OpenAI的Jukebox、Meta的MusicGen)依赖大规模数据的统计学习,擅长复制和混合已有风格,却缺乏对“悲伤”“欣喜”等细腻情绪的可解释控制。实验数据显示,只有约32%的受测者能够准确辨认出AI生成的“忧郁”片段背后的情感意图,说明情感标签仍停留在表层。
2022年,东京大学的团队尝试把情感词典映射到音高、节奏和和声的参数上,结果在同一旋律的“柔和”版与“激昂”版之间,听众的情绪评分相差0.9分(满分5分)。同年,DeepMind发布的“EmotionFlow”项目通过加入情绪状态向量,使生成的音乐在心率监测实验中能够诱发受试者的平均心率下降约5次/分钟,接近人类现场演奏的效果。
如果把情感视作一种可量化的信号,AI音乐的“共情”就可以像智能助理调节语调那样实现。实际操作中,研发者往往先让模型输出多个情感候选,然后利用强化学习把用户的即时反馈(比如点赞或跳过)转化为奖励信号。如此循环,系统不再是单向的创作机器,而是与听众形成闭环的情感伙伴。
不过,情感毕竟是主观的,机器能否捕捉到每个人心底的那一抹忧伤,仍是个悬而未决的问题。或许,下一个里程碑不是让AI“写出悲伤”,而是让它在听众的情绪波动中,恰如其分地加入一丝慰藉。
所有资源来源于网络,如有侵权请联系站长。
参与讨论
这玩意真能听懂悲伤?我咋觉得还是机械得很