AI音乐生成从概念走向规模化,需要模型在音质、编曲完整度和算力成本上同步突破。Mureka在过去两年里实现了从V1到V8的迭代,已在多项公开评测中超越Suno的最新版本。
说白了,Mureka的核心在于两项技术创新:一是采用混合型自回归‑扩散框架,将时序建模的精准度与扩散生成的多样性相融合;二是引入跨模态音乐语义映射,使得文字提示能够直接驱动和声、节奏乃至演奏手法的细粒度控制。训练数据覆盖了超过30万首商业级配乐,标注深度达到每小节音高与力度的对齐。
从商业视角看,Mureka把配乐成本从传统的十万元跌到不足一分钱。2024 年底累计注册用户突破 700 万,覆盖 100 多个国家;截至去年 Q4,已为 8000 多家企业提供 API,年化流水 ARR 达 1200 万美元。更关键的是,去年 11 月实现扣除营销费用后的毛利首次转正,标志着模型优势正在转化为可持续收益。
“用 Mureka 只花了几秒,就拿到一段可以直接投入商业广告的配乐,省下的时间和预算几乎可以再投一场拍摄。”
生态层面,Mureka 已通过统一的 SDK 与视频、游戏、短剧平台深度集成,形成“模型‑产品‑渠道”的闭环。海外市场的渗透率超过 93%,尤其在非洲和东南亚,以低成本本地化配乐赢得了大量本土创作者的青睐。下一步计划推出 AI Studio,直接嵌入专业 DAW,实现从创意到成品的一键落地。
所有资源来源于网络,如有侵权请联系站长。
参与讨论
AI Studio嵌DAW?那MIDI控制能做到几层?
东南亚非洲用得多=低端市场堆数据吧…🤔
说白了不就是拼训练量,创新点在哪?
之前搞过AI作曲,光标一拉三小时,这效率不敢想
想问下人声部分能处理吗?还是只能做纯音乐?