大家好,我是蓝戒,本篇我们来聊聊”开源语音模型:VoxCPM 2“。
如果你能用一段3秒的录音,让AI用你的声音说日语、唱粤语、演话剧——你会拿它做什么?
这不是科幻电影的情节,而是面壁智能联合清华大学人机语音交互实验室刚刚开源的语音基础模型 VoxCPM 2 正在做的事。
一个 2B 参数的开源模型,30种语言 + 9种中国方言,48kHz影视级音质,用文字就能"无中生有"创造一个全新声音——而且,完全免费商用。
一个模型,四般武艺
先说结论:VoxCPM 2 不是简单的版本迭代,而是语音合成领域的一次范式跃迁。在此之前,市面上想要实现"多语种 + 声音克隆 + 情绪控制 + 高音质"这四件事,你需要拼接好几个模型。而 VoxCPM 2,一个模型全部搞定。
第一招:Voice Design——用文字"画"出你想要的声音
这是 VoxCPM 2 最具想象力的功能。你不再需要提供任何参考音频,只需用自然语言描述你想要的声音,模型就能凭空创造出一个独一无二的全新音色。
比如你可以这样写:
(年轻女性,温柔甜美的声音)你好,欢迎来到VoxCPM2的世界!
或者更具体地描述:
(三十岁左右的男性,低沉磁性,语速偏慢,像在讲睡前故事)从前有座山,山里有座庙。
模型会根据这段描述,从零生成一个完全符合你想象的全新声音。音色的性别、年龄、气质、语速、情绪——全由你定义。这意味着,游戏角色、播客主播、有声书旁白……你可以为每一个场景量身定制一个"专属声优",而这个声优不需要训练,不需要注册,只需要一句话。
第二招:可控声音克隆——3秒录音,千人千面
上传一段3-10秒的参考音频,VoxCPM 2 就能捕捉你的音色特征。但仅仅克隆还不够——你还能通过文字指令控制克隆声音的情绪、语速和风格。
比如克隆某人的声音后,你可以这样写:
(语速稍快,语气欢快)这是带有风格控制的声音克隆效果。
克隆的音色保留了,但语气从沉稳变成了欢快,语速从正常变成了稍快。这就是"可控"二字的含金量——你克隆的不只是声音,更是声音的表达力。
第三招:终极克隆——"像素级"声音还原
如果你对还原度有极致追求,VoxCPM 2 还提供了终极克隆模式。同时提供参考音频和对应的逐字转写文本,模型就能像"接续播放"一样,从参考音频的语气、节奏、情绪中自然延续,连说话习惯和口音特点都能精准复制。
在权威的 Seed-TTS-eval 评测中,VoxCPM 2 在中文测试集上实现了 0.97% 的 CER(字错误率) 和 79.5% 的音色相似度,在开源模型中处于顶尖水平。
第四招:48kHz影视级音质
这是一个容易被低估但极其重要的指标。主流AI语音模型的采样率通常停留在16kHz或24kHz,听起来总有一种"数码感"——声音扁平,缺乏层次。而 VoxCPM 2 搭载了全新设计的 AudioVAE V2,采用非对称编解码架构(16kHz输入,48kHz输出),内置超分辨率能力,直接输出 48kHz 高保真音频。
48kHz意味着什么?这是CD音质的标准,也是专业影视制作、有声书录制、游戏配音的行业标准。呼吸声、唇齿音、情感起伏——这些人声中最微妙的细节,都能被完整保留。
30种语言 + 9种方言:真正的"语言大师"
VoxCPM 1.x 时代,只支持中英双语。而 VoxCPM 2 一次性跃升到了 30种语言,覆盖东亚、东南亚、南亚、欧洲、闪米特语族、非洲等多个语系:
| 语系 | 语言 |
|---|---|
| 东亚 | 中文、日语、韩语 |
| 东南亚 | 缅甸语、印尼语、高棉语、老挝语、马来语、他加禄语、泰语、越南语 |
| 南亚 | 印地语 |
| 欧洲日耳曼语族 | 丹麦语、荷兰语、英语、芬兰语、德语、挪威语、瑞典语 |
| 欧洲罗曼语族 | 法语、意大利语、葡萄牙语、西班牙语 |
| 欧洲其他 | 希腊语、波兰语、俄语、土耳其语 |
| 闪米特语族 | 阿拉伯语、希伯来语 |
| 非洲 | 斯瓦希里语 |
更令人惊喜的是,VoxCPM 2 深度支持了 9种中国方言:四川话、粤语、吴语、东北话、河南话、陕西话、山东话、天津话、闽南话。
这不是简单的"能说",而是深度理解了各地方言的语音特征和语调韵律。比如粤语的九声六调、四川话的儿化音、东北话的抑扬顿挫,都能被准确捕捉。你只需用方言本身的写法输入文本,模型就能生成地道的方言语音:
(广东话,中年男性)伙計,唔該一個A餐,凍奶茶少甜!
东南亚8国语种的支持,更是为出海企业提供了极大的便利——一部宣传片,30种语言版本,全部由一个模型搞定。
为什么 VoxCPM 2 这么强?技术深挖
VoxCPM 2 的强大,源于其独特的技术路线选择。
Tokenizer-Free + 连续表征建模
当前主流的语音合成模型大多采用"离散Token"路线——先把语音切成一个个离散的符号,再逐步重建。这个过程就像用马赛克拼图还原一幅画,信息损失不可避免。
VoxCPM 2 选择了另一条路:连续表征(Continuous Representation)。模型直接在连续的数学空间中对声学特征建模,再通过扩散模型从噪声中逐步生成清晰的音频波形。打个比方,离散方法像马赛克拼贴,连续方法则像画家直接在画布上作画——笔触的过渡和色彩的流动都更加自然。
这让 VoxCPM 2 在保留声音细节(呼吸声、口音)、实现细腻情感变化、多语言自然切换方面,拥有了天然优势。
四阶段流水线架构
VoxCPM 2 的架构遵循四阶段流水线:LocEnc → TSLM → RALM → LocDiT
- LocEnc(局部编码器):将参考音频编码为连续潜变量
- TSLM(文本语义语言模型):基于 MiniCPM-4 骨干,理解文本语义并推断合适的韵律
- RALM(残差声学语言模型):融合语义信息与声学特征,补全细节
- LocDiT(局部扩散变换器):通过流匹配(Flow Matching)从噪声中生成最终音频
相较于 1.x 版本,VoxCPM 2 在架构上有三项关键升级:Residual LM 融合从"加法"升级为"拼接+投影"(Concat-Projection),信息流更丰富;DiT 条件化从"单token"升级为"多token前缀",表现力更强;参考音频从"续写式"升级为"隔离式参考通道",克隆更稳定。
236万小时数据炼就
VoxCPM 2 在 236 万小时的多语言语音数据上完成训练——180万小时中英基础语料 + 56万小时多语言数据。这些数据涵盖了不同年龄、性别、口音、情感状态的真实语音样本,让模型学会了人类说话的"自然规律"——什么时候该停顿,什么时候该加重语气,什么时候该带上笑意。
硬核性能:数据说话
在权威语音合成评测榜单 Seed-TTS-eval 上,VoxCPM 2 的表现堪称惊艳:
闭源模型对比: 字节跳动 Seed-TTS(英文 WER 2.25%,中文 CER 1.12%,英文 SIM 76.2%,中文 SIM 79.6%),MiniMax-Speech(英文 WER 1.65%,中文 CER 0.83%,英文 SIM 69.2%,中文 SIM 78.3%),CosyVoice3 1.5B(英文 WER 2.22%,中文 CER 1.12%,英文 SIM 72.0%,中文 SIM 78.1%),这三款均为闭源模型,无法自由部署和商用。
开源模型对比: IndexTTS2(1.5B参数,英文 WER 2.23%,中文 CER 1.03%,英文 SIM 70.6%,中文 SIM 76.5%),Qwen3-TTS(1.7B参数,英文 WER 1.23%,中文 CER 1.22%,英文 SIM 71.7%,中文 SIM 77.0%),F5-TTS(0.3B参数,英文 WER 2.00%,中文 CER 1.53%,英文 SIM 67.0%,中文 SIM 76.0%)。
VoxCPM 2(2B参数) 实现了英文 WER 1.84%、中文 CER 0.97%、英文 SIM 75.3%、中文 SIM 79.5%。在开源模型中,其中文 CER 0.97% 是全场最低之一,音色相似度 79.5% 更是开源模型中的顶尖水平。
而在多语言音色相似度评测(MiniMax-MLS-test)中,VoxCPM 2 在 24 种语言中有 21 种语言的音色相似度排名第一,英文音色相似度更是达到了惊人的 85.4%。
在指令式声音设计评测 InstructTTSEval 上,VoxCPM 2 的英文 RP(韵律保真度)得分 71.4%,超过所有参赛模型,说明它不仅声音像,说话的节奏和语气也更贴合指令要求。
部署友好:8G显存即可运行
令人意外的是,这样一个2B参数的"巨量"模型,部署门槛却异常亲民:
- 显存占用:仅需约 8GB 显存,主流消费级显卡即可运行
- 推理速度:RTX 4090 上 RTF 约 0.30(即生成速度是播放速度的3.3倍),搭配 Nano-vLLM 加速后 RTF 可低至 0.13
- 流式输出:支持实时流式生成,适合对话场景
- 微调支持:5-10分钟音频即可完成 LoRA 微调,适配特定说话人或领域
- 社区生态:已有 Nano-vLLM 服务端、VoxCPM.cpp(CPU/CUDA/Vulkan)、Apple Neural Engine 部署、ComfyUI 节点式工作流等丰富的社区项目
安装只需一行命令:
pip install voxcpm
三行代码即可生成语音:
from voxcpm import VoxCPM
import soundfile as sf
model = VoxCPM.from_pretrained("openbmb/VoxCPM2", load_denoiser=False)
wav = model.generate(text="你好,欢迎来到VoxCPM2的世界!", cfg_value=2.0, inference_timesteps=10)
sf.write("output.wav", wav, model.tts_model.sample_rate)
免费体验,开箱即用
不想折腾部署?面壁智能已经在国内上线了免费体验网页,打开浏览器即可使用:
体验地址:https://voxcpm.modelbest.cn
上传一段音频,输入你想说的话,点击生成——3秒后,一个属于你的AI声音就诞生了。
开源协议:Apache 2.0,免费商用
VoxCPM 2 的代码和权重均以 Apache License 2.0 协议开源,这意味着你可以自由地将其用于商业产品,无需支付任何许可费用。对于中小企业和独立开发者来说,这是目前最友好的开源语音合成方案之一。
VoxCPM 全版本对比
VoxCPM-0.5B(初代版本):0.5B参数,16kHz采样率,仅支持中英双语,克隆方式为续写式,不支持声音设计和可控克隆,显存占用约5GB,RTF约0.17。
VoxCPM 1.5(稳定版本):0.6B参数,44.1kHz采样率,仅支持中英双语,克隆方式为续写式,不支持声音设计和可控克隆,显存占用约6GB,RTF约0.15。
VoxCPM 2(最新推荐版本):2B参数,48kHz采样率,支持30种语言,克隆方式为隔离式参考通道,支持声音设计和可控克隆,显存占用约8GB,RTF约0.30。
写在最后
VoxCPM 2 的出现,本质上回答了一个问题:开源语音合成,能不能做到"一个模型搞定一切"?
30种语言、9种方言、声音从零设计、3秒克隆、48kHz影视级音质、8G显存可跑、Apache 2.0免费商用——面壁智能用2B参数给出了答案。
这不是一个需要你"将就"的模型,而是一个让你"释放想象力"的工具。有声书创作者可以用它为每个角色定制声音,出海企业可以用它一键生成多语言配音,独立开发者可以用它为产品注入语音交互能力,方言爱好者可以用它为家乡话留下数字化的声音。
声音的世界,从未如此自由。
相关链接
- 官网体验:https://voxcpm.modelbest.cn
- GitHub 仓库:https://github.com/OpenBMB/VoxCPM
- Hugging Face 模型:https://huggingface.co/openbmb/VoxCPM2
- 音频示例:https://openbmb.github.io/voxcpm2-demopage
- 完整文档:https://voxcpm.readthedocs.io
文章评论