文本转语音模型
文本转语音模型使用说明手册
1. 使用场景
文本转语音模型(TTS)是一种将文本信息转换为语音输出的 AI 模型。该模型将输入文本内容生成自然流畅、富有表现力的语音,适用于多种应用场景:
- 为博客文章提供音频朗读
- 生成多语言语音内容
- 支持实时流媒体音频输出
2. API 使用指南
端点:/audio/speech
,具体使用可参考 API 文档
主要请求参数
- model:用于语音合成的模型,支持的模型列表
- input:待转换为音频的文本内容
- voice:参考音色,支持系统预置音色、用户预置音色、用户动态音色。详细参数请参考:创建文本转语音请求
- speed:可以控制音频速度,float 类型,默认值是 1.0,可选范围是 0.25, 4.0
- gain:音频增益,单位 dB,可以控制音频声音大小,float 类型,默认值是 0.0,可选范围是 -10, 10
- response_format:控制输出格式,支持 mp3、opus、wav 和 pcm 格式。在选择不同的输出格式时,输出的采样率也会有所不同
- sample_rate:可以控制输出采样率,对于不同的视频输出类型,默认值和可取值范围均不同,具体如下:
- opus: 目前只支持 48000hz
- wav, pcm: 支持 (8000, 16000, 24000, 32000, 44100), 默认 44100
- mp3: 支持(32000, 44100), 默认 44100
2.1 系统预置音色
目前系统预置了如下 8 种音色:
男生音色
- 沉稳男声: alex
- 低沉男声: benjamin
- 磁性男声: charles
- 欢快男声: david
女生音色
- 沉稳女声: anna
- 激情女声: bella
- 温柔女声: claire
- 欢快女声: diana
在线试听上述音频。
在请求中使用系统预置音色时,需要在前面加上模型名称,比如:
FunAudioLLM/CosyVoice2-0.5B:alex
表示 FunAudioLLM/CosyVoice2-0.5B 模型下的 alex 音色。
2.2 用户预置音色
为保证生成语音效果,建议用户上传音色为:时间 8~10s 左右,发音吐字清晰,没有杂音/背景音。
2.2.1 通过 base64 编码格式上传用户预置音色
import requests
import json
url = "https://api.openapi.cn/v1/uploads/audio/voice"
headers = {
"Authorization": "Bearer your-api-key", # 从 https://models.openapi.cn 获取
"Content-Type": "application/json"
}
data = {
"model": "FunAudioLLM/CosyVoice2-0.5B", # 模型名称
"customName": "your-voice-name", # 用户自定义的音频名称
"audio": "data:audio/mpeg;base64,SUQzBAAAAAAAIlRTU0UAAAAOAAADTGF2ZjYxLjcuMTAwAAAAAAAAAAAAAAD/40DAAAAAAAAAAAAASW5mbwAAAA8AAAAWAAAJywAfHx8fKioqKio1NTU1Pz8/Pz9KSkpKVVVVVVVfX19fampqamp1dXV1f39/f3+KioqKlZWVlZWfn5+fn6qqqqq1tbW1tb+/v7/KysrKytXV1dXf39/f3+rq6ur19fX19f////", # 参考音频的 base64 编码
"text": "在一无所知中, 梦里的一天结束了,一个新的轮回便会开始" # 参考音频的文字内容
}
response = requests.post(url, headers=headers, data=json.dumps(data))
# 打印响应状态码和响应内容
print(response.status_code)
print(response.json()) # 如果响应是 JSON 格式
上述接口返回的 uri
字段,即为自定义音色的 ID,用户可以将其作为后续的 voice
参数中,进行请求:
{"uri": "speech:your-voice-name:cm04pf7az00061413w7kz5qxs:mjtkgbyuunvtybnsvbxd"}
2.2.2 通过文件上传用户预置音色
import requests
url = "https://api.openapi.cn/v1/uploads/audio/voice"
headers = {
"Authorization": "Bearer your-api-key" # 从 https://models.openapi.cn 获取
}
files = {
"file": open("/Users/senseb/Downloads/fish_audio-Alex.mp3", "rb") # 参考音频文件
}
data = {
"model": "FunAudioLLM/CosyVoice2-0.5B", # 模型名称
"customName": "your-voice-name", # 参考音频名称
"text": "在一无所知中, 梦里的一天结束了,一个新的轮回便会开始" # 参考音频的文字内容
}
response = requests.post(url, headers=headers, files=files, data=data)
print(response.status_code)
print(response.json()) # 打印响应内容(如果是JSON格式)
2.3 获取用户动态音色列表
import requests
url = "https://api.openapi.cn/v1/audio/voice/list"
headers = {
"Authorization": "Bearer your-api-key" # 从https://models.openapi.cn获取
}
response = requests.get(url, headers=headers)
print(response.status_code)
print(response.json) # 打印响应内容(如果是JSON格式)
2.4 使用用户动态音色
2.5 删除用户动态音色
import requests
url = "https://api.openapi.cn/v1/audio/voice/deletions"
headers = {
"Authorization": "Bearer your-api-key",
"Content-Type": "application/json"
}
payload = {
"uri": "speech:your-voice-name:cm02pf7az00061413w7kz5qxs:mttkgbyuunvtybnsvbxd"
}
response = requests.request("POST", url, json=payload, headers=headers)
print(response.status_code)
print(response.text) #打印响应内容
3. 支持模型列表
3.1 FunAudioLLM/CosyVoice2-0.5B 系列模型
- 跨语言语音合成:实现不同语言之间的语音合成,中文、英文、日语、韩语、中国方言(粤语,四川话,上海话,郑州话,长沙话,天津话)
- 情感控制:支持生成具有多种情感表达的语音,包括快乐、兴奋、悲伤、愤怒等
- 细粒度控制:通过富文本或自然语言,对生成语音的情感和韵律进行细粒度控制
4. 参考音频的最佳实践
提供参考音频的高质量样本可以提升语音克隆效果。
4.1 音频质量指南
- 仅限单一说话人
- 稳定的音量、音调和情绪
- 简短的停顿(建议 0.5 秒)
- 理想情况:无背景噪音、专业录音质量、无房间回声
4.2 文件格式
- 支持格式:mp3, wav, pcm, opus
- 推荐使用 192kbps 以上的 mp3 以避免质量损失
- 未压缩格式(例如 WAV)提供的额外优势有限
5. 使用示例
5.1 使用系统预置音色
from pathlib import Path
from openai import OpenAI
speech_file_path = Path(__file__).parent / "OpenAPI-generated-speech.mp3"
client = OpenAI(
api_key="您的 APIKEY", # 从 https://models.openapi.cn 获取
base_url="https://api.openapi.cn/v1"
)
with client.audio.speech.with_streaming_response.create(
model="FunAudioLLM/CosyVoice2-0.5B", # 支持 fishaudio / GPT-SoVITS / CosyVoice2-0.5B 系列模型
voice="FunAudioLLM/CosyVoice2-0.5B:alex", # 系统预置音色
# 用户输入信息
input="你能用高兴的情感说吗?<|endofprompt|>今天真是太开心了,马上要放假了!I'm so happy, Spring Festival is coming!",
response_format="mp3" # 支持 mp3, wav, pcm, opus 格式
) as response:
response.stream_to_file(speech_file_path)
5.2 使用用户预置音色
from pathlib import Path
from openai import OpenAI
speech_file_path = Path(__file__).parent / "OpenAPI-generated-speech.mp3"
client = OpenAI(
api_key="您的 APIKEY", # 从 https://models.openapi.cn 获取
base_url="https://api.openapi.cn/v1"
)
with client.audio.speech.with_streaming_response.create(
model="FunAudioLLM/CosyVoice2-0.5B", # 支持 fishaudio / GPT-SoVITS / CosyVoice2-0.5B 系列模型
voice="speech:your-voice-name:cm02pf7az00061413w7kz5qxs:mttkgbyuunvtybnsvbxd", # 用户上传音色名称
# 用户输入信息
input=" 请问你能模仿粤语的口音吗?< |endofprompt| >多保重,早休息。",
response_format="mp3"
) as response:
response.stream_to_file(speech_file_path)
5.3 使用用户动态音色
from pathlib import Path
from openai import OpenAI
client = OpenAI()
speech_file_path = Path(__file__).parent / "OpenAPI-generated-speech.mp3"
client = OpenAI(
api_key="您的 APIKEY", # 从 https://models.openapi.cn 获取
base_url="https://api.openapi.cn/v1"
)
with client.audio.speech.with_streaming_response.create(
model="FunAudioLLM/CosyVoice2-0.5B",
voice="", # 此处传入空值,表示使用动态音色
# 用户输入信息
input=" [laughter]有时候,看着小孩子们的天真行为[laughter],我们总会会心一笑。",
response_format="mp3",
extra_body={"references":[
{
"audio": "https://sf-maas-