介绍
语音转文本(STT)API 基于 OpenAI 的 Whisper 模型,可以将音频文件转换为文本。支持多种用途:- 音频文件转录为文本
- 多语言音频翻译为英文
- 支持多种音频格式输入
- 提供多种输出格式选择
- whisper-large-v3 —— 最新的大型 Whisper 模型,支持多语言,中文识别需配合 prompt 和低 temperature 使用
- whisper-1 —— 初代 Whisper 模型,稳定可靠,支持多语言
- distil-whisper-large-v3-en —— 蒸馏模型,处理速度更快,但准确性略低,建议配合低 temperature 值
模型调用方式
语音转录(Transcriptions)
使用/v1/audio/transcriptions 端点,通过 client.audio.transcriptions.create() 方法调用,将音频转录为原始语言的文本。
语音翻译(Translations)
使用/v1/audio/translations 端点,通过 client.audio.translations.create() 方法调用,将音频翻译为英文文本。
请求参数
转录参数(Transcriptions)
要转录的音频文件对象,支持格式:mp3, mp4, mpeg, mpga, m4a, wav, webm,最大 25MB
要使用的模型 ID。可选值:
whisper-large-v3、whisper-1、distil-whisper-large-v3-en输入音频的语言,ISO-639-1 格式(如 ‘en’, ‘zh’)。指定语言可以提高准确性和延迟
可选的文本提示,用于指导模型的风格或继续之前的音频片段。提示应该匹配音频语言
转录输出格式。可选值:
json(默认)、text、srt、verbose_json、vtt采样温度,介于 0 和 1 之间。较高的值会使输出更随机,较低的值会使其更集中和确定。默认为 0
时间戳粒度。可选值:
word、segment。仅当 response_format 为 verbose_json 时可用翻译参数(Translations)
要翻译的音频文件对象,支持格式同转录
要使用的模型 ID,同转录参数
可选的英文文本提示,用于指导翻译风格
翻译输出格式,同转录参数
采样温度,同转录参数
使用方法
响应格式
JSON 格式(默认)
详细 JSON 格式(verbose_json)
文本格式(text)
SRT 格式
VTT 格式
最佳实践
- 中文音频处理:使用
whisper-large-v3模型,设置language="zh",temperature=0.2,并提供合适的中文 prompt - 英文音频处理:可使用
distil-whisper-large-v3-en获得更快的处理速度 - 噪音处理:使用 prompt 提示模型忽略背景噪音或清理结巴等问题
- 长音频处理:API 自动将长音频分段处理,建议预处理音频质量以获得最佳效果
- 时间戳需求:需要精确时间戳时使用
verbose_json格式和timestamp_granularities - 字幕制作:直接使用
srt或vtt格式输出,无需额外处理