附录(小白指南)

如果您是第一次接触“模型下载 / 本地大模型 / 云端 API”,建议先从这里开始:一步一步照做即可。

附录 A:ModelScope(模型下载)

适用场景:下载 STT(SenseVoice)与本地 TTS(Qwen3-TTS / Index-TTS2)模型文件。

官方文档:https://www.modelscope.cn/docs/

1) 是否需要注册/登录?

大多数公开模型无需登录即可下载;如果遇到“权限/访问受限”等提示,通常需要在 ModelScope 网站登录后按提示开通访问权限。

2) 先确认系统架构(选对安装包/环境)

3) 安装 ModelScope CLI

ModelScope 的下载命令来自其 CLI(需要本机有 Python 与 pip)。常见方式如下:

pip install modelscope
modelscope --help

4) 找模型(如果需要)

打开 ModelScope 网站,搜索模型名(例如 SenseVoice / Qwen3-TTS / IndexTTS-2),进入模型详情页复制模型 ID。

5) 下载示例(与你的文档保持一致)

modelscope download --model iic/SenseVoiceSmall --local_dir ./SenseVoiceSmall
modelscope download --model Qwen/Qwen3-TTS-12Hz-1.7B-Base --local_dir ./Qwen/Qwen3-TTS-12Hz-1.7B-Base
modelscope download --model Qwen/Qwen3-TTS-12Hz-1.7B-CustomVoice --local_dir ./Qwen/Qwen3-TTS-12Hz-1.7B-CustomVoice
modelscope download --model Qwen/Qwen3-TTS-12Hz-1.7B-VoiceDesign --local_dir ./Qwen/Qwen3-TTS-12Hz-1.7B-VoiceDesign
modelscope download --model IndexTeam/IndexTTS-2 --local_dir ./IndexTeam/IndexTTS-2

6) 在无界音流里怎么填路径?

7) 小白用例(最短路径)

  1. 按上面命令下载 iic/SenseVoiceSmall
  2. 打开无界音流 → 设置 → 模型目录,指向 SenseVoiceSmall 目录
  3. 回到主界面按 RightAlt 开始说话,看文字是否实时出现

附录 B:Ollama(本地大模型:翻译 / 纠错 / 总结)

适用场景:本机运行翻译模型与总结模型;无界音流通过 OpenAI 兼容接口调用(典型 Base URL:http://localhost:11434/v1)。

官方文档:https://docs.ollama.com/

1) 安装(按系统/架构选择下载)

2) 验证安装

ollama --version

3) 拉取模型(与你的文档保持一致)

ollama pull ZimaBlueAI/HY-MT1.5-1.8
ollama pull qwen3:4b

4) 无界音流配置示例

本地 Ollama 一般不需要 API Key;如果您部署在远程机器/网关,请按您的部署策略决定是否需要鉴权。

5) 小白用例(最短路径)

  1. 安装 Ollama
  2. 执行 ollama pull ZimaBlueAI/HY-MT1.5-1.8
  3. 无界音流 → 设置 → 勾选“启用翻译输出”,Base URL 填 http://localhost:11434/v1,模型填上面名称
  4. 开始录音,观察翻译结果是否出现

附录 C:火山引擎(Volcengine)云端 TTS

适用场景:希望使用云端高质量音色或声音复刻能力时,使用火山引擎云端 TTS。

官方入口:

1) 是否需要注册/开通?

需要。请先注册并登录火山引擎账号,在控制台开通语音相关服务,并创建可用的鉴权信息。

2) 你需要准备哪些信息(与无界音流设置项对应)

3) 无界音流配置示例(最小可用)

  1. 无界音流 → 设置 → TTS 模型选择:选择 Volcengine TTS(火山引擎)
  2. Mode 选择 HTTP(更简单;部分模式可能在未来更新)
  3. 填写 AppId / Token / Cluster / VoiceType
  4. 输入一段文字做合成,确认可以出声

4) 小白排错