ghc189

Bailian Voice Clone MCP

Community ghc189
Updated

mcp

Bailian Voice Clone MCP

一个可部署到阿里云 Function AI 的 stdio MCP,用于:

  • 创建声音克隆
  • 轮询音色状态
  • 查询单个音色
  • 列出音色
  • 删除音色
  • 用复刻音色做语音合成

本地启动

  1. 安装依赖

Path B:部署到阿里云 Function AI

1. 准备代码仓库

把这个目录推到 GitHub 或阿里云 Codeup:

  • server.py
  • requirements.txt
  • .env.example
  • README.md

2. 在 Function AI 创建 MCP 服务

  1. 登录 Function AI 控制台
  2. 创建空白项目
  3. 新建服务,选择 MCP 服务
  4. 传输类型选择 SSE
  5. 开启鉴权
  6. 运行环境选择 Python
  7. 绑定你的代码仓库

3. 配置构建和启动

建议值:

  • 构建命令:pip install -t . -r requirements.txt
  • 启动命令:python server.py

资源建议:

  • vCPU:1
  • 内存:2 GB
  • 弹性策略:极速模式
  • 预置快照:1
  • 实例上限:1

4. 配置环境变量

在 Function AI 的变量管理里新增:

  • DASHSCOPE_API_KEY
  • DASHSCOPE_REGION=cn-beijing
  • BAILIAN_TTS_MODEL=cosyvoice-v3.5-plus
  • INLINE_AUDIO_BASE64_LIMIT=300000

5. 部署并测试

部署成功后,Function AI 会给你一个公网 SSE 地址,通常是:

https://xxxx.cn-beijing.fcapp.run/sse

先在 Function AI 控制台直接测试工具是否可用。

注册到百炼 MCP 管理

  1. 打开百炼控制台 -> MCP 管理 -> 自定义服务
  2. 点击 +创建 MCP 服务
  3. 选择 使用脚本部署
  4. 安装方式选 http
  5. 填入你的 SSE 地址

配置示例:

{
  "mcpServers": {
    "voice-clone-mcp": {
      "url": "https://xxxx.cn-beijing.fcapp.run/sse"
    }
  }
}

使用顺序建议

  1. create_voice_clone
  2. wait_for_voice_ready
  3. 状态变成 OK 后,调 synthesize_with_cloned_voice

示例参数

创建声音克隆

{
  "audio_url": "https://your-public-audio-url/sample.wav",
  "prefix": "myvoice01",
  "language_hint": "zh",
  "target_model": "cosyvoice-v3.5-plus",
  "region": "cn-beijing"
}

合成语音

{
  "text": "你好,这是一段使用复刻音色生成的演示语音。",
  "voice_id": "cosyvoice-v3.5-plus-myvoice01-xxxxxxxx",
  "target_model": "cosyvoice-v3.5-plus",
  "region": "cn-beijing",
  "inline_base64": true
}

注意事项

  • 声音克隆和声音合成用的 target_model 必须一致,否则合成会失败
  • audio_url 必须公网可访问
  • prefix 建议只用小写字母、数字、下划线,长度不超过 10
  • synthesize_with_cloned_voice 默认会把音频落到临时目录;在云端想长期保存,下一步建议接 OSS

MCP Server · Populars

MCP Server · New

    ogham-mcp

    Ogham MCP

    Shared memory MCP server — persistent, searchable, cross-client

    Community ogham-mcp
    rocketride-org

    rocketride-server

    High-performance AI pipeline engine with a C++ core and 50+ Python-extensible nodes. Build, debug, and scale LLM workflows with 13+ model providers, 8+ vector databases, and agent orchestration, all from your IDE. Includes VS Code extension, TypeScript/Python SDKs, and Docker deployment.

    Community rocketride-org
    nteract

    semiotic

    A data visualization for AI and Streaming

    Community nteract
    louislva

    claude-peers

    Allow all your Claude Codes to message each other ad-hoc!

    Community louislva
    rixinhahaha

    Snip

    A macOS menu-bar screenshot tool with annotation, AI-powered organization, and semantic search. Built with Electron and Ollama. Featured on Product Hunt: https://www.producthunt.com/products/snip-ai-powered-macos-screenshot-tool

    Community rixinhahaha