Ollama + ChatTTS 实现语音回复

  1. 支持语音和文字输入

  2. 通过ChatTTS 的ui api 项目,实现语音回复(因为是本地部署,有点延迟)
    连接本地部署的 Ollama 和 ChatTTS,实现和LLM的语音对话

先决条件

添加存储库和 BOM

安装部署

  1. 下载并安装 Ollama
  2. 通过命令行,下载一个模型,在这里可以替换 phi3 为你想要的模型,模型在这里下载
ollama pull phi3
  1. 下载 ChatTTS 代码, https://github.com/2noise/ChatTTS
  2. 通过 huggingface 下载所有模型文件和配置文件,分别放入 asset 和 config 目录
  3. 下载 ChatTTS Webui 分支,放入相同目录
  4. 下载本分支核心文件,主要是 ollamaChatTTS.py, llmChat.py, voice.py 三个文件
  5. 安装依赖库
pip install -r requirements.txt

启动次序:

  1. 先启动 Ollama 本地服务器,在浏览器里输入 http://127.0.0.1:11434 ,看到有一行运行中的文字,确定已运行成功
  2. 通过命令行或者 run.bat 启动 ChatTTS Webui,成功后会自动打开 http://127.0.0.1:9966
python app.py
  1. 通过命令行启动 Ollama ChatTTS
Streamlit run ollamaChatTTS.py
作者:Jeebiz  创建时间:2024-06-28 09:22
最后编辑:Jeebiz  更新时间:2024-08-29 20:41