Ollama + ChatTTS 实现语音回复
支持语音和文字输入
通过ChatTTS 的ui api 项目,实现语音回复(因为是本地部署,有点延迟)
连接本地部署的 Ollama 和 ChatTTS,实现和LLM的语音对话
先决条件
- 下载并安装 Ollama
- 下载并安装 ChatTTS-ui
添加存储库和 BOM
安装部署
ollama pull phi3
- 下载 ChatTTS 代码, https://github.com/2noise/ChatTTS
- 通过 huggingface 下载所有模型文件和配置文件,分别放入 asset 和 config 目录
- 下载 ChatTTS Webui 分支,放入相同目录
- 下载本分支核心文件,主要是 ollamaChatTTS.py, llmChat.py, voice.py 三个文件
- 安装依赖库
pip install -r requirements.txt
启动次序:
- 先启动 Ollama 本地服务器,在浏览器里输入 http://127.0.0.1:11434 ,看到有一行运行中的文字,确定已运行成功
- 通过命令行或者 run.bat 启动 ChatTTS Webui,成功后会自动打开 http://127.0.0.1:9966
python app.py
- 通过命令行启动 Ollama ChatTTS
Streamlit run ollamaChatTTS.py
作者:Jeebiz 创建时间:2024-06-28 09:22
最后编辑:Jeebiz 更新时间:2024-11-21 01:00
最后编辑:Jeebiz 更新时间:2024-11-21 01:00