-
Notifications
You must be signed in to change notification settings - Fork 346
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[Bug]: Ollama连接错误? #939
Comments
看你platform.json怎么填的 |
platform.json:
顺带,lagrange的appsettings.json:
|
说错了,是provider.json。 |
|
跨容器不能用127.0.0.1作为主机名连接。可以去网上看看多个docker容器网络互联的配置方式。 |
我的langbot在宝塔使用docker部署,而lagrange则是本地部署的 |
这是ollama连接的问题,跟消息平台没关系。 |
哦,懂了,我去把ollama容器和langbot互联一下 |
我把ollama容器和langbot容器互联到了langbot-network网络,但是lagrange连不到langbot了
|
重启了一下可以了,但是ollama和langbot虽然在一个网络,但还是connection refused? |
这是目前的network inspect:
provider.json:
日志:
|
用ollama容器名作为连接的主机名。 |
还是不太行,我干脆用了LM Studio的openai兼容api |
消息平台适配器
aiocqhttp(使用 OneBot 协议接入的)
运行环境
Docker
LangBot 版本
v3.4.0.2
异常情况
任何时候使用ollama进行大模型聊天都会产生Connection error错误,使用!ollama会产生Connection refused错误
我的ollama部署在Docker中
日志:
docker ps:
直接访问ollama的api地址没有问题
启用的插件
无插件
The text was updated successfully, but these errors were encountered: