We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
例行检查
问题描述 使用Docker部署了OneAPI,使用下方命令(“sk-xxxxxxxxxxx”为示意,测试时为有效token)测试向量模型报错:
命令:
curl --location --request POST 'http://10.10.10.42:3000/v1/embeddings' \ --header 'Authorization: Bearer sk-xxxxxxxxxxx' \ --header 'Content-Type: application/json' \ --data-raw '{ "model": "mxbai-embed-large", "input": ["laf是什么"] }'
命令返回:
{"error" :{"message":" (request id: 2024058311024022153831529384557)","type":"upstream_error","param":"404","code":"bad response status code"}}
docker 后台报错误如下:
[INFO] 2024/05/03 - 11:02:40 | 2024050311024022153831529384557 | user 1 has enough quota 499999999948850, trusted and no need to pre-consume [GIN] 2024/05/03 - 11:02:40 | 2024050311024022153831529384557 | 404 | 12.716381ms | 10.10.10.42 | POST /v1/embeddings [ERR] 2024/05/03 - 11:02:40 | 2024050311024022153831529384557 | relay error (channel #3): (request id: 2024050311024022153831529384557)
复现步骤
预期结果 期待返回向量结果(使用curl测试过ollama的API,向量化接口正常返回)
相关截图
The text was updated successfully, but these errors were encountered:
同遇到这个问题,应该是自定义渠道的问题,我的解决方法是将ollama和oneapi安装到同一台机器上(并且不能使用oneapi的镜像,必须本地部署……)。
Ollama不支持输入BaseURL这个还是比较致命的,除非Ollama和oneapi在同一台服务器(或镜像中)上才可用,同一台机器上使用docker启动也必须使用 http://host.docker.internal:11434 来配置,建议开放出来baseUrl的配置
http://host.docker.internal:11434
Sorry, something went wrong.
解决了,参考#1357
同遇到这个问题,应该是自定义渠道的问题,我的解决方法是将ollama和oneapi安装到同一台机器上(并且不能使用oneapi的镜像,必须本地部署……)。 Ollama不支持输入BaseURL这个还是比较致命的,除非Ollama和oneapi在同一台服务器(或镜像中)上才可用,同一台机器上使用docker启动也必须使用 http://host.docker.internal:11434 来配置,建议开放出来baseUrl的配置
它的问题应该是调用 ollama 的 embedding 模型吧,当前还不支持。
ollama 的 embedding 模型只支持对单个字符串,而不是列表,当前也还没有兼容 v1/embeddings 的调用。
ADD:ollama 的更新进展
ollama/ollama#2925
稍后我整整,感谢感谢
No branches or pull requests
例行检查
问题描述
使用Docker部署了OneAPI,使用下方命令(“sk-xxxxxxxxxxx”为示意,测试时为有效token)测试向量模型报错:
命令:
命令返回:
docker 后台报错误如下:
复现步骤
预期结果
期待返回向量结果(使用curl测试过ollama的API,向量化接口正常返回)
相关截图
The text was updated successfully, but these errors were encountered: