以下是用户经常报告的一些错误信息。
我们将努力使安装过程更加简单,并改善这些错误信息。不过,现在您可以在下面找到您的错误信息,并查看是否有任何解决方法。
对于这些错误信息,都已经有相关的报告。请不要打开新的报告——只需在现有的报告中发表评论即可。
如果您发现更多信息或者一个解决方法,请提交一个 PR 来添加细节到这个文件中。
:::tip 如果您在 Windows 上运行并遇到问题,请查看我们的Windows (WSL) 用户指南。 :::
创建控制器时出错。请检查 Docker 是否正在运行,并访问 `https://docs.all-hands.dev/modules/usage/troubleshooting` 获取更多调试信息。
docker.errors.DockerException: 获取服务器 API 版本时出错: ('连接中止。', FileNotFoundError(2, '没有这样的文件或目录'))
OpenDevin 使用 Docker 容器来安全地完成工作,而不会破坏您的机器。
docker ps 以确保 Docker 正在运行sudo 运行 Docker 请参见此处Settings > Advanced 下启用 Allow the default Docker socket to be used。Check for Updatesself.shell = DockerSSHBox(
...
pexpect.pxssh.ExceptionPxssh: Could not establish connection to host
默认情况下,OpenDevin 使用 SSH 连接到一个运行中的容器。在某些机器上,尤其是 Windows,这似乎会失败。
File "/app/.venv/lib/python3.12/site-packages/openai/_exceptions.py", line 81, in __init__
super().__init__(message, response.request, body=body)
^^^^^^^^^^^^^^^^
AttributeError: 'NoneType' object has no attribute 'request'
这通常发生在本地 LLM 设置中,当 OpenDevin 无法连接到 LLM 服务器时。请参阅我们的 本地 LLM 指南 以获取更多信息。
config.toml 文件中 "llm" 部分的 base_url 是否正确(如果存在)--add-host host.docker.internal:host-gateway404 Resource not found 资源未找到Traceback (most recent call last):
File "/app/.venv/lib/python3.12/site-packages/litellm/llms/openai.py", line 414, in completion
raise e
File "/app/.venv/lib/python3.12/site-packages/litellm/llms/openai.py", line 373, in completion
response = openai_client.chat.completions.create(**data, timeout=timeout) # type: ignore
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/app/.venv/lib/python3.12/site-packages/openai/_utils/_utils.py", line 277, in wrapper
return func(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^
File "/app/.venv/lib/python3.12/site-packages/openai/resources/chat/completions.py", line 579, in create
return self._post(
^^^^^^^^^^^
File "/app/.venv/lib/python3.12/site-packages/openai/_base_client.py", line 1232, in post
return cast(ResponseT, self.request(cast_to, opts, stream=stream, stream_cls=stream_cls))
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "/app/.venv/lib/python3.12/site-packages/openai/_base_client.py", line 921, in request
return self._request(
^^^^^^^^^^^^^^
File "/app/.venv/lib/python3.12/site-packages/openai/_base_client.py", line 1012, in _request
raise self._make_status_error_from_response(err.response) from None
openai.NotFoundError: Error code: 404 - {'error': {'code': '404', 'message': 'Resource not found'}}
当 LiteLLM(我们用于连接不同 LLM 提供商的库)找不到您要连接的 API 端点时,会发生这种情况。最常见的情况是 Azure 或 Ollama 用户。
LLM_BASE_URLmodelLLM_MODELcurl 连接到 LLMmake build 在安装包时卡住安装包时卡在 Pending...,没有任何错误信息:
Package operations: 286 installs, 0 updates, 0 removals
- Installing certifi (2024.2.2): Pending...
- Installing h11 (0.14.0): Pending...
- Installing idna (3.7): Pending...
- Installing sniffio (1.3.1): Pending...
- Installing typing-extensions (4.11.0): Pending...
在极少数情况下,make build 在安装包时似乎会卡住,没有任何错误信息。
首先使用 env 检查是否存在 PYTHON_KEYRING_BACKEND 的值。如果不存在,运行以下命令将其设置为已知值,然后重试构建:
export PYTHON_KEYRING_BACKEND=keyring.backends.null.Keyring
通常情况下,当打开 UI 时,OpenDevin 会询问是否要恢复或开始新会话。但点击“恢复”仍然会开始一个全新的聊天。
按今天的标准安装,会话数据存储在内存中。目前,如果 OpenDevin 的服务重启,以前的会话将失效(生成一个新秘密),因此无法恢复。
通过编辑 OpenDevin 根文件夹中的 config.toml 文件,更改配置以使会话持久化,指定一个 file_store 和一个绝对路径的 file_store_path:
file_store="local"
file_store_path="/absolute/path/to/opendevin/cache/directory"
在您的 .bashrc 中添加一个固定的 JWT 秘密,如下所示,以便以前的会话 ID 可以被接受。
EXPORT JWT_SECRET=A_CONST_VALUE