Browse Source

Update docusaurus.config.ts for a changed Doc URL (#2653)

* Update docusaurus.config.ts for a changed Doc URL

* fix url

* fix broken link again

* fix url again
Xingyao Wang 1 năm trước cách đây
mục cha
commit
6099f72ae3

+ 2 - 2
docs/docusaurus.config.ts

@@ -8,8 +8,8 @@ const config: Config = {
   favicon: "img/logo.png",
 
   // Set the production url of your site here
-  url: "https://OpenDevin.github.io",
-  baseUrl: "/OpenDevin/",
+  url: "https://docs.all-hands.dev",
+  baseUrl: "/",
 
   // GitHub pages deployment config.
   organizationName: "OpenDevin",

+ 3 - 3
docs/i18n/fr/docusaurus-plugin-content-docs/current/usage/troubleshooting/troubleshooting.md

@@ -134,9 +134,9 @@ le point de terminaison API avec lequel vous essayez de vous connecter. Cela arr
   * Si vous êtes en cours d'exécution dans l'interface utilisateur, assurez-vous de définir le `model` dans le modal des paramètres
   * Si vous êtes en cours d'exécution sans interface (via main.py), assurez-vous de définir `LLM_MODEL` dans votre env/config
 * Assurez-vous de suivre les instructions spéciales de votre fournisseur de LLM
-  * [ollama](/OpenDevin/fr/modules/usage/llms/localLLMs)
-  * [Azure](/OpenDevin/fr/modules/usage/llms/azureLLMs)
-  * [Google](/OpenDevin/fr/modules/usage/llms/googleLLMs)
+  * [ollama](/fr/modules/usage/llms/localLLMs)
+  * [Azure](/fr/modules/usage/llms/azureLLMs)
+  * [Google](/fr/modules/usage/llms/googleLLMs)
 * Assurez-vous que votre clé API est correcte
 * Voyez si vous pouvez vous connecter au LLM en utilisant `curl`
 * Essayez de [vous connecter via LiteLLM directement](https://github.com/BerriAI/litellm) pour tester votre configuration

+ 3 - 3
docs/i18n/zh-Hans/docusaurus-plugin-content-docs/current/usage/troubleshooting/troubleshooting.md

@@ -129,9 +129,9 @@ openai.NotFoundError: Error code: 404 - {'error': {'code': '404', 'message': 'Re
   * 如果您在 UI 中运行,请确保在设置模式中设置 `model`
   * 如果您通过 main.py 运行,请确保在环境变量/配置中设置 `LLM_MODEL`
 * 确保遵循了您的 LLM 提供商的任何特殊说明
-  * [Ollama](/OpenDevin/zh-Hans/modules/usage/llms/localLLMs)
-  * [Azure](/OpenDevin/zh-Hans/modules/usage/llms/azureLLMs)
-  * [Google](/OpenDevin/zh-Hans/modules/usage/llms/googleLLMs)
+  * [Ollama](/zh-Hans/modules/usage/llms/localLLMs)
+  * [Azure](/zh-Hans/modules/usage/llms/azureLLMs)
+  * [Google](/zh-Hans/modules/usage/llms/googleLLMs)
 * 确保您的 API 密钥正确无误
 * 尝试使用 `curl` 连接到 LLM
 * 尝试[直接通过 LiteLLM 连接](https://github.com/BerriAI/litellm)来测试您的设置

+ 3 - 3
docs/modules/usage/troubleshooting/troubleshooting.md

@@ -135,9 +135,9 @@ the API endpoint you're trying to connect to. Most often this happens for Azure
   * If you're running inside the UI, be sure to set the `model` in the settings modal
   * If you're running headless (via main.py) be sure to set `LLM_MODEL` in your env/config
 * Make sure you've followed any special instructions for your LLM provider
-  * [ollama](/OpenDevin/modules/usage/llms/localLLMs)
-  * [Azure](/OpenDevin/modules/usage/llms/azureLLMs)
-  * [Google](/OpenDevin/modules/usage/llms/googleLLMs)
+  * [ollama](/modules/usage/llms/localLLMs)
+  * [Azure](/modules/usage/llms/azureLLMs)
+  * [Google](/modules/usage/llms/googleLLMs)
 * Make sure your API key is correct
 * See if you can connect to the LLM using `curl`
 * Try [connecting via LiteLLM directly](https://github.com/BerriAI/litellm) to test your setup