Browse Source

Standardize names and better organization (#3453)

* Standardize names and better organization

* Update links
mamoodi 1 year ago
parent
commit
14a4e45cbb

+ 2 - 2
docs/i18n/fr/docusaurus-plugin-content-docs/current/usage/llms/llms.md

@@ -25,8 +25,8 @@ Les variables d'environnement suivantes peuvent être nécessaires pour certains
 
 Nous avons quelques guides pour exécuter OpenDevin avec des fournisseurs de modèles spécifiques :
 
-- [ollama](llms/localLLMs)
-- [Azure](llms/azureLLMs)
+- [ollama](llms/local-llms)
+- [Azure](llms/azure-llms)
 
 Si vous utilisez un autre fournisseur, nous vous encourageons à ouvrir une PR pour partager votre configuration !
 

+ 4 - 4
docs/i18n/fr/docusaurus-plugin-content-docs/current/usage/troubleshooting/troubleshooting.md

@@ -85,7 +85,7 @@ AttributeError: 'NoneType' object has no attribute 'request'
 [Problèmes GitHub](https://github.com/OpenDevin/OpenDevin/issues?q=is%3Aissue+is%3Aopen+404)
 
 Cela se produit généralement avec les configurations de LLM *locales*, lorsque OpenDevin ne parvient pas à se connecter au serveur LLM.
-Consultez notre guide pour [LLMs locaux](llms/localLLMs) pour plus d'informations.
+Consultez notre guide pour [LLMs locaux](llms/local-llms) pour plus d'informations.
 
 ### Solutions de contournement
 
@@ -133,9 +133,9 @@ le point de terminaison API avec lequel vous essayez de vous connecter. Cela arr
   * Si vous êtes en cours d'exécution dans l'interface utilisateur, assurez-vous de définir le `model` dans le modal des paramètres
   * Si vous êtes en cours d'exécution sans interface (via main.py), assurez-vous de définir `LLM_MODEL` dans votre env/config
 * Assurez-vous de suivre les instructions spéciales de votre fournisseur de LLM
-  * [ollama](/fr/modules/usage/llms/localLLMs)
-  * [Azure](/fr/modules/usage/llms/azureLLMs)
-  * [Google](/fr/modules/usage/llms/googleLLMs)
+  * [ollama](/fr/modules/usage/llms/local-llms)
+  * [Azure](/fr/modules/usage/llms/azure-llms)
+  * [Google](/fr/modules/usage/llms/google-llms)
 * Assurez-vous que votre clé API est correcte
 * Voyez si vous pouvez vous connecter au LLM en utilisant `curl`
 * Essayez de [vous connecter via LiteLLM directement](https://github.com/BerriAI/litellm) pour tester votre configuration

+ 2 - 2
docs/i18n/zh-Hans/docusaurus-plugin-content-docs/current/usage/llms/llms.md

@@ -25,8 +25,8 @@ OpenDevin 将向你配置的 LLM 发出许多提示。大多数这些 LLM 都是
 
 我们有一些指南,介绍了如何使用特定模型提供商运行 OpenDevin:
 
-- [ollama](llms/localLLMs)
-- [Azure](llms/azureLLMs)
+- [ollama](llms/local-llms)
+- [Azure](llms/azure-llms)
 
 如果你使用其他提供商,我们鼓励你打开一个 PR 来分享你的配置!
 

+ 4 - 4
docs/i18n/zh-Hans/docusaurus-plugin-content-docs/current/usage/troubleshooting/troubleshooting.md

@@ -81,7 +81,7 @@ AttributeError: 'NoneType' object has no attribute 'request'
 
 [GitHub 问题](https://github.com/OpenDevin/OpenDevin/issues?q=is%3Aissue+is%3Aopen+404)
 
-这通常发生在本地 LLM 设置中,当 OpenDevin 无法连接到 LLM 服务器时。请参阅我们的 [本地 LLM 指南](llms/localLLMs) 以获取更多信息。
+这通常发生在本地 LLM 设置中,当 OpenDevin 无法连接到 LLM 服务器时。请参阅我们的 [本地 LLM 指南](llms/local-llms) 以获取更多信息。
 
 ### 解决方法
 
@@ -128,9 +128,9 @@ openai.NotFoundError: Error code: 404 - {'error': {'code': '404', 'message': 'Re
   * 如果您在 UI 中运行,请确保在设置模式中设置 `model`
   * 如果您通过 main.py 运行,请确保在环境变量/配置中设置 `LLM_MODEL`
 * 确保遵循了您的 LLM 提供商的任何特殊说明
-  * [Ollama](/zh-Hans/modules/usage/llms/localLLMs)
-  * [Azure](/zh-Hans/modules/usage/llms/azureLLMs)
-  * [Google](/zh-Hans/modules/usage/llms/googleLLMs)
+  * [Ollama](/zh-Hans/modules/usage/llms/local-llms)
+  * [Azure](/zh-Hans/modules/usage/llms/azure-llms)
+  * [Google](/zh-Hans/modules/usage/llms/google-llms)
 * 确保您的 API 密钥正确无误
 * 尝试使用 `curl` 连接到 LLM
 * 尝试[直接通过 LiteLLM 连接](https://github.com/BerriAI/litellm)来测试您的设置

+ 1 - 1
docs/modules/usage/architecture.mdx → docs/modules/usage/architecture/architecture.mdx

@@ -2,7 +2,7 @@
 sidebar_position: 7
 ---
 
-# 🏛️ System Architecture Overview
+# 🏛️ System Architecture
 
 <div style={{ textAlign: 'center' }}>
   <img src="https://github.com/OpenDevin/OpenDevin/assets/16201837/97d747e3-29d8-4ccb-8d34-6ad1adb17f38" alt="OpenDevin System Architecture Diagram Jul 4 2024" />

+ 0 - 4
docs/modules/usage/runtime.md → docs/modules/usage/architecture/runtime.md

@@ -1,7 +1,3 @@
----
-sidebar_position: 4
----
-
 # 📦 EventStream Runtime
 
 The OpenDevin EventStream Runtime is the core component that enables secure and flexible execution of AI agent's action.

+ 1 - 5
docs/modules/usage/custom_sandbox_guide.md → docs/modules/usage/how-to/custom-sandbox-guide.md

@@ -1,8 +1,4 @@
----
-sidebar_position: 6
----
-
-# 💿 How to Create and Use a Custom Docker Sandbox
+# Create and Use a Custom Docker Sandbox
 
 The default OpenDevin sandbox comes with a [minimal ubuntu configuration](https://github.com/OpenDevin/OpenDevin/blob/main/containers/sandbox/Dockerfile).
 

+ 1 - 5
docs/modules/usage/evaluation_harness.md → docs/modules/usage/how-to/evaluation-harness.md

@@ -1,8 +1,4 @@
----
-sidebar_position: 6
----
-
-# 📈 How to contribute to OpenDevin Evaluation Harness
+# Contribute to OpenDevin Evaluation Harness
 
 This guide provides an overview of how to integrate your own evaluation benchmark into the OpenDevin framework.
 

+ 5 - 0
docs/modules/usage/how-to/how-to.md

@@ -0,0 +1,5 @@
+---
+sidebar_position: 6
+---
+
+# 🔎 How To Section

+ 1 - 5
docs/modules/usage/openshift-example.md → docs/modules/usage/how-to/openshift-example.md

@@ -1,8 +1,4 @@
----
-sidebar_position: 6
----
-
-# 💿 How to use OpenDevin in OpenShift/K8S
+# Use OpenDevin in OpenShift/K8S
 
 There are different ways and scenarios that you can do, we're just mentioning one example here:
 1. Create a PV "as a cluster admin" to map workspace_base data and docker directory to the pod through the worker node.

+ 0 - 0
docs/modules/usage/llms/azureLLMs.md → docs/modules/usage/llms/azure-llms.md


+ 0 - 0
docs/modules/usage/llms/googleLLMs.md → docs/modules/usage/llms/google-llms.md


+ 2 - 2
docs/modules/usage/llms/llms.md

@@ -26,8 +26,8 @@ The following environment variables might be necessary for some LLMs/providers:
 
 We have a few guides for running OpenDevin with specific model providers:
 
-- [ollama](llms/localLLMs)
-- [Azure](llms/azureLLMs)
+- [ollama](llms/local-llms)
+- [Azure](llms/azure-llms)
 
 If you're using another provider, we encourage you to open a PR to share your setup!
 

+ 0 - 0
docs/modules/usage/llms/localLLMs.md → docs/modules/usage/llms/local-llms.md


+ 4 - 4
docs/modules/usage/troubleshooting/troubleshooting.md

@@ -96,7 +96,7 @@ AttributeError: 'NoneType' object has no attribute 'request'
 [GitHub Issues](https://github.com/OpenDevin/OpenDevin/issues?q=is%3Aissue+is%3Aopen+404)
 
 This usually happens with *local* LLM setups, when OpenDevin can't connect to the LLM server.
-See our guide for [local LLMs](llms/localLLMs) for more information.
+See our guide for [local LLMs](llms/local-llms) for more information.
 
 **Workarounds**
 
@@ -145,9 +145,9 @@ the API endpoint you're trying to connect to. Most often this happens for Azure
   * If you're running inside the UI, be sure to set the `model` in the settings modal
   * If you're running headless (via main.py) be sure to set `LLM_MODEL` in your env/config
 * Make sure you've followed any special instructions for your LLM provider
-  * [ollama](/modules/usage/llms/localLLMs)
-  * [Azure](/modules/usage/llms/azureLLMs)
-  * [Google](/modules/usage/llms/googleLLMs)
+  * [ollama](/modules/usage/llms/local-llms)
+  * [Azure](/modules/usage/llms/azure-llms)
+  * [Google](/modules/usage/llms/google-llms)
 * Make sure your API key is correct
 * See if you can connect to the LLM using `curl`
 * Try [connecting via LiteLLM directly](https://github.com/BerriAI/litellm) to test your setup

+ 1 - 1
docs/modules/usage/changelog.md → docs/modules/usage/upgrade-guide.md

@@ -2,7 +2,7 @@
 sidebar_position: 8
 ---
 
-# Upgrade Guide
+# ⬆️ Upgrade Guide
 
 ## 0.8.0 (2024-07-13)