OpenHands utilise LiteLLM pour effectuer des appels aux modèles de chat d'OpenAI. Vous pouvez trouver leur documentation sur l'utilisation d'OpenAI en tant que fournisseur ici.
Lors de l'exécution d'OpenHands, vous devrez définir les éléments suivants dans l'interface utilisateur d'OpenHands via les paramètres :
LLM Provider à OpenAILLM Model au modèle que vous utiliserez.
Visitez ce lien pour voir une liste complète des modèles OpenAI pris en charge par LiteLLM.
Si le modèle ne figure pas dans la liste, activez les Advanced Options et entrez-le dans Custom Model (par exemple, openai/<model-name> comme openai/gpt-4o).API Key à votre clé API OpenAI. Pour trouver ou créer votre clé API de projet OpenAI, voir ici.Tout comme pour les chat completions OpenAI, nous utilisons LiteLLM pour les endpoints compatibles OpenAI. Vous pouvez trouver leur documentation complète sur ce sujet ici.
Si vous utilisez un proxy OpenAI, vous devrez définir les éléments suivants dans l'interface utilisateur d'OpenHands via les paramètres :
Advanced OptionsCustom Model à openai/<model-name> (par exemple, openai/gpt-4o ou openai/<proxy-prefix>/<model-name>)Base URL à l'URL de votre proxy OpenAIAPI Key à votre clé API OpenAI