Просмотр исходного кода

fix: llm is_local function logic error (#1961)

Co-authored-by: மனோஜ்குமார் பழனிச்சாமி <smartmanoj42857@gmail.com>
Shimada666 1 год назад
Родитель
Сommit
da8369c4d2
1 измененных файлов с 3 добавлено и 6 удалено
  1. 3 6
      opendevin/llm/llm.py

+ 3 - 6
opendevin/llm/llm.py

@@ -220,12 +220,9 @@ class LLM:
             boolean: True if executing a local model.
         """
         if self.base_url is not None:
-            if (
-                'localhost' not in self.base_url
-                and '127.0.0.1' not in self.base_url
-                and '0.0.0.0' not in self.base_url
-            ):
-                return True
+            for substring in ['localhost', '127.0.0.1' '0.0.0.0']:
+                if substring in self.base_url:
+                    return True
         elif self.model_name is not None:
             if self.model_name.startswith('ollama'):
                 return True