Spaces:
Running
on
Zero
Running
on
Zero
# interpreter_config.py | |
import os | |
from interpreter import interpreter | |
# 環境変数でOpenAI APIキーを保存および使用 | |
interpreter.auto_run = True | |
interpreter.llm.model = "huggingface/meta-llama/Meta-Llama-3-8B-Instruct" | |
interpreter.llm.api_key = os.getenv("hf_token") | |
interpreter.llm.api_base = "https://api.groq.com/openai/v1" | |
interpreter.llm.api_key = os.getenv("api_key") | |
interpreter.llm.model = "Llama3-70b-8192" | |
# interpreter.llm.fp16 = False # 明示的にFP32を使用するように設定 | |
# interpreter --conversations | |
# LLM設定の適用 | |
interpreter.llm.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ | |
interpreter.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ | |
interpreter.llm.max_tokens = 3000 # 1回のリクエストで処理するトークンの最大数 | |
interpreter.max_tokens = 3000 # 1回のリクエストで処理するトークンの最大数 | |
interpreter.llm.max_output = 10000 # 出力の最大トークン数 | |
interpreter.max_output = 10000 # 出力の最大トークン数 | |
interpreter.conversation_history = True | |
interpreter.debug_mode = False | |
# interpreter.temperature = 0.7 | |