voltar
Configurações de IA
Provedor LLM, modelo de chat e embeddings — tudo dinâmico
Testar conexão
Salvar
Provedor
Ollama (local)
OpenRouter
OpenAI
Anthropic
URL da API
Token / API Key
Mantém o valor atual se você não alterar (mostra ******).
Modelo de Chat
Modelo de Embedding
Context Window
Temperatura (0–10)
7 ≈ 0.7 — boa para análise jurídica
Max Tokens
Timeout (segundos)
Tentativas em caso de erro
Prompt de sistema padrão
Status
Configuração ativa
Resultado do teste