fix(docs): locale translations
This commit is contained in:
@@ -65,7 +65,7 @@ Se você é novo, recomendamos começar com o OpenCode Zen.
|
||||
3. Cole sua chave da API.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -104,7 +104,7 @@ Não vê um provedor aqui? Envie um PR.
|
||||
3. Insira sua chave da API 302.AI.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -135,13 +135,13 @@ Para usar o Amazon Bedrock com o opencode:
|
||||
Defina uma dessas variáveis de ambiente ao executar o opencode:
|
||||
|
||||
```bash
|
||||
# Opção 1: Usando chaves de acesso da AWS
|
||||
# Option 1: Using AWS access keys
|
||||
AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
|
||||
|
||||
# Opção 2: Usando perfil nomeado da AWS
|
||||
# Option 2: Using named AWS profile
|
||||
AWS_PROFILE=my-profile opencode
|
||||
|
||||
# Opção 3: Usando token bearer do Bedrock
|
||||
# Option 3: Using Bedrock bearer token
|
||||
AWS_BEARER_TOKEN_BEDROCK=XXX opencode
|
||||
```
|
||||
|
||||
@@ -258,11 +258,11 @@ Para perfis de inferência personalizados, use o nome do modelo e do provedor na
|
||||
2. Aqui você pode selecionar a opção **Claude Pro/Max** e isso abrirá seu navegador e pedirá para você se autenticar.
|
||||
|
||||
```txt
|
||||
┌ Selecionar método de autenticação
|
||||
┌ Select auth method
|
||||
│
|
||||
│ Claude Pro/Max
|
||||
│ Criar uma chave da API
|
||||
│ Inserir chave da API manualmente
|
||||
│ Create an API Key
|
||||
│ Manually enter API Key
|
||||
└
|
||||
```
|
||||
|
||||
@@ -309,7 +309,7 @@ Se você encontrar erros "Desculpe, mas não posso ajudar com esse pedido", tent
|
||||
4. Insira sua chave da API.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -356,7 +356,7 @@ Se você encontrar erros "Desculpe, mas não posso ajudar com esse pedido", tent
|
||||
4. Insira sua chave da API.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -395,7 +395,7 @@ Se você encontrar erros "Desculpe, mas não posso ajudar com esse pedido", tent
|
||||
3. Insira sua chave da API Baseten.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -422,7 +422,7 @@ Se você encontrar erros "Desculpe, mas não posso ajudar com esse pedido", tent
|
||||
3. Insira sua chave da API Cerebras.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -445,8 +445,8 @@ O Cloudflare AI Gateway permite que você acesse modelos do OpenAI, Anthropic, W
|
||||
2. Defina seu ID de Conta e ID de Gateway como variáveis de ambiente.
|
||||
|
||||
```bash title="~/.bash_profile"
|
||||
export CLOUDFLARE_ACCOUNT_ID=seu-id-de-conta-de-32-caracteres
|
||||
export CLOUDFLARE_GATEWAY_ID=seu-id-de-gateway
|
||||
export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id
|
||||
export CLOUDFLARE_GATEWAY_ID=your-gateway-id
|
||||
```
|
||||
|
||||
3. Execute o comando `/connect` e procure por **Cloudflare AI Gateway**.
|
||||
@@ -458,7 +458,7 @@ O Cloudflare AI Gateway permite que você acesse modelos do OpenAI, Anthropic, W
|
||||
4. Insira seu token da API do Cloudflare.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -467,7 +467,7 @@ O Cloudflare AI Gateway permite que você acesse modelos do OpenAI, Anthropic, W
|
||||
Ou defina como uma variável de ambiente.
|
||||
|
||||
```bash title="~/.bash_profile"
|
||||
export CLOUDFLARE_API_TOKEN=seu-token-da-api
|
||||
export CLOUDFLARE_API_TOKEN=your-api-token
|
||||
```
|
||||
|
||||
5. Execute o comando `/models` para selecionar um modelo.
|
||||
@@ -507,7 +507,7 @@ O Cloudflare AI Gateway permite que você acesse modelos do OpenAI, Anthropic, W
|
||||
3. Insira sua chave da API Cortecs.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -534,7 +534,7 @@ O Cloudflare AI Gateway permite que você acesse modelos do OpenAI, Anthropic, W
|
||||
3. Insira sua chave da API DeepSeek.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -561,7 +561,7 @@ O Cloudflare AI Gateway permite que você acesse modelos do OpenAI, Anthropic, W
|
||||
3. Insira sua chave da API Deep Infra.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -588,7 +588,7 @@ O Cloudflare AI Gateway permite que você acesse modelos do OpenAI, Anthropic, W
|
||||
3. Insira sua chave da API Firmware.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -615,7 +615,7 @@ O Cloudflare AI Gateway permite que você acesse modelos do OpenAI, Anthropic, W
|
||||
3. Insira sua chave da API Fireworks AI.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -642,10 +642,10 @@ GitLab Duo fornece um chat agente com suporte a ferramentas nativas através do
|
||||
2. Escolha seu método de autenticação:
|
||||
|
||||
```txt
|
||||
┌ Selecionar método de autenticação
|
||||
┌ Select auth method
|
||||
│
|
||||
│ OAuth (Recomendado)
|
||||
│ Token de Acesso Pessoal
|
||||
│ OAuth (Recommended)
|
||||
│ Personal Access Token
|
||||
└
|
||||
```
|
||||
|
||||
@@ -656,7 +656,7 @@ GitLab Duo fornece um chat agente com suporte a ferramentas nativas através do
|
||||
#### Usando Token de Acesso Pessoal
|
||||
1. Vá para [Configurações do Usuário do GitLab > Tokens de Acesso](https://gitlab.com/-/user_settings/personal_access_tokens)
|
||||
2. Clique em **Adicionar novo token**
|
||||
3. Nome: `opencode`, Escopos: `api`
|
||||
3. Nome: `OpenCode`, Escopos: `api`
|
||||
4. Copie o token (começa com `glpat-`)
|
||||
5. Insira-o no terminal
|
||||
|
||||
@@ -679,7 +679,7 @@ armazenar o token no armazenamento de autenticação do opencode.
|
||||
##### GitLab Auto-Hospedado
|
||||
|
||||
:::note[nota de conformidade]
|
||||
opencode usa um pequeno modelo para algumas tarefas de IA, como gerar o título da sessão.
|
||||
opencode usa um pequeno modelo para algumas tarefas de AI, como gerar o título da sessão.
|
||||
Ele está configurado para usar gpt-5-nano por padrão, hospedado pela Zen. Para bloquear o opencode
|
||||
para usar apenas sua própria instância hospedada do GitLab, adicione o seguinte ao seu
|
||||
arquivo `opencode.json`. Também é recomendado desativar o compartilhamento de sessões.
|
||||
@@ -737,7 +737,7 @@ URL de callback `http://127.0.0.1:8080/callback` e os seguintes escopos:
|
||||
Em seguida, exponha o ID do aplicativo como variável de ambiente:
|
||||
|
||||
```bash
|
||||
export GITLAB_OAUTH_CLIENT_ID=seu_id_do_aplicativo_aqui
|
||||
export GITLAB_OAUTH_CLIENT_ID=your_application_id_here
|
||||
```
|
||||
|
||||
Mais documentação na página [opencode-gitlab-auth](https://www.npmjs.com/package/@gitlab/opencode-gitlab-auth).
|
||||
@@ -797,13 +797,13 @@ Alguns modelos precisam ser habilitados manualmente nas suas [configurações do
|
||||
2. Navegue até [github.com/login/device](https://github.com/login/device) e insira o código.
|
||||
|
||||
```txt
|
||||
┌ Login com GitHub Copilot
|
||||
┌ Login with GitHub Copilot
|
||||
│
|
||||
│ https://github.com/login/device
|
||||
│
|
||||
│ Insira o código: 8F43-6FCF
|
||||
│ Enter code: 8F43-6FCF
|
||||
│
|
||||
└ Aguardando autorização...
|
||||
└ Waiting for authorization...
|
||||
```
|
||||
|
||||
3. Agora execute o comando `/models` para selecionar o modelo que você deseja.
|
||||
@@ -835,14 +835,14 @@ Para usar o Google Vertex AI com o opencode:
|
||||
Defina-as ao executar o opencode.
|
||||
|
||||
```bash
|
||||
GOOGLE_APPLICATION_CREDENTIALS=/caminho/para/service-account.json GOOGLE_CLOUD_PROJECT=seu-id-do-projeto opencode
|
||||
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode
|
||||
```
|
||||
|
||||
Ou adicione-as ao seu perfil bash.
|
||||
|
||||
```bash title="~/.bash_profile"
|
||||
export GOOGLE_APPLICATION_CREDENTIALS=/caminho/para/service-account.json
|
||||
export GOOGLE_CLOUD_PROJECT=seu-id-do-projeto
|
||||
export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json
|
||||
export GOOGLE_CLOUD_PROJECT=your-project-id
|
||||
export VERTEX_LOCATION=global
|
||||
```
|
||||
|
||||
@@ -871,7 +871,7 @@ A região `global` melhora a disponibilidade e reduz erros sem custo adicional.
|
||||
3. Insira a chave da API para o provedor.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -900,7 +900,7 @@ A região `global` melhora a disponibilidade e reduz erros sem custo adicional.
|
||||
3. Insira seu token do Hugging Face.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -916,7 +916,7 @@ A região `global` melhora a disponibilidade e reduz erros sem custo adicional.
|
||||
|
||||
### Helicone
|
||||
|
||||
[Helicone](https://helicone.ai) é uma plataforma de observabilidade LLM que fornece registro, monitoramento e análises para suas aplicações de IA. O Helicone AI Gateway roteia suas solicitações para o provedor apropriado automaticamente com base no modelo.
|
||||
[Helicone](https://helicone.ai) é uma plataforma de observabilidade LLM que fornece registro, monitoramento e análises para suas aplicações de AI. O Helicone AI Gateway roteia suas solicitações para o provedor apropriado automaticamente com base no modelo.
|
||||
|
||||
1. Acesse [Helicone](https://helicone.ai), crie uma conta e gere uma chave da API a partir do seu painel.
|
||||
|
||||
@@ -929,7 +929,7 @@ A região `global` melhora a disponibilidade e reduz erros sem custo adicional.
|
||||
3. Insira sua chave da API Helicone.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -961,8 +961,8 @@ Aqui está o [Diretório de Modelos do Helicone](https://helicone.ai/models), vo
|
||||
},
|
||||
"models": {
|
||||
"gpt-4o": {
|
||||
// ID do modelo (da página do diretório de modelos do Helicone)
|
||||
"name": "GPT-4o", // Seu próprio nome personalizado para o modelo
|
||||
// Model ID (from Helicone's model directory page)
|
||||
"name": "GPT-4o", // Your own custom name for the model
|
||||
},
|
||||
"claude-sonnet-4-20250514": {
|
||||
"name": "Claude Sonnet 4",
|
||||
@@ -1080,7 +1080,7 @@ IO.NET oferece 17 modelos otimizados para vários casos de uso:
|
||||
3. Insira sua chave da API IO.NET.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -1143,7 +1143,7 @@ Para usar Kimi K2 do Moonshot AI:
|
||||
3. Insira sua chave da API Moonshot.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -1170,7 +1170,7 @@ Para usar Kimi K2 do Moonshot AI:
|
||||
3. Insira sua chave da API MiniMax.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -1197,7 +1197,7 @@ Para usar Kimi K2 do Moonshot AI:
|
||||
3. Insira sua chave da API Nebius Token Factory.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -1272,7 +1272,7 @@ Para usar o Ollama Cloud com o opencode:
|
||||
5. Insira sua chave da API do Ollama Cloud.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -1305,10 +1305,10 @@ Recomendamos se inscrever para [ChatGPT Plus ou Pro](https://chatgpt.com/pricing
|
||||
2. Aqui você pode selecionar a opção **ChatGPT Plus/Pro** e isso abrirá seu navegador e pedirá para você se autenticar.
|
||||
|
||||
```txt
|
||||
┌ Selecionar método de autenticação
|
||||
┌ Select auth method
|
||||
│
|
||||
│ ChatGPT Plus/Pro
|
||||
│ Inserir chave da API manualmente
|
||||
│ Manually enter API Key
|
||||
└
|
||||
```
|
||||
|
||||
@@ -1339,7 +1339,7 @@ OpenCode Zen é uma lista de modelos testados e verificados fornecidos pela equi
|
||||
3. Insira sua chave da API do opencode.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -1366,7 +1366,7 @@ OpenCode Zen é uma lista de modelos testados e verificados fornecidos pela equi
|
||||
3. Insira a chave da API para o provedor.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -1436,7 +1436,7 @@ SAP AI Core fornece acesso a mais de 40 modelos do OpenAI, Anthropic, Google, Am
|
||||
3. Insira seu JSON da chave de serviço.
|
||||
|
||||
```txt
|
||||
┌ Chave de serviço
|
||||
┌ Service key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -1457,7 +1457,7 @@ SAP AI Core fornece acesso a mais de 40 modelos do OpenAI, Anthropic, Google, Am
|
||||
4. Opcionalmente, defina o ID de implantação e o grupo de recursos:
|
||||
|
||||
```bash
|
||||
AICORE_DEPLOYMENT_ID=seu-id-de-implantação AICORE_RESOURCE_GROUP=seu-grupo-de-recursos opencode
|
||||
AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
|
||||
```
|
||||
|
||||
:::note
|
||||
@@ -1474,7 +1474,7 @@ SAP AI Core fornece acesso a mais de 40 modelos do OpenAI, Anthropic, Google, Am
|
||||
|
||||
### OVHcloud AI Endpoints
|
||||
|
||||
1. Acesse o [painel OVHcloud](https://ovh.com/manager). Navegue até a seção `Public Cloud`, `AI & Machine Learning` > `Endpoints de IA` e na aba `API Keys`, clique em **Criar uma nova chave da API**.
|
||||
1. Acesse o [painel OVHcloud](https://ovh.com/manager). Navegue até a seção `Public Cloud`, `AI & Machine Learning` > `AI Endpoints` e na aba `API Keys`, clique em **Criar uma nova chave da API**.
|
||||
|
||||
2. Execute o comando `/connect` e procure por **OVHcloud AI Endpoints**.
|
||||
|
||||
@@ -1485,7 +1485,7 @@ SAP AI Core fornece acesso a mais de 40 modelos do OpenAI, Anthropic, Google, Am
|
||||
3. Insira sua chave da API OVHcloud AI Endpoints.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -1514,7 +1514,7 @@ Para usar [APIs Generativas Scaleway](https://www.scaleway.com/en/docs/generativ
|
||||
3. Insira sua chave da API Scaleway.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -1541,7 +1541,7 @@ Para usar [APIs Generativas Scaleway](https://www.scaleway.com/en/docs/generativ
|
||||
3. Insira sua chave da API Together AI.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -1568,7 +1568,7 @@ Para usar [APIs Generativas Scaleway](https://www.scaleway.com/en/docs/generativ
|
||||
3. Insira sua chave da API Venice AI.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -1597,7 +1597,7 @@ O Vercel AI Gateway permite que você acesse modelos do OpenAI, Anthropic, Googl
|
||||
3. Insira sua chave da API do Vercel AI Gateway.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -1651,7 +1651,7 @@ Algumas opções de roteamento úteis:
|
||||
3. Insira sua chave da API xAI.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -1680,7 +1680,7 @@ Algumas opções de roteamento úteis:
|
||||
3. Insira sua chave da API Z.AI.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -1707,7 +1707,7 @@ Algumas opções de roteamento úteis:
|
||||
3. Insira a chave da API para o provedor.
|
||||
|
||||
```txt
|
||||
┌ Chave da API
|
||||
┌ API key
|
||||
│
|
||||
│
|
||||
└ enter
|
||||
@@ -1741,7 +1741,7 @@ Algumas opções de roteamento úteis:
|
||||
Para adicionar qualquer provedor **compatível com OpenAI** que não esteja listado no comando `/connect`:
|
||||
|
||||
:::tip
|
||||
Você pode usar qualquer provedor compatível com OpenAI com o opencode. A maioria dos provedores de IA modernos oferece APIs compatíveis com OpenAI.
|
||||
Você pode usar qualquer provedor compatível com OpenAI com o opencode. A maioria dos provedores de AI modernos oferece APIs compatíveis com OpenAI.
|
||||
:::
|
||||
|
||||
1. Execute o comando `/connect` e role para baixo até **Outro**.
|
||||
@@ -1749,11 +1749,11 @@ Você pode usar qualquer provedor compatível com OpenAI com o opencode. A maior
|
||||
```bash
|
||||
$ /connect
|
||||
|
||||
┌ Adicionar credencial
|
||||
┌ Add credential
|
||||
│
|
||||
◆ Selecionar provedor
|
||||
◆ Select provider
|
||||
│ ...
|
||||
│ ● Outro
|
||||
│ ● Other
|
||||
└
|
||||
```
|
||||
|
||||
@@ -1762,9 +1762,9 @@ Você pode usar qualquer provedor compatível com OpenAI com o opencode. A maior
|
||||
```bash
|
||||
$ /connect
|
||||
|
||||
┌ Adicionar credencial
|
||||
┌ Add credential
|
||||
│
|
||||
◇ Insira o id do provedor
|
||||
◇ Enter provider id
|
||||
│ myprovider
|
||||
└
|
||||
```
|
||||
@@ -1778,11 +1778,11 @@ Você pode usar qualquer provedor compatível com OpenAI com o opencode. A maior
|
||||
```bash
|
||||
$ /connect
|
||||
|
||||
┌ Adicionar credencial
|
||||
┌ Add credential
|
||||
│
|
||||
▲ Isso apenas armazena uma credencial para myprovider - você precisará configurá-la no opencode.json, verifique a documentação para exemplos.
|
||||
▲ This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.
|
||||
│
|
||||
◇ Insira sua chave da API
|
||||
◇ Enter your API key
|
||||
│ sk-...
|
||||
└
|
||||
```
|
||||
@@ -1795,13 +1795,13 @@ Você pode usar qualquer provedor compatível com OpenAI com o opencode. A maior
|
||||
"provider": {
|
||||
"myprovider": {
|
||||
"npm": "@ai-sdk/openai-compatible",
|
||||
"name": "Nome de Exibição do Meu Provedor de IA",
|
||||
"name": "My AI ProviderDisplay Name",
|
||||
"options": {
|
||||
"baseURL": "https://api.myprovider.com/v1"
|
||||
},
|
||||
"models": {
|
||||
"my-model-name": {
|
||||
"name": "Nome de Exibição do Meu Modelo"
|
||||
"name": "My Model Display Name"
|
||||
}
|
||||
}
|
||||
}
|
||||
@@ -1810,7 +1810,7 @@ Você pode usar qualquer provedor compatível com OpenAI com o opencode. A maior
|
||||
```
|
||||
|
||||
Aqui estão as opções de configuração:
|
||||
- **npm**: Pacote do SDK de IA a ser usado, `@ai-sdk/openai-compatible` para provedores compatíveis com OpenAI
|
||||
- **npm**: Pacote do SDK de AI a ser usado, `@ai-sdk/openai-compatible` para provedores compatíveis com OpenAI
|
||||
- **name**: Nome de exibição na interface do usuário.
|
||||
- **models**: Modelos disponíveis.
|
||||
- **options.baseURL**: URL do endpoint da API.
|
||||
@@ -1833,7 +1833,7 @@ Aqui está um exemplo definindo as opções `apiKey`, `headers` e `limit` do mod
|
||||
"provider": {
|
||||
"myprovider": {
|
||||
"npm": "@ai-sdk/openai-compatible",
|
||||
"name": "Nome de Exibição do Meu Provedor de IA",
|
||||
"name": "My AI ProviderDisplay Name",
|
||||
"options": {
|
||||
"baseURL": "https://api.myprovider.com/v1",
|
||||
"apiKey": "{env:ANTHROPIC_API_KEY}",
|
||||
@@ -1843,7 +1843,7 @@ Aqui está um exemplo definindo as opções `apiKey`, `headers` e `limit` do mod
|
||||
},
|
||||
"models": {
|
||||
"my-model-name": {
|
||||
"name": "Nome de Exibição do Meu Modelo",
|
||||
"name": "My Model Display Name",
|
||||
"limit": {
|
||||
"context": 200000,
|
||||
"output": 65536
|
||||
|
||||
Reference in New Issue
Block a user