Skip to content

提供商

在 OpenCode 中使用任何 LLM 提供商。

OpenCode 使用 AI SDKModels.dev 来支持 75+ 个 LLM 提供商,并且它还支持运行本地模型。

要添加提供商,您需要:

  1. 使用 /connect 命令添加该提供商的 API 密钥。
  2. 在您的 OpenCode 配置中配置该提供商。

凭据

当您使用 /connect 命令添加提供商的 API 密钥时,它们会被存储在 ~/.local/share/opencode/auth.json 中。


配置

您可以通过 OpenCode 配置中的 provider 部分来自定义提供商。


基础 URL

您可以通过设置 baseURL 选项来自定义任何提供商的基础 URL。这在您使用代理服务或自定义端点时非常有用。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}

OpenCode Zen

OpenCode Zen 是由 OpenCode 团队提供的一系列模型列表,这些模型已经过测试并验证可以很好地与 OpenCode 配合工作。了解更多

  1. 在 TUI 中运行 /connect 命令,选择 opencode,然后访问 opencode.ai/auth

    /connect
  2. 登录,添加您的账单详情,并复制您的 API 密钥。

  3. 粘贴您的 API 密钥。

    ┌ API key
    └ enter
  4. 在 TUI 中运行 /models 以查看我们推荐的模型列表。

    /models

它与 OpenCode 中的任何其他提供商工作方式相同,并且是否使用它是完全可选的。


目录

让我们详细看看其中一些提供商。如果您想将某个提供商添加到此列表中,请随时提交 PR。


Amazon Bedrock

在 OpenCode 中使用 Amazon Bedrock:

  1. 前往 Amazon Bedrock 控制台中的 模型目录,并申请您想要的模型的访问权限。

  2. 配置您的 AWS 凭据。您可以使用 AWS CLI 或设置环境变量:

    Terminal window
    export AWS_ACCESS_KEY_ID=xxx
    export AWS_SECRET_ACCESS_KEY=xxx
    export AWS_REGION=us-east-1

Anthropic

在 OpenCode 中使用 Anthropic:

  1. Anthropic 控制台 获取您的 API 密钥。

  2. 使用 /connect 命令添加您的密钥:

    Terminal window
    /connect anthropic

Azure OpenAI

  1. 前往 Azure 门户 并创建一个 Azure OpenAI 资源。你将需要:

    • 资源名称: 这将成为你的 API 端点的一部分 (https://RESOURCE_NAME.openai.azure.com/)
    • API 密钥: 资源中的 KEY 1KEY 2
  2. 前往 Azure AI Foundry 并部署一个模型。

  3. 运行 /connect 命令并搜索 Azure

    /connect
  4. 输入您的 API 密钥。

    ┌ API key
    └ enter
  5. 将您的资源名称设置为环境变量:

    Terminal window
    AZURE_RESOURCE_NAME=XXX opencode

    或者将其添加到您的 bash 配置文件中:

    ~/.bash_profile
    export AZURE_RESOURCE_NAME=XXX
  6. 运行 /models 命令来选择您已部署的模型。

    /models

Azure Cognitive Services

  1. 前往 Azure 门户 并创建一个 Azure OpenAI 资源。你将需要:

    • 资源名称: 这将成为你的 API 端点的一部分 (https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/)
    • API 密钥: 资源中的 KEY 1KEY 2
  2. 前往 Azure AI Foundry 并部署一个模型。

  3. 运行 /connect 命令并搜索 Azure Cognitive Services

    /connect
  4. 输入您的 API 密钥。

    ┌ API key
    └ enter
  5. 将您的资源名称设置为环境变量:

    Terminal window
    AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode

    或者将其添加到您的 bash 配置文件中:

    ~/.bash_profile
    export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
  6. 运行 /models 命令来选择您已部署的模型。

    /models

Baseten

  1. 前往 Baseten,创建一个帐户并生成 API 密钥。

  2. 运行 /connect 命令并搜索 Baseten

    /connect
  3. 输入您的 Baseten API 密钥。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择模型。

    /models

Cerebras

  1. 前往 Cerebras 控制台,创建一个帐户并生成 API 密钥。

  2. 运行 /connect 命令并搜索 Cerebras

    /connect
  3. 输入您的 Cerebras API 密钥。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择模型,例如 Qwen 3 Coder 480B

    /models

Cloudflare AI Gateway

Cloudflare AI Gateway 让你可以通过统一的端点访问来自 OpenAI、Anthropic、Workers AI 等的模型。通过 统一账单,你不需要为每个提供商提供单独的 API 密钥。

  1. 前往 Cloudflare 控制面板,导航至 AI > AI Gateway,并创建一个新的网关。

  2. 将您的 Account ID 和 Gateway ID 设置为环境变量。

    ~/.bash_profile
    export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id
    export CLOUDFLARE_GATEWAY_ID=your-gateway-id
  3. 运行 /connect 命令并搜索 Cloudflare AI Gateway

    /connect
  4. 输入您的 Cloudflare API 令牌。

    ┌ API key
    └ enter

    或者将其设置为环境变量。

    ~/.bash_profile
    export CLOUDFLARE_API_TOKEN=your-api-token
  5. 运行 /models 命令来选择模型。

    /models

    您也可以通过 OpenCode 配置添加模型。

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "cloudflare-ai-gateway": {
    "models": {
    "openai/gpt-4o": {},
    "anthropic/claude-sonnet-4": {}
    }
    }
    }
    }

Cortecs

  1. 前往 Cortecs 控制台,创建一个帐户并生成 API 密钥。

  2. 运行 /connect 命令并搜索 Cortecs

    /connect
  3. 输入您的 Cortecs API 密钥。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择模型,例如 Kimi K2 Instruct

    /models

DeepSeek

在 OpenCode 中使用 DeepSeek:

  1. DeepSeek 平台 获取您的 API 密钥。

  2. 使用 /connect 命令添加您的密钥:

    Terminal window
    /connect deepseek

Deep Infra

  1. 前往 Deep Infra 控制面板,创建一个帐户并生成 API 密钥。

  2. 运行 /connect 命令并搜索 Deep Infra

    /connect
  3. 输入您的 Deep Infra API 密钥。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择模型。

    /models

Fireworks AI

  1. 前往 Fireworks AI 控制台,创建一个帐户并点击 创建 API 密钥

  2. 运行 /connect 命令并搜索 Fireworks AI

    /connect
  3. 输入您的 Fireworks AI API 密钥。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择模型,例如 Kimi K2 Instruct

    /models

GitHub Copilot

要在 OpenCode 中使用您的 GitHub Copilot 订阅:

  1. 运行 /connect 命令并搜索 GitHub Copilot。

    /connect
  2. 导航至 github.com/login/device 并输入代码。

    ┌ Login with GitHub Copilot
    │ https://github.com/login/device
    │ Enter code: 8F43-6FCF
    └ Waiting for authorization...
  3. 现在运行 /models 命令来选择您想要的模型。

    /models

Google Generative AI

在 OpenCode 中使用 Google Generative AI (Gemini):

  1. Google AI Studio 获取您的 API 密钥。

  2. 使用 /connect 命令添加您的密钥:

    Terminal window
    /connect google

Groq

在 OpenCode 中使用 Groq:

  1. Groq 控制台 获取您的 API 密钥。

  2. 使用 /connect 命令添加您的密钥:

    Terminal window
    /connect groq

Hugging Face

Hugging Face Inference Providers 提供了对 17+ 个提供商支持的开放模型的访问。

  1. 前往 Hugging Face 设置 以创建一个具有调用 Inference Providers 权限的令牌。

  2. 运行 /connect 命令并搜索 Hugging Face

    /connect
  3. 输入您的 Hugging Face 令牌。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择一个模型,例如 Kimi-K2-InstructGLM-4.6

    /models

Helicone

Helicone 是一个 LLM 可观测性平台,为您的 AI 应用程序提供日志记录、监控和分析。Helicone AI Gateway 会根据模型自动将您的请求路由到适当的提供商。

  1. 前往 Helicone,创建一个帐户并在您的仪表板中生成 API 密钥。

  2. 运行 /connect 命令并搜索 Helicone

    /connect
  3. 输入您的 Helicone API 密钥。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择模型。

    /models

有关更多提供商以及缓存和速率限制等高级功能,请查看 Helicone 文档

可选配置

你可以为提供商配置可选参数。

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
},
"models": {
"gpt-4o": {
// 模型 ID (来自 Helicone 的模型目录页面)
"name": "GPT-4o", // 您为该模型自定义的名称
},
"claude-sonnet-4-20250514": {
"name": "Claude Sonnet 4",
},
},
},
},
}

自定义标头

你可以为 API 请求配置自定义 HTTP 标头。

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "opencode",
},
},
},
},
}
会话跟踪

你可以配置会话跟踪。

Terminal window
npm install -g opencode-helicone-session

将其添加到您的配置中。

opencode.json
{
"plugin": ["opencode-helicone-session"]
}

该插件会将 Helicone-Session-IdHelicone-Session-Name 标头注入您的请求中。在 Helicone 的 Sessions 页面上,您将看到列为单独会话的每次 OpenCode 对话。

常用的 Helicone 标头
标头描述
Helicone-Cache-Enabled启用响应缓存 (true/false)
Helicone-User-Id按用户跟踪指标
Helicone-Property-[Name]添加自定义属性 (例如 Helicone-Property-Environment)
Helicone-Prompt-Id将请求与提示词版本关联

请参阅 Helicone 标头目录 (Header Directory) 以了解所有可用的标头。


llama.cpp

您可以配置 OpenCode 通过 llama.cpp 的 llama-server 实用程序使用本地模型。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}

在此示例中:

  • llama.cpp 是自定义提供商 ID。它可以是您想要的任何字符串。
  • npm 指定用于此提供商的包。在这里,对于任何兼容 OpenAI 的 API,都使用 @ai-sdk/openai-compatible
  • name 是 UI 中提供商的显示名称。
  • options.baseURL 是本地服务器的端点。
  • models 是模型 ID 到其配置的映射。模型名称将显示在模型选择列表中。

IO.NET

IO.NET 提供了 17 个针对各种用例进行了优化的模型:

  1. 前往 IO.NET 控制台,创建一个帐户并生成 API 密钥。

  2. 运行 /connect 命令并搜索 IO.NET

    /connect
  3. 输入您的 IO.NET API 密钥。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择模型。

    /models

LM Studio

OpenCode 支持通过其 OpenAI 兼容的服务器与 LM Studio 进行本地模型集成。

  1. 在 LM Studio 中,启动 本地服务器

  2. 在您的 opencode.json 中配置提供商:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "lmstudio": {
    "options": {
    "baseURL": "http://localhost:1234/v1"
    }
    }
    }
    }
  3. 运行 opencode -m lmstudio/xxx,其中 xxx 是您在 LM Studio 中加载的模型 ID。

在此示例中:

  • lmstudio 是自定义提供商 ID。它可以是您想要的任何字符串。
  • npm 指定用于此提供商的包。在这里,对于任何兼容 OpenAI 的 API,都使用 @ai-sdk/openai-compatible
  • name 是 UI 中提供商的显示名称。
  • options.baseURL 是本地服务器的端点。
  • models 是模型 ID 到其配置的映射。模型名称将显示在模型选择列表中。

Moonshot AI

OpenCode 支持 Moonshot AI。

  1. 前往 Moonshot AI 控制台,创建一个帐户并点击 创建 API 密钥

  2. 运行 /connect 命令并搜索 Moonshot AI

    /connect
  3. 输入您的 Moonshot API 密钥。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择 Kimi K2

    /models

MiniMax

  1. 前往 MiniMax API 控制台,创建一个帐户并生成 API 密钥。

  2. 运行 /connect 命令并搜索 MiniMax

    /connect
  3. 输入您的 MiniMax API 密钥。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择模型,例如 M2.1

    /models

Nebius Token Factory

  1. 前往 Nebius Token Factory 控制台,创建一个帐户并点击 添加密钥

  2. 运行 /connect 命令并搜索 Nebius Token Factory

    /connect
  3. 输入您的 Nebius Token Factory API 密钥。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择模型,例如 Kimi K2 Instruct

    /models

Ollama

OpenCode 支持通过其内置的 Ollama 提供商与 Ollama 进行本地模型集成。

  1. 确保 Ollama 正在运行。

  2. 配置您的 opencode.json

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "ollama": {
    "options": {
    "baseURL": "http://localhost:11434/api"
    }
    }
    }
    }
  3. 运行 opencode -m ollama/llama3

在此示例中:

  • ollama 是自定义提供商 ID。它可以是您想要的任何字符串。
  • npm 指定用于此提供商的包。在这里,对于任何兼容 OpenAI 的 API,都使用 @ai-sdk/openai-compatible
  • name 是 UI 中提供商的显示名称。
  • options.baseURL 是本地服务器的端点。
  • models 是模型 ID 到其配置的映射。模型名称将显示在模型选择列表中。

Ollama Cloud

在 OpenCode 中使用 Ollama Cloud:

  1. 前往 https://ollama.com/ 并登录或创建一个帐户。

  2. 导航至 设置 > 密钥,并点击 添加 API 密钥 以生成新的 API 密钥。

  3. 复制 API 密钥以便在 OpenCode 中使用。

  4. 运行 /connect 命令并搜索 Ollama Cloud

    /connect
  5. 输入您的 Ollama Cloud API 密钥。

    ┌ API key
    └ enter
  6. 重要提示:在 OpenCode 中使用云端模型之前,您必须先在本地拉取模型信息:

    Terminal window
    ollama pull gpt-oss:20b-cloud
  7. 运行 /models 命令来选择您的 Ollama Cloud 模型。

    /models

OpenAI

在 OpenCode 中使用 OpenAI:

  1. OpenAI 仪表板 获取您的 API 密钥。

  2. 使用 /connect 命令添加您的密钥:

    Terminal window
    /connect openai

OpenCode Zen

OpenCode Zen 是由 OpenCode 团队提供的一系列经过测试和验证的模型列表。了解更多

  1. 登录 OpenCode Zen 并点击 创建 API 密钥

  2. 运行 /connect 命令并搜索 OpenCode Zen

    /connect
  3. 输入您的 OpenCode API 密钥。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择模型,例如 Qwen 3 Coder 480B

    /models

OpenRouter

  1. 前往 OpenRouter 仪表板,点击 Create API Key (创建 API 密钥),并复制密钥。

  2. 运行 /connect 命令并搜索 OpenRouter。

    /connect
  3. 输入该提供商的 API 密钥。

    ┌ API key
    └ enter
  4. 许多 OpenRouter 模型默认已预加载,运行 /models 命令来选择您想要的一个。

    /models

    您也可以通过 OpenCode 配置添加额外的模型。

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }
  5. 您还可以通过 OpenCode 配置自定义它们。以下是指定提供商的示例:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "moonshotai/kimi-k2": {
    "options": {
    "provider": {
    "order": ["baseten"],
    "allow_fallbacks": false
    }
    }
    }
    }
    }
    }
    }

SAP AI Core

SAP AI Core 让您可以通过统一的平台访问来自 OpenAI、Anthropic、Google、Amazon、Meta、Mistral 和 AI21 的 40 多个模型。

  1. 前往您的 SAP BTP 控制台 (Cockpit),导航到您的 SAP AI Core 服务实例,并创建一个服务密钥 (service key)。

  2. 运行 /connect 命令并搜索 SAP AI Core

    /connect
  3. 输入您的服务密钥 JSON。

    ┌ Service key
    └ enter

    或者设置 AICORE_SERVICE_KEY 环境变量:

    Terminal window
    AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode

    或者将其添加到您的 bash 配置文件中:

    ~/.bash_profile
    export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
  4. (可选) 设置部署 ID (deployment ID) 和资源组 (resource group):

    Terminal window
    AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
  5. 运行 /models 命令,从 40 多个可用模型中进行选择。

    /models

OVHcloud AI Endpoints

  1. 前往 OVHcloud 面板。导航到 Public Cloud (公有云) 部分,选择 AI & Machine Learning > AI Endpoints,在 API Keys 选项卡中点击 Create a new API key (创建新的 API 密钥)。

  2. 运行 /connect 命令并搜索 OVHcloud AI Endpoints

    /connect
  3. 输入您的 OVHcloud AI Endpoints API 密钥。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择模型,例如 gpt-oss-120b

    /models

Together AI

  1. 前往 Together AI 控制台,创建一个帐户并点击 Add Key (添加密钥)。

  2. 运行 /connect 命令并搜索 Together AI

    /connect
  3. 输入您的 Together AI API 密钥。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择模型,例如 Kimi K2 Instruct

    /models

Venice AI

  1. 前往 Venice AI 控制台,创建一个帐户并生成 API 密钥。

  2. 运行 /connect 命令并搜索 Venice AI

    /connect
  3. 输入您的 Venice AI API 密钥。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择模型,例如 Llama 3.3 70B

    /models

Vercel AI Gateway

Vercel AI Gateway 让您可以通过统一的端点访问来自 OpenAI、Anthropic、Google、xAI 等的模型。模型按定价列表提供,不加价。

  1. 前往 Vercel 仪表板,导航到 AI Gateway 选项卡,点击 API keys 以创建新的 API 密钥。

  2. 运行 /connect 命令并搜索 Vercel AI Gateway

    /connect
  3. 输入您的 Vercel AI Gateway API key。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择模型。

    /models

您还可以通过 OpenCode 配置自定义模型。以下是一个指定提供商路由顺序的示例。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}

一些有用的路由选项:

选项描述
order尝试的提供商序列
only限制为特定提供商
zeroDataRetention仅使用具有零数据保留策略的提供商

xAI

  1. 前往 xAI 控制台,创建一个帐户并生成 API 密钥。

  2. 运行 /connect 命令并搜索 xAI

    /connect
  3. 输入您的 xAI API 密钥。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择模型,例如 Grok Beta

    /models

Z.AI

  1. 前往 Z.AI API 控制台,创建一个帐户并点击 Create a new API key (创建新的 API 密钥)。

  2. 运行 /connect 命令并搜索 Z.AI

    /connect

    如果您订阅了 GLM Coding Plan,请选择 Z.AI Coding Plan

  3. 输入您的 Z.AI API 密钥。

    ┌ API key
    └ enter
  4. 运行 /models 命令来选择模型,例如 GLM-4.7

    /models

ZenMux

  1. 前往 ZenMux 仪表板,点击 Create API Key (创建 API 密钥),并复制密钥。

  2. 运行 /connect 命令并搜索 ZenMux。

    /connect
  3. 输入该提供商的 API 密钥。

    ┌ API key
    └ enter
  4. 许多 ZenMux 模型默认已预加载,运行 /models 命令来选择您想要的一个。

    /models

    您也可以通过 OpenCode 配置添加额外的模型。

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "zenmux": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }

自定义 OpenAI 兼容提供商

您可以添加任何遵循 OpenAI API 规范的自定义提供商。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"my-provider": {
"options": {
"baseURL": "https://api.my-provider.com/v1",
"apiKey": "YOUR_API_KEY"
}
}
}
}

然后使用 opencode -m my-provider/model-id 运行。

  1. 运行 /connect 命令并向下滚动到 Other (其他)。

    Terminal window
    $ /connect
    Add credential (添加凭据)
    Select provider (选择提供商)
    ...
    Other
  2. 为提供商输入一个唯一的 ID。

    Terminal window
    $ /connect
    Add credential
    Enter provider id
    myprovider
  3. 输入您的提供商 API 密钥。

    Terminal window
    $ /connect
    Add credential
    这仅为 myprovider 存储凭据 - 您需要在 opencode.json 中进行配置,请查看文档中的示例。
    Enter your API key
    sk-...
  4. 在您的项目目录中创建或更新 opencode.json 文件:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "myprovider": {
    "npm": "@ai-sdk/openai-compatible",
    "name": "My AI ProviderDisplay Name",
    "options": {
    "baseURL": "https://api.myprovider.com/v1"
    },
    "models": {
    "my-model-name": {
    "name": "My Model Display Name"
    }
    }
    }
    }
    }

    以下是配置选项:

    • npm: 要使用的 AI SDK 包,对于兼容 OpenAI 的提供商,使用 @ai-sdk/openai-compatible
    • name: UI 中的显示名称。
    • models: 可用模型。
    • options.baseURL: API 端点 URL。
    • options.apiKey: (可选) 如果不使用 auth 命令,可在此设置 API 密钥。
    • options.headers: (可选) 设置自定义标头。

    有关高级选项的更多信息,请参见下面的示例。

  5. 运行 /models 命令,您的自定义提供商和模型将出现在选择列表中。


示例

一个配置 Moonshot AI 的示例。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}

配置详情:

  • apiKey: 使用 env 变量语法设置,了解更多
  • headers: 随每个请求发送的自定义标头。
  • limit.context: 模型接受的最大输入令牌 (tokens) 数。
  • limit.output: 模型可以生成的最大令牌数。

limit 字段让 OpenCode 了解您还剩下多少上下文。标准提供商会自动从 models.dev 获取这些信息。


故障排除

如果你在配置提供商时遇到问题,请参考以下内容。

  1. 检查身份验证设置:运行 opencode auth list 查看是否已将该提供商的凭据添加到您的配置中。

    这不适用于像 Amazon Bedrock 这样依赖环境变量进行身份验证的提供商。

  2. 对于自定义提供商,请检查 OpenCode 配置并:

    • 确保 /connect 命令中使用的提供商 ID 与您的 OpenCode 配置中的 ID 匹配。
    • 为提供商使用了正确的 npm 包。例如,为 Cerebras 使用 @ai-sdk/cerebras。对于所有其他兼容 OpenAI 的提供商,使用 @ai-sdk/openai-compatible
    • 检查 options.baseURL 字段中是否使用了正确的 API 端点。