提供商
在 OpenCode 中使用任何 LLM 提供商。
OpenCode 使用 AI SDK 和 Models.dev 来支持 75+ 个 LLM 提供商,并且它还支持运行本地模型。
要添加提供商,您需要:
- 使用
/connect命令添加该提供商的 API 密钥。 - 在您的 OpenCode 配置中配置该提供商。
凭据
当您使用 /connect 命令添加提供商的 API 密钥时,它们会被存储在 ~/.local/share/opencode/auth.json 中。
配置
您可以通过 OpenCode 配置中的 provider 部分来自定义提供商。
基础 URL
您可以通过设置 baseURL 选项来自定义任何提供商的基础 URL。这在您使用代理服务或自定义端点时非常有用。
{ "$schema": "https://opencode.ai/config.json", "provider": { "anthropic": { "options": { "baseURL": "https://api.anthropic.com/v1" } } }}OpenCode Zen
OpenCode Zen 是由 OpenCode 团队提供的一系列模型列表,这些模型已经过测试并验证可以很好地与 OpenCode 配合工作。了解更多。
-
在 TUI 中运行
/connect命令,选择 opencode,然后访问 opencode.ai/auth。/connect -
登录,添加您的账单详情,并复制您的 API 密钥。
-
粘贴您的 API 密钥。
┌ API key││└ enter -
在 TUI 中运行
/models以查看我们推荐的模型列表。/models
它与 OpenCode 中的任何其他提供商工作方式相同,并且是否使用它是完全可选的。
目录
让我们详细看看其中一些提供商。如果您想将某个提供商添加到此列表中,请随时提交 PR。
Amazon Bedrock
在 OpenCode 中使用 Amazon Bedrock:
-
前往 Amazon Bedrock 控制台中的 模型目录,并申请您想要的模型的访问权限。
-
配置您的 AWS 凭据。您可以使用 AWS CLI 或设置环境变量:
Terminal window export AWS_ACCESS_KEY_ID=xxxexport AWS_SECRET_ACCESS_KEY=xxxexport AWS_REGION=us-east-1
Anthropic
在 OpenCode 中使用 Anthropic:
-
从 Anthropic 控制台 获取您的 API 密钥。
-
使用
/connect命令添加您的密钥:Terminal window /connect anthropic
Azure OpenAI
-
前往 Azure 门户 并创建一个 Azure OpenAI 资源。你将需要:
- 资源名称: 这将成为你的 API 端点的一部分 (
https://RESOURCE_NAME.openai.azure.com/) - API 密钥: 资源中的
KEY 1或KEY 2
- 资源名称: 这将成为你的 API 端点的一部分 (
-
前往 Azure AI Foundry 并部署一个模型。
-
运行
/connect命令并搜索 Azure。/connect -
输入您的 API 密钥。
┌ API key││└ enter -
将您的资源名称设置为环境变量:
Terminal window AZURE_RESOURCE_NAME=XXX opencode或者将其添加到您的 bash 配置文件中:
~/.bash_profile export AZURE_RESOURCE_NAME=XXX -
运行
/models命令来选择您已部署的模型。/models
Azure Cognitive Services
-
前往 Azure 门户 并创建一个 Azure OpenAI 资源。你将需要:
- 资源名称: 这将成为你的 API 端点的一部分 (
https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/) - API 密钥: 资源中的
KEY 1或KEY 2
- 资源名称: 这将成为你的 API 端点的一部分 (
-
前往 Azure AI Foundry 并部署一个模型。
-
运行
/connect命令并搜索 Azure Cognitive Services。/connect -
输入您的 API 密钥。
┌ API key││└ enter -
将您的资源名称设置为环境变量:
Terminal window AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode或者将其添加到您的 bash 配置文件中:
~/.bash_profile export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX -
运行
/models命令来选择您已部署的模型。/models
Baseten
-
前往 Baseten,创建一个帐户并生成 API 密钥。
-
运行
/connect命令并搜索 Baseten。/connect -
输入您的 Baseten API 密钥。
┌ API key││└ enter -
运行
/models命令来选择模型。/models
Cerebras
-
前往 Cerebras 控制台,创建一个帐户并生成 API 密钥。
-
运行
/connect命令并搜索 Cerebras。/connect -
输入您的 Cerebras API 密钥。
┌ API key││└ enter -
运行
/models命令来选择模型,例如 Qwen 3 Coder 480B。/models
Cloudflare AI Gateway
Cloudflare AI Gateway 让你可以通过统一的端点访问来自 OpenAI、Anthropic、Workers AI 等的模型。通过 统一账单,你不需要为每个提供商提供单独的 API 密钥。
-
前往 Cloudflare 控制面板,导航至 AI > AI Gateway,并创建一个新的网关。
-
将您的 Account ID 和 Gateway ID 设置为环境变量。
~/.bash_profile export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-idexport CLOUDFLARE_GATEWAY_ID=your-gateway-id -
运行
/connect命令并搜索 Cloudflare AI Gateway。/connect -
输入您的 Cloudflare API 令牌。
┌ API key││└ enter或者将其设置为环境变量。
~/.bash_profile export CLOUDFLARE_API_TOKEN=your-api-token -
运行
/models命令来选择模型。/models您也可以通过 OpenCode 配置添加模型。
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"cloudflare-ai-gateway": {"models": {"openai/gpt-4o": {},"anthropic/claude-sonnet-4": {}}}}}
Cortecs
-
前往 Cortecs 控制台,创建一个帐户并生成 API 密钥。
-
运行
/connect命令并搜索 Cortecs。/connect -
输入您的 Cortecs API 密钥。
┌ API key││└ enter -
运行
/models命令来选择模型,例如 Kimi K2 Instruct。/models
DeepSeek
在 OpenCode 中使用 DeepSeek:
-
从 DeepSeek 平台 获取您的 API 密钥。
-
使用
/connect命令添加您的密钥:Terminal window /connect deepseek
Deep Infra
-
前往 Deep Infra 控制面板,创建一个帐户并生成 API 密钥。
-
运行
/connect命令并搜索 Deep Infra。/connect -
输入您的 Deep Infra API 密钥。
┌ API key││└ enter -
运行
/models命令来选择模型。/models
Fireworks AI
-
前往 Fireworks AI 控制台,创建一个帐户并点击 创建 API 密钥。
-
运行
/connect命令并搜索 Fireworks AI。/connect -
输入您的 Fireworks AI API 密钥。
┌ API key││└ enter -
运行
/models命令来选择模型,例如 Kimi K2 Instruct。/models
GitHub Copilot
要在 OpenCode 中使用您的 GitHub Copilot 订阅:
-
运行
/connect命令并搜索 GitHub Copilot。/connect -
导航至 github.com/login/device 并输入代码。
┌ Login with GitHub Copilot││ https://github.com/login/device││ Enter code: 8F43-6FCF│└ Waiting for authorization... -
现在运行
/models命令来选择您想要的模型。/models
Google Generative AI
在 OpenCode 中使用 Google Generative AI (Gemini):
-
从 Google AI Studio 获取您的 API 密钥。
-
使用
/connect命令添加您的密钥:Terminal window /connect google
Groq
在 OpenCode 中使用 Groq:
-
从 Groq 控制台 获取您的 API 密钥。
-
使用
/connect命令添加您的密钥:Terminal window /connect groq
Hugging Face
Hugging Face Inference Providers 提供了对 17+ 个提供商支持的开放模型的访问。
-
前往 Hugging Face 设置 以创建一个具有调用 Inference Providers 权限的令牌。
-
运行
/connect命令并搜索 Hugging Face。/connect -
输入您的 Hugging Face 令牌。
┌ API key││└ enter -
运行
/models命令来选择一个模型,例如 Kimi-K2-Instruct 或 GLM-4.6。/models
Helicone
Helicone 是一个 LLM 可观测性平台,为您的 AI 应用程序提供日志记录、监控和分析。Helicone AI Gateway 会根据模型自动将您的请求路由到适当的提供商。
-
前往 Helicone,创建一个帐户并在您的仪表板中生成 API 密钥。
-
运行
/connect命令并搜索 Helicone。/connect -
输入您的 Helicone API 密钥。
┌ API key││└ enter -
运行
/models命令来选择模型。/models
有关更多提供商以及缓存和速率限制等高级功能,请查看 Helicone 文档。
可选配置
你可以为提供商配置可选参数。
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", }, "models": { "gpt-4o": { // 模型 ID (来自 Helicone 的模型目录页面) "name": "GPT-4o", // 您为该模型自定义的名称 }, "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", }, }, }, },}自定义标头
你可以为 API 请求配置自定义 HTTP 标头。
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", "headers": { "Helicone-Cache-Enabled": "true", "Helicone-User-Id": "opencode", }, }, }, },}会话跟踪
你可以配置会话跟踪。
npm install -g opencode-helicone-session将其添加到您的配置中。
{ "plugin": ["opencode-helicone-session"]}该插件会将 Helicone-Session-Id 和 Helicone-Session-Name 标头注入您的请求中。在 Helicone 的 Sessions 页面上,您将看到列为单独会话的每次 OpenCode 对话。
常用的 Helicone 标头
| 标头 | 描述 |
|---|---|
Helicone-Cache-Enabled | 启用响应缓存 (true/false) |
Helicone-User-Id | 按用户跟踪指标 |
Helicone-Property-[Name] | 添加自定义属性 (例如 Helicone-Property-Environment) |
Helicone-Prompt-Id | 将请求与提示词版本关联 |
请参阅 Helicone 标头目录 (Header Directory) 以了解所有可用的标头。
llama.cpp
您可以配置 OpenCode 通过 llama.cpp 的 llama-server 实用程序使用本地模型。
{ "$schema": "https://opencode.ai/config.json", "provider": { "llama.cpp": { "npm": "@ai-sdk/openai-compatible", "name": "llama-server (local)", "options": { "baseURL": "http://127.0.0.1:8080/v1" }, "models": { "qwen3-coder:a3b": { "name": "Qwen3-Coder: a3b-30b (local)", "limit": { "context": 128000, "output": 65536 } } } } }}在此示例中:
llama.cpp是自定义提供商 ID。它可以是您想要的任何字符串。npm指定用于此提供商的包。在这里,对于任何兼容 OpenAI 的 API,都使用@ai-sdk/openai-compatible。name是 UI 中提供商的显示名称。options.baseURL是本地服务器的端点。models是模型 ID 到其配置的映射。模型名称将显示在模型选择列表中。
IO.NET
IO.NET 提供了 17 个针对各种用例进行了优化的模型:
-
前往 IO.NET 控制台,创建一个帐户并生成 API 密钥。
-
运行
/connect命令并搜索 IO.NET。/connect -
输入您的 IO.NET API 密钥。
┌ API key││└ enter -
运行
/models命令来选择模型。/models
LM Studio
OpenCode 支持通过其 OpenAI 兼容的服务器与 LM Studio 进行本地模型集成。
-
在 LM Studio 中,启动 本地服务器。
-
在您的
opencode.json中配置提供商:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"lmstudio": {"options": {"baseURL": "http://localhost:1234/v1"}}}} -
运行
opencode -m lmstudio/xxx,其中xxx是您在 LM Studio 中加载的模型 ID。
在此示例中:
lmstudio是自定义提供商 ID。它可以是您想要的任何字符串。npm指定用于此提供商的包。在这里,对于任何兼容 OpenAI 的 API,都使用@ai-sdk/openai-compatible。name是 UI 中提供商的显示名称。options.baseURL是本地服务器的端点。models是模型 ID 到其配置的映射。模型名称将显示在模型选择列表中。
Moonshot AI
OpenCode 支持 Moonshot AI。
-
前往 Moonshot AI 控制台,创建一个帐户并点击 创建 API 密钥。
-
运行
/connect命令并搜索 Moonshot AI。/connect -
输入您的 Moonshot API 密钥。
┌ API key││└ enter -
运行
/models命令来选择 Kimi K2。/models
MiniMax
-
前往 MiniMax API 控制台,创建一个帐户并生成 API 密钥。
-
运行
/connect命令并搜索 MiniMax。/connect -
输入您的 MiniMax API 密钥。
┌ API key││└ enter -
运行
/models命令来选择模型,例如 M2.1。/models
Nebius Token Factory
-
前往 Nebius Token Factory 控制台,创建一个帐户并点击 添加密钥。
-
运行
/connect命令并搜索 Nebius Token Factory。/connect -
输入您的 Nebius Token Factory API 密钥。
┌ API key││└ enter -
运行
/models命令来选择模型,例如 Kimi K2 Instruct。/models
Ollama
OpenCode 支持通过其内置的 Ollama 提供商与 Ollama 进行本地模型集成。
-
确保 Ollama 正在运行。
-
配置您的
opencode.json:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"ollama": {"options": {"baseURL": "http://localhost:11434/api"}}}} -
运行
opencode -m ollama/llama3。
在此示例中:
ollama是自定义提供商 ID。它可以是您想要的任何字符串。npm指定用于此提供商的包。在这里,对于任何兼容 OpenAI 的 API,都使用@ai-sdk/openai-compatible。name是 UI 中提供商的显示名称。options.baseURL是本地服务器的端点。models是模型 ID 到其配置的映射。模型名称将显示在模型选择列表中。
Ollama Cloud
在 OpenCode 中使用 Ollama Cloud:
-
前往 https://ollama.com/ 并登录或创建一个帐户。
-
导航至 设置 > 密钥,并点击 添加 API 密钥 以生成新的 API 密钥。
-
复制 API 密钥以便在 OpenCode 中使用。
-
运行
/connect命令并搜索 Ollama Cloud。/connect -
输入您的 Ollama Cloud API 密钥。
┌ API key││└ enter -
重要提示:在 OpenCode 中使用云端模型之前,您必须先在本地拉取模型信息:
Terminal window ollama pull gpt-oss:20b-cloud -
运行
/models命令来选择您的 Ollama Cloud 模型。/models
OpenAI
在 OpenCode 中使用 OpenAI:
-
从 OpenAI 仪表板 获取您的 API 密钥。
-
使用
/connect命令添加您的密钥:Terminal window /connect openai
OpenCode Zen
OpenCode Zen 是由 OpenCode 团队提供的一系列经过测试和验证的模型列表。了解更多。
-
登录 OpenCode Zen 并点击 创建 API 密钥。
-
运行
/connect命令并搜索 OpenCode Zen。/connect -
输入您的 OpenCode API 密钥。
┌ API key││└ enter -
运行
/models命令来选择模型,例如 Qwen 3 Coder 480B。/models
OpenRouter
-
前往 OpenRouter 仪表板,点击 Create API Key (创建 API 密钥),并复制密钥。
-
运行
/connect命令并搜索 OpenRouter。/connect -
输入该提供商的 API 密钥。
┌ API key││└ enter -
许多 OpenRouter 模型默认已预加载,运行
/models命令来选择您想要的一个。/models您也可以通过 OpenCode 配置添加额外的模型。
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"somecoolnewmodel": {}}}}} -
您还可以通过 OpenCode 配置自定义它们。以下是指定提供商的示例:
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"moonshotai/kimi-k2": {"options": {"provider": {"order": ["baseten"],"allow_fallbacks": false}}}}}}}
SAP AI Core
SAP AI Core 让您可以通过统一的平台访问来自 OpenAI、Anthropic、Google、Amazon、Meta、Mistral 和 AI21 的 40 多个模型。
-
前往您的 SAP BTP 控制台 (Cockpit),导航到您的 SAP AI Core 服务实例,并创建一个服务密钥 (service key)。
-
运行
/connect命令并搜索 SAP AI Core。/connect -
输入您的服务密钥 JSON。
┌ Service key││└ enter或者设置
AICORE_SERVICE_KEY环境变量:Terminal window AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode或者将其添加到您的 bash 配置文件中:
~/.bash_profile export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' -
(可选) 设置部署 ID (deployment ID) 和资源组 (resource group):
Terminal window AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode -
运行
/models命令,从 40 多个可用模型中进行选择。/models
OVHcloud AI Endpoints
-
前往 OVHcloud 面板。导航到
Public Cloud(公有云) 部分,选择AI & Machine Learning>AI Endpoints,在API Keys选项卡中点击 Create a new API key (创建新的 API 密钥)。 -
运行
/connect命令并搜索 OVHcloud AI Endpoints。/connect -
输入您的 OVHcloud AI Endpoints API 密钥。
┌ API key││└ enter -
运行
/models命令来选择模型,例如 gpt-oss-120b。/models
Together AI
-
前往 Together AI 控制台,创建一个帐户并点击 Add Key (添加密钥)。
-
运行
/connect命令并搜索 Together AI。/connect -
输入您的 Together AI API 密钥。
┌ API key││└ enter -
运行
/models命令来选择模型,例如 Kimi K2 Instruct。/models
Venice AI
-
前往 Venice AI 控制台,创建一个帐户并生成 API 密钥。
-
运行
/connect命令并搜索 Venice AI。/connect -
输入您的 Venice AI API 密钥。
┌ API key││└ enter -
运行
/models命令来选择模型,例如 Llama 3.3 70B。/models
Vercel AI Gateway
Vercel AI Gateway 让您可以通过统一的端点访问来自 OpenAI、Anthropic、Google、xAI 等的模型。模型按定价列表提供,不加价。
-
前往 Vercel 仪表板,导航到 AI Gateway 选项卡,点击 API keys 以创建新的 API 密钥。
-
运行
/connect命令并搜索 Vercel AI Gateway。/connect -
输入您的 Vercel AI Gateway API key。
┌ API key││└ enter -
运行
/models命令来选择模型。/models
您还可以通过 OpenCode 配置自定义模型。以下是一个指定提供商路由顺序的示例。
{ "$schema": "https://opencode.ai/config.json", "provider": { "vercel": { "models": { "anthropic/claude-sonnet-4": { "options": { "order": ["anthropic", "vertex"] } } } } }}一些有用的路由选项:
| 选项 | 描述 |
|---|---|
order | 尝试的提供商序列 |
only | 限制为特定提供商 |
zeroDataRetention | 仅使用具有零数据保留策略的提供商 |
xAI
-
前往 xAI 控制台,创建一个帐户并生成 API 密钥。
-
运行
/connect命令并搜索 xAI。/connect -
输入您的 xAI API 密钥。
┌ API key││└ enter -
运行
/models命令来选择模型,例如 Grok Beta。/models
Z.AI
-
前往 Z.AI API 控制台,创建一个帐户并点击 Create a new API key (创建新的 API 密钥)。
-
运行
/connect命令并搜索 Z.AI。/connect如果您订阅了 GLM Coding Plan,请选择 Z.AI Coding Plan。
-
输入您的 Z.AI API 密钥。
┌ API key││└ enter -
运行
/models命令来选择模型,例如 GLM-4.7。/models
ZenMux
-
前往 ZenMux 仪表板,点击 Create API Key (创建 API 密钥),并复制密钥。
-
运行
/connect命令并搜索 ZenMux。/connect -
输入该提供商的 API 密钥。
┌ API key││└ enter -
许多 ZenMux 模型默认已预加载,运行
/models命令来选择您想要的一个。/models您也可以通过 OpenCode 配置添加额外的模型。
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"zenmux": {"models": {"somecoolnewmodel": {}}}}}
自定义 OpenAI 兼容提供商
您可以添加任何遵循 OpenAI API 规范的自定义提供商。
{ "$schema": "https://opencode.ai/config.json", "provider": { "my-provider": { "options": { "baseURL": "https://api.my-provider.com/v1", "apiKey": "YOUR_API_KEY" } } }}然后使用 opencode -m my-provider/model-id 运行。
-
运行
/connect命令并向下滚动到 Other (其他)。Terminal window $ /connect┌ Add credential (添加凭据)│◆ Select provider (选择提供商)│ ...│ ● Other└ -
为提供商输入一个唯一的 ID。
Terminal window $ /connect┌ Add credential│◇ Enter provider id│ myprovider└ -
输入您的提供商 API 密钥。
Terminal window $ /connect┌ Add credential│▲ 这仅为 myprovider 存储凭据 - 您需要在 opencode.json 中进行配置,请查看文档中的示例。│◇ Enter your API key│ sk-...└ -
在您的项目目录中创建或更新
opencode.json文件:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"myprovider": {"npm": "@ai-sdk/openai-compatible","name": "My AI ProviderDisplay Name","options": {"baseURL": "https://api.myprovider.com/v1"},"models": {"my-model-name": {"name": "My Model Display Name"}}}}}以下是配置选项:
- npm: 要使用的 AI SDK 包,对于兼容 OpenAI 的提供商,使用
@ai-sdk/openai-compatible - name: UI 中的显示名称。
- models: 可用模型。
- options.baseURL: API 端点 URL。
- options.apiKey: (可选) 如果不使用 auth 命令,可在此设置 API 密钥。
- options.headers: (可选) 设置自定义标头。
有关高级选项的更多信息,请参见下面的示例。
- npm: 要使用的 AI SDK 包,对于兼容 OpenAI 的提供商,使用
-
运行
/models命令,您的自定义提供商和模型将出现在选择列表中。
示例
一个配置 Moonshot AI 的示例。
{ "$schema": "https://opencode.ai/config.json", "provider": { "myprovider": { "npm": "@ai-sdk/openai-compatible", "name": "My AI ProviderDisplay Name", "options": { "baseURL": "https://api.myprovider.com/v1", "apiKey": "{env:ANTHROPIC_API_KEY}", "headers": { "Authorization": "Bearer custom-token" } }, "models": { "my-model-name": { "name": "My Model Display Name", "limit": { "context": 200000, "output": 65536 } } } } }}配置详情:
- apiKey: 使用
env变量语法设置,了解更多。 - headers: 随每个请求发送的自定义标头。
- limit.context: 模型接受的最大输入令牌 (tokens) 数。
- limit.output: 模型可以生成的最大令牌数。
limit 字段让 OpenCode 了解您还剩下多少上下文。标准提供商会自动从 models.dev 获取这些信息。
故障排除
如果你在配置提供商时遇到问题,请参考以下内容。
-
检查身份验证设置:运行
opencode auth list查看是否已将该提供商的凭据添加到您的配置中。这不适用于像 Amazon Bedrock 这样依赖环境变量进行身份验证的提供商。
-
对于自定义提供商,请检查 OpenCode 配置并:
- 确保
/connect命令中使用的提供商 ID 与您的 OpenCode 配置中的 ID 匹配。 - 为提供商使用了正确的 npm 包。例如,为 Cerebras 使用
@ai-sdk/cerebras。对于所有其他兼容 OpenAI 的提供商,使用@ai-sdk/openai-compatible。 - 检查
options.baseURL字段中是否使用了正确的 API 端点。
- 确保