コンテンツにスキップ

プロバイダー

OpenCode で LLM プロバイダーを使用する。

OpenCode は AI SDK および Models.dev を使用して 75 以上の LLM プロバイダー をサポートし、ローカル モデルの実行をサポートします。

プロバイダーを追加するには、次のことを行う必要があります。

  1. /connect コマンドを使用して、プロバイダーの API キーを追加します。
  2. OpenCode 構成でプロバイダーを構成します。

資格

/connect コマンドを使用してプロバイダーの API キーを追加すると、それらは保存されます ~/.local/share/opencode/auth.jsonで。


構成

OpenCode の provider セクションを通じてプロバイダーをカスタマイズできます。 config.


Base URL

baseURL オプションを設定することで、任意のプロバイダーのベース URL をカスタマイズできます。これは、プロキシ サービスまたはカスタム エンドポイントを使用する場合に便利です。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}

OpenCode Zen

OpenCode Zen は、OpenCode チームが提供するモデルのリストです。 OpenCode で適切に動作することがテストおよび検証されています。 詳細はこちら

  1. TUI で /connect コマンドを実行し、opencode を選択して、opencode.ai/auth.

    /connect
  2. サインインし、お支払いの詳細を追加し、API キーをコピーします。

  3. API キーを貼り付けます。

    ┌ API key
    └ enter
  4. TUI で /models を実行すると、推奨されるモデルのリストが表示されます。

    /models

これは OpenCode の他のプロバイダーと同様に機能し、使用は完全にオプションです。


ディレクトリ

いくつかのプロバイダーを詳しく見てみましょう。プロバイダーを追加したい場合は、 リストにある場合は、お気軽に PR を開いてください。


302.AI

  1. 302.AI console に移動し、アカウントを作成し、API キーを生成します。

  2. /connect コマンドを実行し、302.AI を検索します。

    /connect
  3. 302.AI API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行してモデルを選択します。

    /models

Amazon Bedrock

OpenCode で Amazon Bedrock を使用するには:

  1. Amazon Bedrock コンソールの モデル カタログ に移動してリクエストします。 必要なモデルにアクセスします。
  1. 次のいずれかの方法を使用して認証を構成します

    環境変数 (クイック スタート)

opencode の実行中に次の環境変数のいずれかを設定します。

Terminal window
# Option 1: Using AWS access keys
AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
# Option 2: Using named AWS profile
AWS_PROFILE=my-profile opencode
# Option 3: Using Bedrock bearer token
AWS_BEARER_TOKEN_BEDROCK=XXX opencode

または、それらを bash プロファイルに追加します。

~/.bash_profile
export AWS_PROFILE=my-dev-profile
export AWS_REGION=us-east-1

設定ファイル (推奨)

プロジェクト固有の構成または永続的な構成の場合は、opencode.json を使用します。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "my-aws-profile"
}
}
}
}

利用可能なオプション:

  • region - AWS リージョン (例: us-east-1eu-west-1)
  • profile - ~/.aws/credentials からの AWS 名前付きプロファイル
  • endpoint - VPC エンドポイントのカスタム エンドポイント URL (汎用 baseURL オプションのエイリアス)

上級: VPC エンドポイント

Bedrock の VPC エンドポイントを使用している場合:

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "production",
"endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
}
}
}
}

認証方法

  • AWS_ACCESS_KEY_ID / AWS_SECRET_ACCESS_KEY: IAM ユーザーを作成し、AWS コンソールでアクセス キーを生成します。
  • AWS_PROFILE: ~/.aws/credentials の名前付きプロファイルを使用します。最初に aws configure --profile my-profile または aws sso login を設定します
  • AWS_BEARER_TOKEN_BEDROCK: Amazon Bedrock コンソールから長期 API キーを生成します
  • AWS_WEB_IDENTITY_TOKEN_FILE / AWS_ROLE_ARN: EKS IRSA (サービス アカウントの IAM ロール) または OIDC フェデレーションを備えた他の Kubernetes 環境の場合。これらの環境変数は、サービス アカウント アノテーションを使用するときに Kubernetes によって自動的に挿入されます。

認証の優先順位

Amazon Bedrock は次の認証優先度を使用します。

  1. ベアラー トークン - AWS_BEARER_TOKEN_BEDROCK 環境変数または /connect コマンドからのトークン
  2. AWS 認証情報チェーン - プロファイル、アクセス キー、共有認証情報、IAM ロール、Web ID トークン (EKS IRSA)、インスタンス メタデータ
  1. /models コマンドを実行して、必要なモデルを選択します。

    /models

Anthropic

  1. サインアップしたら、/connect コマンドを実行し、[Anthropic] を選択します。

    /connect
  2. ここで Claude Pro/Max オプションを選択すると、ブラウザが開きます そして認証を求められます。

    ┌ Select auth method
    │ Claude Pro/Max
    │ Create an API Key
    │ Manually enter API Key
  3. これで、/models コマンドを使用すると、すべての人智モデルが利用できるようになります。

    /models

OpenCode での Claude Pro/Max サブスクリプションの使用は、Anthropic.

APIキーの使用

Pro/Max サブスクリプションをお持ちでない場合は、[API キーの作成] を選択することもできます。また、ブラウザが開き、Anthropic にログインするよう求められ、terminal に貼り付けるコードが表示されます。

または、すでに API キーをお持ちの場合は、[API キーを手動で入力] を選択してterminal に貼り付けることができます。


Azure OpenAI

  1. Azure portal に移動し、Azure OpenAI リソースを作成します。必要なものは次のとおりです。

    • リソース名: これは API エンドポイント (https://RESOURCE_NAME.openai.azure.com/) の一部になります。
    • API キー: リソースの KEY 1 または KEY 2 のいずれか
  2. Azure AI Foundry に移動し、モデルをデプロイします。

  1. /connect コマンドを実行し、Azure を検索します。

    /connect
  2. API キーを入力します。

    ┌ API key
    └ enter
  3. リソース名を環境変数として設定します。

    Terminal window
    AZURE_RESOURCE_NAME=XXX opencode

または、bash プロファイルに追加します。

~/.bash_profile
export AZURE_RESOURCE_NAME=XXX
  1. /models コマンドを実行して、デプロイされたモデルを選択します。

    /models

Azure Cognitive Services

  1. Azure portal に移動し、Azure OpenAI リソースを作成します。必要なものは次のとおりです。

    • リソース名: これは API エンドポイント (https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/) の一部になります。
    • API キー: リソースの KEY 1 または KEY 2 のいずれか
  2. Azure AI Foundry に移動し、モデルをデプロイします。

  1. /connect コマンドを実行し、Azure Cognitive Services を検索します。

    /connect
  2. API キーを入力します。

    ┌ API key
    └ enter
  3. リソース名を環境変数として設定します。

    Terminal window
    AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode

または、bash プロファイルに追加します。

~/.bash_profile
export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
  1. /models コマンドを実行して、デプロイされたモデルを選択します。

    /models

Baseten

  1. Baseten に移動し、アカウントを作成し、API キーを生成します。

  2. /connect コマンドを実行し、Baseten を検索します。

    /connect
  3. Baseten API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行してモデルを選択します。

    /models

Cerebras

  1. Cerebras console に移動し、アカウントを作成し、API キーを生成します。

  2. /connect コマンドを実行し、Cerebras を検索します。

    /connect
  3. Cerebras API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行して、Qwen 3 Coder 480B のようなモデルを選択します。

    /models

Cloudflare AI Gateway

Cloudflare AI Gatewayを使用すると、統合エンドポイントを通じてOpenAI、Anthropic、Workers AIなどのモデルにアクセスできます。 Unified Billing を使用すると、プロバイダーごとに個別の API キーは必要ありません。

  1. Cloudflare ダッシュボード に移動し、AI > AI ゲートウェイ に移動し、新しいゲートウェイを作成します。

  2. アカウント ID とゲートウェイ ID を環境変数として設定します。

    ~/.bash_profile
    export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id
    export CLOUDFLARE_GATEWAY_ID=your-gateway-id
  3. /connect コマンドを実行し、Cloudflare AI Gateway を検索します。

    /connect
  4. Cloudflare API トークンを入力します。

    ┌ API key
    └ enter

または環境変数として設定します。

~/.bash_profile
export CLOUDFLARE_API_TOKEN=your-api-token
  1. /models コマンドを実行してモデルを選択します。

    /models

opencode構成を通じてモデルを追加することもできます。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"cloudflare-ai-gateway": {
"models": {
"openai/gpt-4o": {},
"anthropic/claude-sonnet-4": {}
}
}
}
}

Cortecs

  1. Cortecs console に移動し、アカウントを作成し、API キーを生成します。

  2. /connect コマンドを実行し、Cortecs を検索します。

    /connect
  3. Cortecs API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行して、Kimi K2 Instruct のようなモデルを選択します。

    /models

DeepSeek

  1. DeepSeek コンソール に移動し、アカウントを作成し、新しい API キーの作成 をクリックします。

  2. /connect コマンドを実行し、DeepSeek を検索します。

    /connect
  3. DeepSeek API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行して、DeepSeek Reasoner のような DeepSeek モデルを選択します。

    /models

Deep Infra

  1. Deep Infra ダッシュボード に移動し、アカウントを作成し、API キーを生成します。

  2. /connect コマンドを実行し、Deep Infra を検索します。

    /connect
  3. Deep Infra API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行してモデルを選択します。

    /models

Firmware

  1. ファームウェア ダッシュボード に移動し、アカウントを作成し、API キーを生成します。

  2. /connect コマンドを実行し、ファームウェアを検索します。

    /connect
  3. ファームウェア API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行してモデルを選択します。

    /models

Fireworks AI

  1. Fireworks AI コンソール に移動し、アカウントを作成し、API キーの作成 をクリックします。

  2. /connect コマンドを実行し、Fireworks AI を検索します。

    /connect
  3. Fireworks AI API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行して、Kimi K2 Instruct のようなモデルを選択します。

    /models

GitLab Duo

GitLab Duo は、GitLab の Anthropic プロキシを介したネイティブ ツール呼び出し機能を備えた AI を活用したエージェント チャットを提供します。

  1. /connect コマンドを実行し、GitLab を選択します。

    /connect
  2. 認証方法を選択してください:

    ┌ Select auth method
    │ OAuth (Recommended)
    │ Personal Access Token

    OAuthの使用(推奨)

OAuth を選択すると、認証のためにブラウザが開きます。

パーソナルアクセストークンの使用

  1. GitLab ユーザー設定 > アクセス Tokens に移動します。

  2. 新しいトークンを追加 をクリックします

  3. 名前: OpenCode、スコープ: api

  4. トークンをコピーします(glpat-で始まる)

  5. terminal に入力してください

  6. /models コマンドを実行して、利用可能なモデルを確認します。

    /models
3 つのクロードベースのモデルが利用可能です。
- **duo-chat-haiku-4-5** (デフォルト) - 素早いタスクに対する素早い応答
- **duo-chat-sonnet-4-5** - ほとんどのワークフローでバランスの取れたパフォーマンス
- **duo-chat-opus-4-5** - 複雑な分析に最も適した能力
:::note
必要がない場合は、「GITLAB_TOKEN」環境変数を指定することもできます。
トークンをopencode認証ストレージに保存します。
:::
##### 自己ホスト型 GitLab
:::note[コンプライアンスメモ]
OpenCode は、セッション タイトルの生成などの一部の AI タスクに小規模なモデルを使用します。
デフォルトでは、Zen によってホストされる gpt-5-nano を使用するように構成されています。 OpenCodeをロックするには
自分の GitLab でホストされているインスタンスのみを使用するには、次の行を
`opencode.json` ファイル。セッション共有を無効にすることもお勧めします。
```json
{
"$schema": "https://opencode.ai/config.json",
"small_model": "gitlab/duo-chat-haiku-4-5",
"share": "disabled"
}

:::

セルフホスト型 GitLab インスタンスの場合:

Terminal window
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_TOKEN=glpat-...

インスタンスがカスタム AI ゲートウェイを実行している場合:

Terminal window
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com

または、bash プロファイルに追加します。

~/.bash_profile
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_TOKEN=glpat-...
セルフホスト型インスタンスの OAuth

自己ホスト型インスタンスで Oauth を機能させるには、以下を作成する必要があります。 新しいアプリケーション ([設定] → [アプリケーション]) で、 コールバック URL http://127.0.0.1:8080/callback と次のスコープ:

  • api (あなたの代わりに API にアクセスします)
  • read_user (個人情報の読み取り)
  • read_repository (リポジトリへの読み取り専用アクセスを許可します)

次に、アプリケーション ID を環境変数として公開します。

Terminal window
export GITLAB_OAUTH_CLIENT_ID=your_application_id_here

詳細については、opencode-gitlab-auth ホームページ。

構成

opencode.json を通じてカスタマイズします。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab": {
"options": {
"instanceUrl": "https://gitlab.com",
"featureFlags": {
"duo_agent_platform_agentic_chat": true,
"duo_agent_platform": true
}
}
}
}
}
GitLab API ツール (オプションですが強く推奨)

GitLab ツール (マージ リクエスト、問題、パイプライン、CI/CD など) にアクセスするには:

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"plugin": ["@gitlab/opencode-gitlab-plugin"]
}

このプラグインは、MR レビュー、問題追跡、パイプライン監視などを含む、包括的な GitLab リポジトリ管理機能を提供します。


GitHub Copilot

GitHub Copilot サブスクリプションをopencodeで使用するには:

  1. /connect コマンドを実行し、GitHub Copilot を検索します。

    /connect
  2. github.com/login/device に移動し、コードを入力します。

    ┌ Login with GitHub Copilot
    │ https://github.com/login/device
    │ Enter code: 8F43-6FCF
    └ Waiting for authorization...
  3. 次に、/models コマンドを実行して、必要なモデルを選択します。

    /models

Google Vertex AI

OpenCode で Google Vertex AI を使用するには:

  1. Google Cloud Console の Model Garden に移動し、 お住まいの地域で利用可能なモデル。
  1. 必要な環境変数を設定します。
    • GOOGLE_CLOUD_PROJECT: Google Cloud プロジェクト ID
    • VERTEX_LOCATION (オプション): Vertex AI の領域 (デフォルトは global)
    • 認証 (1 つ選択):
      • GOOGLE_APPLICATION_CREDENTIALS: サービス アカウントの JSON キー ファイルへのパス
      • gcloud CLI を使用して認証する: gcloud auth application-default login

opencode の実行中に設定します。

Terminal window
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode

または、それらを bash プロファイルに追加します。

~/.bash_profile
export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json
export GOOGLE_CLOUD_PROJECT=your-project-id
export VERTEX_LOCATION=global
  1. /models コマンドを実行して、必要なモデルを選択します。

    /models

Groq

  1. Groq console に移動し、[API キーの作成] をクリックして、キーをコピーします。

  2. /connect コマンドを実行し、Groq を検索します。

    /connect
  3. プロバイダーの API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行して、必要なものを選択します。

    /models

Hugging Face

ハグ顔推論プロバイダー は、17 を超えるプロバイダーがサポートするオープン モデルへのアクセスを提供します。

  1. Hugging Face settings に移動して、推論プロバイダーを呼び出す権限を持つトークンを作成します。

  2. /connect コマンドを実行し、Hugging Face を検索します。

    /connect
  3. ハグフェイストークンを入力してください。

    ┌ API key
    └ enter
  4. /models コマンドを実行して、Kimi-K2-InstructGLM-4.6 などのモデルを選択します。

    /models

Helicone

Helicone は、AI アプリケーションのロギング、監視、分析を提供する LLM 可観測性プラットフォームです。 Helicone AI ゲートウェイは、モデルに基づいてリクエストを適切なプロバイダーに自動的にルーティングします。

  1. Helicone に移動し、アカウントを作成し、ダッシュボードから API キーを生成します。

  2. /connect コマンドを実行し、Helicone を検索します。

    /connect
  3. Helicone API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行してモデルを選択します。

    /models

その他のプロバイダーや、キャッシュやレート制限などの高度な機能については、Helicone ドキュメント .

オプションの構成

opencodeを通じて自動的に構成されていない Helicone の機能またはモデルを見つけた場合は、いつでも自分で構成できます。

これは Helicone のモデル ディレクトリ です。追加するモデルの ID を取得するためにこれが必要になります。

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
},
"models": {
"gpt-4o": {
// Model ID (from Helicone's model directory page)
"name": "GPT-4o", // Your own custom name for the model
},
"claude-sonnet-4-20250514": {
"name": "Claude Sonnet 4",
},
},
},
},
}

カスタムヘッダー

Helicone は、キャッシュ、ユーザー追跡、セッション管理などの機能のカスタム ヘッダーをサポートしています。 options.headers を使用してプロバイダー構成に追加します。

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "opencode",
},
},
},
},
}
セッション追跡

Helicone の Sessions 機能を使用すると、関連する LLM リクエストをグループ化できます。 opencode-helicone-session プラグインを使用して、各 OpenCode 会話を Helicone のセッションとして自動的に記録します。

Terminal window
npm install -g opencode-helicone-session

それを構成に追加します。

opencode.json
{
"plugin": ["opencode-helicone-session"]
}

プラグインは、リクエストに Helicone-Session-Id ヘッダーと Helicone-Session-Name ヘッダーを挿入します。 Helicone のセッション ページでは、OpenCode の各会話が個別のセッションとしてリストされています。

一般的なヘリコーンヘッダー
ヘッダー説明
Helicone-Cache-Enabled応答キャッシュを有効にする (true/false)
Helicone-User-Idユーザーごとにメトリクスを追跡する
Helicone-Property-[Name]カスタム プロパティを追加します (例: Helicone-Property-Environment)。
Helicone-Prompt-Idリクエストをプロンプト バージョンに関連付ける

利用可能なすべてのヘッダーについては、Helicone Header Directory を参照してください。


llama.cpp

llama.cpp の s llama-server ユーティリティ] を通じて、ローカル モデルを使用するようにopencodeを構成できます。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}

この例では:

  • llama.cpp はカスタムプロバイダー ID です。これには任意の文字列を指定できます。
  • npm は、このプロバイダーに使用するパッケージを指定します。ここで、@ai-sdk/openai-compatible は OpenAI 互換 API に使用されます。
  • name は、UI でのプロバイダーの表示名です。
  • options.baseURL はローカル サーバーのエンドポイントです。
  • models は、モデル ID とその構成のマップです。機種選択リストに機種名が表示されます。

IO.NET

IO.NET は、さまざまなユースケースに最適化された 17 のモデルを提供します。

  1. IO.NET console に移動し、アカウントを作成し、API キーを生成します。

  2. /connect コマンドを実行し、IO.NET を検索します。

    /connect
  3. IO.NET API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行してモデルを選択します。

    /models

LM Studio

LM Studio を通じてローカル モデルを使用するようにopencodeを構成できます。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}

この例では:

  • lmstudio はカスタムプロバイダー ID です。これには任意の文字列を指定できます。
  • npm は、このプロバイダーに使用するパッケージを指定します。ここで、@ai-sdk/openai-compatible は OpenAI 互換 API に使用されます。
  • name は、UI でのプロバイダーの表示名です。
  • options.baseURL はローカル サーバーのエンドポイントです。
  • models は、モデル ID とその構成のマップです。機種選択リストに機種名が表示されます。

Moonshot AI

Moonshot AI の Kim K2 を使用するには:

  1. Moonshot AI console に移動し、アカウントを作成し、[API キーの作成] をクリックします。

  2. /connect コマンドを実行し、Moonshot AI を検索します。

    /connect
  3. Moonshot API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行して、Kimi K2 を選択します。

    /models

MiniMax

  1. MiniMax API Console に移動し、アカウントを作成し、API キーを生成します。

  2. /connect コマンドを実行し、MiniMax を検索します。

    /connect
  3. MiniMax API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行して、M2.1 のようなモデルを選択します。

    /models

Nebius Token Factory

  1. Nebius Token Factory console に移動し、アカウントを作成し、[キーの追加] をクリックします。

  2. /connect コマンドを実行し、Nebius Token Factory を検索します。

    /connect
  3. Nebius Token Factory API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行して、Kimi K2 Instruct のようなモデルを選択します。

    /models

オラマ

Ollama を通じてローカル モデルを使用するようにopencodeを構成できます。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}

この例では:

  • ollama はカスタムプロバイダー ID です。これには任意の文字列を指定できます。
  • npm は、このプロバイダーに使用するパッケージを指定します。ここで、@ai-sdk/openai-compatible は OpenAI 互換 API に使用されます。
  • name は、UI でのプロバイダーの表示名です。
  • options.baseURL はローカル サーバーのエンドポイントです。
  • models は、モデル ID とその構成のマップです。機種選択リストに機種名が表示されます。

Ollama Cloud

OpenCode で Ollama Cloud を使用するには:

  1. https://ollama.com/ にアクセスしてサインインするか、アカウントを作成します。

  2. [設定] > [キー**] に移動し、[API キーの追加] をクリックして新しい API キーを生成します。

  3. OpenCode で使用するために API キーをコピーします。

  4. /connect コマンドを実行し、Ollama Cloud を検索します。

    /connect
  5. Ollama Cloud API キーを入力します。

    ┌ API key
    └ enter
  6. 重要: OpenCode でクラウド モデルを使用する前に、モデル情報をローカルに取得する必要があります。

    Terminal window
    ollama pull gpt-oss:20b-cloud
  7. /models コマンドを実行して、Ollama Cloud モデルを選択します。

    /models

OpenAI

ChatGPT Plus または Pro にサインアップすることをお勧めします。

  1. サインアップしたら、/connect コマンドを実行し、OpenAI を選択します。

    /connect
  2. ここで ChatGPT Plus/Pro オプションを選択すると、ブラウザが開きます。 そして認証を求められます。

    ┌ Select auth method
    │ ChatGPT Plus/Pro
    │ Manually enter API Key
  3. これで、/models コマンドを使用すると、すべての OpenAI モデルが利用できるようになります。

    /models
APIキーの使用

すでに API キーをお持ちの場合は、API キーを手動で入力 を選択し、terminal に貼り付けることができます。


OpenCode Zen

OpenCode Zen は、OpenCode チームによって提供される、テストおよび検証されたモデルのリストです。 詳細はこちら

  1. OpenCode Zen にサインインし、API キーの作成 をクリックします。

  2. /connect コマンドを実行し、OpenCode Zen を検索します。

    /connect
  3. OpenCode API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行して、Qwen 3 Coder 480B のようなモデルを選択します。

    /models

OpenRouter

  1. OpenRouter ダッシュボード に移動し、[API キーの作成] をクリックして、キーをコピーします。

  2. /connect コマンドを実行し、OpenRouter を検索します。

    /connect
  3. プロバイダーの API キーを入力します。

    ┌ API key
    └ enter
  4. 多くの OpenRouter モデルはデフォルトでプリロードされており、/models コマンドを実行して必要なモデルを選択します。

    /models

opencode構成を通じて追加のモデルを追加することもできます。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openrouter": {
"models": {
"somecoolnewmodel": {}
}
}
}
}
  1. opencode設定を通じてカスタマイズすることもできます。プロバイダーを指定する例を次に示します。

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "moonshotai/kimi-k2": {
    "options": {
    "provider": {
    "order": ["baseten"],
    "allow_fallbacks": false
    }
    }
    }
    }
    }
    }
    }

SAP AI Core

SAP AI コアは、統合プラットフォームを通じて、OpenAI、Anthropic、Google、Amazon、Meta、Mistral、AI21 の 40 以上のモデルへのアクセスを提供します。

  1. SAP BTP Cockpit に移動し、SAP AI コア サービス インスタンスに移動して、サービス キーを作成します。
  1. /connect コマンドを実行し、SAP AI Core を検索します。

    /connect
  2. サービス キーの JSON を入力します。

    ┌ Service key
    └ enter

または、AICORE_SERVICE_KEY 環境変数を設定します。

Terminal window
AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode

または、bash プロファイルに追加します。

~/.bash_profile
export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
  1. 必要に応じて、デプロイメント ID とリソース グループを設定します。

    Terminal window
    AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
  1. /models コマンドを実行して、40 以上の利用可能なモデルから選択します。

    /models

OVHcloud AI Endpoints

  1. OVHcloud パネル に移動します。 Public Cloud セクション、AI & Machine Learning > AI Endpoints に移動し、API Keys タブで 新しい API キーの作成 をクリックします。

  2. /connect コマンドを実行し、OVHcloud AI エンドポイントを検索します。

    /connect
  3. OVHcloud AI エンドポイント API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行して、gpt-oss-120b のようなモデルを選択します。

    /models

Scaleway

Scaleway Generative APIs を Opencode で使用するには:

  1. Scaleway Console IAM settings に移動して、新しい API キーを生成します。

  2. /connect コマンドを実行し、Scaleway を検索します。

    /connect
  3. Scaleway API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行して、devstral-2-123b-instruct-2512gpt-oss-120b などのモデルを選択します。

    /models

Together AI

  1. Together AI console に移動し、アカウントを作成し、[キーの追加] をクリックします。

  2. /connect コマンドを実行し、Together AI を検索します。

    /connect
  3. Together AI API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行して、Kimi K2 Instruct のようなモデルを選択します。

    /models

Venice AI

  1. Venice AI console に移動し、アカウントを作成し、API キーを生成します。

  2. /connect コマンドを実行し、Venice AI を検索します。

    /connect
  3. Venice AI API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行して、Llama 3.3 70B のようなモデルを選択します。

    /models

Vercel AI Gateway

Vercel AI Gateway を使用すると、統合エンドポイントを通じて OpenAI、Anthropic、Google、xAI などのモデルにアクセスできます。モデルは値上げなしの定価で提供されます。

  1. Vercel ダッシュボード に移動し、AI ゲートウェイ タブに移動し、API キー をクリックして新しい API キーを作成します。

  2. /connect コマンドを実行し、Vercel AI Gateway を検索します。

    /connect
  3. Vercel AI Gateway API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行してモデルを選択します。

    /models

opencode構成を通じてモデルをカスタマイズすることもできます。プロバイダーのルーティング順序を指定する例を次に示します。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}

いくつかの便利なルーティング オプション:

オプション説明
order試行するプロバイダー シーケンス
only特定のプロバイダーに制限する
zeroDataRetentionデータ保持ポリシーがゼロのプロバイダーのみを使用する

xAI

  1. xAI console に移動し、アカウントを作成し、API キーを生成します。

  2. /connect コマンドを実行し、xAI を検索します。

    /connect
  3. xAI API キーを入力します。

    ┌ API key
    └ enter
  4. /models コマンドを実行して、Grok Beta のようなモデルを選択します。

    /models

Z.AI

  1. Z.AI API コンソール に移動し、アカウントを作成し、新しい API キーの作成 をクリックします。

  2. /connect コマンドを実行し、Z.AI を検索します。

    /connect

GLM コーディング プランに加入している場合は、Z.AI コーディング プランを選択します。

  1. Z.AI API キーを入力します。

    ┌ API key
    └ enter
  2. /models コマンドを実行して、GLM-4.7 のようなモデルを選択します。

    /models

ZenMux

  1. ZenMux ダッシュボード に移動し、[API キーの作成] をクリックして、キーをコピーします。

  2. /connect コマンドを実行し、ZenMux を検索します。

    /connect
  3. プロバイダーの API キーを入力します。

    ┌ API key
    └ enter
  4. 多くの ZenMux モデルはデフォルトでプリロードされており、/models コマンドを実行して必要なモデルを選択します。

    /models

opencode構成を通じて追加のモデルを追加することもできます。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"zenmux": {
"models": {
"somecoolnewmodel": {}
}
}
}
}

カスタムプロバイダー

/connect コマンドにリストされていない OpenAI 互換プロバイダーを追加するには:

  1. /connect コマンドを実行し、その他まで下にスクロールします。

    Terminal window
    $ /connect
    Add credential
    Select provider
    ...
    Other
  2. プロバイダーの一意の ID を入力します。

    Terminal window
    $ /connect
    Add credential
    Enter provider id
    myprovider
  1. プロバイダーの API キーを入力します。

    Terminal window
    $ /connect
    Add credential
    This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.
    Enter your API key
    sk-...
  2. プロジェクト ディレクトリで opencode.json ファイルを作成または更新します。

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "myprovider": {
    "npm": "@ai-sdk/openai-compatible",
    "name": "My AI ProviderDisplay Name",
    "options": {
    "baseURL": "https://api.myprovider.com/v1"
    },
    "models": {
    "my-model-name": {
    "name": "My Model Display Name"
    }
    }
    }
    }
    }

構成オプションは次のとおりです。

  • npm: 使用する AI SDK パッケージ、OpenAI 互換プロバイダーの場合は @ai-sdk/openai-compatible
  • name: UI での表示名。
  • モデル: 利用可能なモデル。
  • options.baseURL: API エンドポイント URL。
  • options.apiKey: 認証を使用しない場合は、オプションで API キーを設定します。
  • options.headers: 必要に応じてカスタム ヘッダーを設定します。

詳細オプションの詳細については、以下の例を参照してください。

  1. /models コマンドを実行すると、カスタム プロバイダーとモデルが選択リストに表示されます。

次に、apiKeyheaders、およびモデル limit オプションを設定する例を示します。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}

構成の詳細:

  • apiKey: env 変数構文を使用して設定します。詳細については .
  • headers: 各リクエストとともに送信されるカスタム ヘッダー。
  • limit.context: モデルが受け入れる最大Input Tokens。
  • limit.output: モデルが生成できる最大トークン。

limit フィールドを使用すると、OpenCode はコンテキストがどのくらい残っているかを理解できます。標準プロバイダーは、これらを models.dev から自動的に取得します。


トラブルシューティング

プロバイダーの構成で問題が発生した場合は、次の点を確認してください。

  1. 認証設定を確認します: opencode auth list を実行して、資格情報が正しいかどうかを確認します。 プロバイダー用のものが構成に追加されます。

これは、認証に環境変数に依存する Amazon Bedrock のようなプロバイダーには当てはまりません。

  1. カスタム プロバイダーの場合は、opencode 構成を確認し、次のことを行います。
    • /connect コマンドで使用されるプロバイダー ID が、opencode 構成内の ID と一致することを確認してください。
    • プロバイダーには適切な npm パッケージが使用されます。たとえば、Cerebras には @ai-sdk/cerebras を使用します。他のすべての OpenAI 互換プロバイダーの場合は、@ai-sdk/openai-compatible を使用します。
    • options.baseURL フィールドで正しい API エンドポイントが使用されていることを確認してください。