プロバイダー
OpenCode で LLM プロバイダーを使用する。
OpenCode は AI SDK および Models.dev を使用して 75 以上の LLM プロバイダー をサポートし、ローカル モデルの実行をサポートします。
プロバイダーを追加するには、次のことを行う必要があります。
/connectコマンドを使用して、プロバイダーの API キーを追加します。- OpenCode 構成でプロバイダーを構成します。
資格
/connect コマンドを使用してプロバイダーの API キーを追加すると、それらは保存されます
~/.local/share/opencode/auth.jsonで。
構成
OpenCode の provider セクションを通じてプロバイダーをカスタマイズできます。
config.
Base URL
baseURL オプションを設定することで、任意のプロバイダーのベース URL をカスタマイズできます。これは、プロキシ サービスまたはカスタム エンドポイントを使用する場合に便利です。
{ "$schema": "https://opencode.ai/config.json", "provider": { "anthropic": { "options": { "baseURL": "https://api.anthropic.com/v1" } } }}OpenCode Zen
OpenCode Zen は、OpenCode チームが提供するモデルのリストです。 OpenCode で適切に動作することがテストおよび検証されています。 詳細はこちら。
-
TUI で
/connectコマンドを実行し、opencode を選択して、opencode.ai/auth./connect -
サインインし、お支払いの詳細を追加し、API キーをコピーします。
-
API キーを貼り付けます。
┌ API key││└ enter -
TUI で
/modelsを実行すると、推奨されるモデルのリストが表示されます。/models
これは OpenCode の他のプロバイダーと同様に機能し、使用は完全にオプションです。
ディレクトリ
いくつかのプロバイダーを詳しく見てみましょう。プロバイダーを追加したい場合は、 リストにある場合は、お気軽に PR を開いてください。
302.AI
-
302.AI console に移動し、アカウントを作成し、API キーを生成します。
-
/connectコマンドを実行し、302.AI を検索します。/connect -
302.AI API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行してモデルを選択します。/models
Amazon Bedrock
OpenCode で Amazon Bedrock を使用するには:
- Amazon Bedrock コンソールの モデル カタログ に移動してリクエストします。 必要なモデルにアクセスします。
-
次のいずれかの方法を使用して認証を構成します。
環境変数 (クイック スタート)
opencode の実行中に次の環境変数のいずれかを設定します。
# Option 1: Using AWS access keys AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
# Option 2: Using named AWS profile AWS_PROFILE=my-profile opencode
# Option 3: Using Bedrock bearer token AWS_BEARER_TOKEN_BEDROCK=XXX opencodeまたは、それらを bash プロファイルに追加します。
export AWS_PROFILE=my-dev-profile export AWS_REGION=us-east-1設定ファイル (推奨)
プロジェクト固有の構成または永続的な構成の場合は、opencode.json を使用します。
{ "$schema": "https://opencode.ai/config.json", "provider": { "amazon-bedrock": { "options": { "region": "us-east-1", "profile": "my-aws-profile" } } }}利用可能なオプション:
region- AWS リージョン (例:us-east-1、eu-west-1)profile-~/.aws/credentialsからの AWS 名前付きプロファイルendpoint- VPC エンドポイントのカスタム エンドポイント URL (汎用baseURLオプションのエイリアス)
上級: VPC エンドポイント
Bedrock の VPC エンドポイントを使用している場合:
{ "$schema": "https://opencode.ai/config.json", "provider": { "amazon-bedrock": { "options": { "region": "us-east-1", "profile": "production", "endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com" } } }}認証方法
AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY: IAM ユーザーを作成し、AWS コンソールでアクセス キーを生成します。AWS_PROFILE:~/.aws/credentialsの名前付きプロファイルを使用します。最初にaws configure --profile my-profileまたはaws sso loginを設定しますAWS_BEARER_TOKEN_BEDROCK: Amazon Bedrock コンソールから長期 API キーを生成しますAWS_WEB_IDENTITY_TOKEN_FILE/AWS_ROLE_ARN: EKS IRSA (サービス アカウントの IAM ロール) または OIDC フェデレーションを備えた他の Kubernetes 環境の場合。これらの環境変数は、サービス アカウント アノテーションを使用するときに Kubernetes によって自動的に挿入されます。
認証の優先順位
Amazon Bedrock は次の認証優先度を使用します。
- ベアラー トークン -
AWS_BEARER_TOKEN_BEDROCK環境変数または/connectコマンドからのトークン - AWS 認証情報チェーン - プロファイル、アクセス キー、共有認証情報、IAM ロール、Web ID トークン (EKS IRSA)、インスタンス メタデータ
-
/modelsコマンドを実行して、必要なモデルを選択します。/models
Anthropic
-
サインアップしたら、
/connectコマンドを実行し、[Anthropic] を選択します。/connect -
ここで Claude Pro/Max オプションを選択すると、ブラウザが開きます そして認証を求められます。
┌ Select auth method││ Claude Pro/Max│ Create an API Key│ Manually enter API Key└ -
これで、
/modelsコマンドを使用すると、すべての人智モデルが利用できるようになります。/models
OpenCode での Claude Pro/Max サブスクリプションの使用は、Anthropic.
APIキーの使用
Pro/Max サブスクリプションをお持ちでない場合は、[API キーの作成] を選択することもできます。また、ブラウザが開き、Anthropic にログインするよう求められ、terminal に貼り付けるコードが表示されます。
または、すでに API キーをお持ちの場合は、[API キーを手動で入力] を選択してterminal に貼り付けることができます。
Azure OpenAI
-
Azure portal に移動し、Azure OpenAI リソースを作成します。必要なものは次のとおりです。
- リソース名: これは API エンドポイント (
https://RESOURCE_NAME.openai.azure.com/) の一部になります。 - API キー: リソースの
KEY 1またはKEY 2のいずれか
- リソース名: これは API エンドポイント (
-
Azure AI Foundry に移動し、モデルをデプロイします。
-
/connectコマンドを実行し、Azure を検索します。/connect -
API キーを入力します。
┌ API key││└ enter -
リソース名を環境変数として設定します。
Terminal window AZURE_RESOURCE_NAME=XXX opencode
または、bash プロファイルに追加します。
export AZURE_RESOURCE_NAME=XXX-
/modelsコマンドを実行して、デプロイされたモデルを選択します。/models
Azure Cognitive Services
-
Azure portal に移動し、Azure OpenAI リソースを作成します。必要なものは次のとおりです。
- リソース名: これは API エンドポイント (
https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/) の一部になります。 - API キー: リソースの
KEY 1またはKEY 2のいずれか
- リソース名: これは API エンドポイント (
-
Azure AI Foundry に移動し、モデルをデプロイします。
-
/connectコマンドを実行し、Azure Cognitive Services を検索します。/connect -
API キーを入力します。
┌ API key││└ enter -
リソース名を環境変数として設定します。
Terminal window AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode
または、bash プロファイルに追加します。
export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX-
/modelsコマンドを実行して、デプロイされたモデルを選択します。/models
Baseten
-
Baseten に移動し、アカウントを作成し、API キーを生成します。
-
/connectコマンドを実行し、Baseten を検索します。/connect -
Baseten API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行してモデルを選択します。/models
Cerebras
-
Cerebras console に移動し、アカウントを作成し、API キーを生成します。
-
/connectコマンドを実行し、Cerebras を検索します。/connect -
Cerebras API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行して、Qwen 3 Coder 480B のようなモデルを選択します。/models
Cloudflare AI Gateway
Cloudflare AI Gatewayを使用すると、統合エンドポイントを通じてOpenAI、Anthropic、Workers AIなどのモデルにアクセスできます。 Unified Billing を使用すると、プロバイダーごとに個別の API キーは必要ありません。
-
Cloudflare ダッシュボード に移動し、AI > AI ゲートウェイ に移動し、新しいゲートウェイを作成します。
-
アカウント ID とゲートウェイ ID を環境変数として設定します。
~/.bash_profile export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-idexport CLOUDFLARE_GATEWAY_ID=your-gateway-id -
/connectコマンドを実行し、Cloudflare AI Gateway を検索します。/connect -
Cloudflare API トークンを入力します。
┌ API key││└ enter
または環境変数として設定します。
export CLOUDFLARE_API_TOKEN=your-api-token-
/modelsコマンドを実行してモデルを選択します。/models
opencode構成を通じてモデルを追加することもできます。
{ "$schema": "https://opencode.ai/config.json", "provider": { "cloudflare-ai-gateway": { "models": { "openai/gpt-4o": {}, "anthropic/claude-sonnet-4": {} } } }}Cortecs
-
Cortecs console に移動し、アカウントを作成し、API キーを生成します。
-
/connectコマンドを実行し、Cortecs を検索します。/connect -
Cortecs API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行して、Kimi K2 Instruct のようなモデルを選択します。/models
DeepSeek
-
DeepSeek コンソール に移動し、アカウントを作成し、新しい API キーの作成 をクリックします。
-
/connectコマンドを実行し、DeepSeek を検索します。/connect -
DeepSeek API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行して、DeepSeek Reasoner のような DeepSeek モデルを選択します。/models
Deep Infra
-
Deep Infra ダッシュボード に移動し、アカウントを作成し、API キーを生成します。
-
/connectコマンドを実行し、Deep Infra を検索します。/connect -
Deep Infra API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行してモデルを選択します。/models
Firmware
-
ファームウェア ダッシュボード に移動し、アカウントを作成し、API キーを生成します。
-
/connectコマンドを実行し、ファームウェアを検索します。/connect -
ファームウェア API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行してモデルを選択します。/models
Fireworks AI
-
Fireworks AI コンソール に移動し、アカウントを作成し、API キーの作成 をクリックします。
-
/connectコマンドを実行し、Fireworks AI を検索します。/connect -
Fireworks AI API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行して、Kimi K2 Instruct のようなモデルを選択します。/models
GitLab Duo
GitLab Duo は、GitLab の Anthropic プロキシを介したネイティブ ツール呼び出し機能を備えた AI を活用したエージェント チャットを提供します。
-
/connectコマンドを実行し、GitLab を選択します。/connect -
認証方法を選択してください:
┌ Select auth method││ OAuth (Recommended)│ Personal Access Token└OAuthの使用(推奨)
OAuth を選択すると、認証のためにブラウザが開きます。
パーソナルアクセストークンの使用
-
GitLab ユーザー設定 > アクセス Tokens に移動します。
-
新しいトークンを追加 をクリックします
-
名前:
OpenCode、スコープ:api -
トークンをコピーします(
glpat-で始まる) -
terminal に入力してください
-
/modelsコマンドを実行して、利用可能なモデルを確認します。/models
3 つのクロードベースのモデルが利用可能です。
- **duo-chat-haiku-4-5** (デフォルト) - 素早いタスクに対する素早い応答- **duo-chat-sonnet-4-5** - ほとんどのワークフローでバランスの取れたパフォーマンス- **duo-chat-opus-4-5** - 複雑な分析に最も適した能力
:::note必要がない場合は、「GITLAB_TOKEN」環境変数を指定することもできます。トークンをopencode認証ストレージに保存します。:::
##### 自己ホスト型 GitLab
:::note[コンプライアンスメモ]OpenCode は、セッション タイトルの生成などの一部の AI タスクに小規模なモデルを使用します。デフォルトでは、Zen によってホストされる gpt-5-nano を使用するように構成されています。 OpenCodeをロックするには自分の GitLab でホストされているインスタンスのみを使用するには、次の行を`opencode.json` ファイル。セッション共有を無効にすることもお勧めします。
```json{"$schema": "https://opencode.ai/config.json","small_model": "gitlab/duo-chat-haiku-4-5","share": "disabled"}:::
セルフホスト型 GitLab インスタンスの場合:
export GITLAB_INSTANCE_URL=https://gitlab.company.comexport GITLAB_TOKEN=glpat-...インスタンスがカスタム AI ゲートウェイを実行している場合:
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comまたは、bash プロファイルに追加します。
export GITLAB_INSTANCE_URL=https://gitlab.company.comexport GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comexport GITLAB_TOKEN=glpat-...セルフホスト型インスタンスの OAuth
自己ホスト型インスタンスで Oauth を機能させるには、以下を作成する必要があります。
新しいアプリケーション ([設定] → [アプリケーション]) で、
コールバック URL http://127.0.0.1:8080/callback と次のスコープ:
- api (あなたの代わりに API にアクセスします)
- read_user (個人情報の読み取り)
- read_repository (リポジトリへの読み取り専用アクセスを許可します)
次に、アプリケーション ID を環境変数として公開します。
export GITLAB_OAUTH_CLIENT_ID=your_application_id_here詳細については、opencode-gitlab-auth ホームページ。
構成
opencode.json を通じてカスタマイズします。
{ "$schema": "https://opencode.ai/config.json", "provider": { "gitlab": { "options": { "instanceUrl": "https://gitlab.com", "featureFlags": { "duo_agent_platform_agentic_chat": true, "duo_agent_platform": true } } } }}GitLab API ツール (オプションですが強く推奨)
GitLab ツール (マージ リクエスト、問題、パイプライン、CI/CD など) にアクセスするには:
{ "$schema": "https://opencode.ai/config.json", "plugin": ["@gitlab/opencode-gitlab-plugin"]}このプラグインは、MR レビュー、問題追跡、パイプライン監視などを含む、包括的な GitLab リポジトリ管理機能を提供します。
GitHub Copilot
GitHub Copilot サブスクリプションをopencodeで使用するには:
-
/connectコマンドを実行し、GitHub Copilot を検索します。/connect -
github.com/login/device に移動し、コードを入力します。
┌ Login with GitHub Copilot││ https://github.com/login/device││ Enter code: 8F43-6FCF│└ Waiting for authorization... -
次に、
/modelsコマンドを実行して、必要なモデルを選択します。/models
Google Vertex AI
OpenCode で Google Vertex AI を使用するには:
- Google Cloud Console の Model Garden に移動し、 お住まいの地域で利用可能なモデル。
- 必要な環境変数を設定します。
GOOGLE_CLOUD_PROJECT: Google Cloud プロジェクト IDVERTEX_LOCATION(オプション): Vertex AI の領域 (デフォルトはglobal)- 認証 (1 つ選択):
GOOGLE_APPLICATION_CREDENTIALS: サービス アカウントの JSON キー ファイルへのパス- gcloud CLI を使用して認証する:
gcloud auth application-default login
opencode の実行中に設定します。
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencodeまたは、それらを bash プロファイルに追加します。
export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json export GOOGLE_CLOUD_PROJECT=your-project-id export VERTEX_LOCATION=global-
/modelsコマンドを実行して、必要なモデルを選択します。/models
Groq
-
Groq console に移動し、[API キーの作成] をクリックして、キーをコピーします。
-
/connectコマンドを実行し、Groq を検索します。/connect -
プロバイダーの API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行して、必要なものを選択します。/models
Hugging Face
ハグ顔推論プロバイダー は、17 を超えるプロバイダーがサポートするオープン モデルへのアクセスを提供します。
-
Hugging Face settings に移動して、推論プロバイダーを呼び出す権限を持つトークンを作成します。
-
/connectコマンドを実行し、Hugging Face を検索します。/connect -
ハグフェイストークンを入力してください。
┌ API key││└ enter -
/modelsコマンドを実行して、Kimi-K2-Instruct や GLM-4.6 などのモデルを選択します。/models
Helicone
Helicone は、AI アプリケーションのロギング、監視、分析を提供する LLM 可観測性プラットフォームです。 Helicone AI ゲートウェイは、モデルに基づいてリクエストを適切なプロバイダーに自動的にルーティングします。
-
Helicone に移動し、アカウントを作成し、ダッシュボードから API キーを生成します。
-
/connectコマンドを実行し、Helicone を検索します。/connect -
Helicone API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行してモデルを選択します。/models
その他のプロバイダーや、キャッシュやレート制限などの高度な機能については、Helicone ドキュメント .
オプションの構成
opencodeを通じて自動的に構成されていない Helicone の機能またはモデルを見つけた場合は、いつでも自分で構成できます。
これは Helicone のモデル ディレクトリ です。追加するモデルの ID を取得するためにこれが必要になります。
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", }, "models": { "gpt-4o": { // Model ID (from Helicone's model directory page) "name": "GPT-4o", // Your own custom name for the model }, "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", }, }, }, },}カスタムヘッダー
Helicone は、キャッシュ、ユーザー追跡、セッション管理などの機能のカスタム ヘッダーをサポートしています。 options.headers を使用してプロバイダー構成に追加します。
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", "headers": { "Helicone-Cache-Enabled": "true", "Helicone-User-Id": "opencode", }, }, }, },}セッション追跡
Helicone の Sessions 機能を使用すると、関連する LLM リクエストをグループ化できます。 opencode-helicone-session プラグインを使用して、各 OpenCode 会話を Helicone のセッションとして自動的に記録します。
npm install -g opencode-helicone-sessionそれを構成に追加します。
{ "plugin": ["opencode-helicone-session"]}プラグインは、リクエストに Helicone-Session-Id ヘッダーと Helicone-Session-Name ヘッダーを挿入します。 Helicone のセッション ページでは、OpenCode の各会話が個別のセッションとしてリストされています。
一般的なヘリコーンヘッダー
| ヘッダー | 説明 |
|---|---|
Helicone-Cache-Enabled | 応答キャッシュを有効にする (true/false) |
Helicone-User-Id | ユーザーごとにメトリクスを追跡する |
Helicone-Property-[Name] | カスタム プロパティを追加します (例: Helicone-Property-Environment)。 |
Helicone-Prompt-Id | リクエストをプロンプト バージョンに関連付ける |
利用可能なすべてのヘッダーについては、Helicone Header Directory を参照してください。
llama.cpp
llama.cpp の s llama-server ユーティリティ] を通じて、ローカル モデルを使用するようにopencodeを構成できます。
{ "$schema": "https://opencode.ai/config.json", "provider": { "llama.cpp": { "npm": "@ai-sdk/openai-compatible", "name": "llama-server (local)", "options": { "baseURL": "http://127.0.0.1:8080/v1" }, "models": { "qwen3-coder:a3b": { "name": "Qwen3-Coder: a3b-30b (local)", "limit": { "context": 128000, "output": 65536 } } } } }}この例では:
llama.cppはカスタムプロバイダー ID です。これには任意の文字列を指定できます。npmは、このプロバイダーに使用するパッケージを指定します。ここで、@ai-sdk/openai-compatibleは OpenAI 互換 API に使用されます。nameは、UI でのプロバイダーの表示名です。options.baseURLはローカル サーバーのエンドポイントです。modelsは、モデル ID とその構成のマップです。機種選択リストに機種名が表示されます。
IO.NET
IO.NET は、さまざまなユースケースに最適化された 17 のモデルを提供します。
-
IO.NET console に移動し、アカウントを作成し、API キーを生成します。
-
/connectコマンドを実行し、IO.NET を検索します。/connect -
IO.NET API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行してモデルを選択します。/models
LM Studio
LM Studio を通じてローカル モデルを使用するようにopencodeを構成できます。
{ "$schema": "https://opencode.ai/config.json", "provider": { "lmstudio": { "npm": "@ai-sdk/openai-compatible", "name": "LM Studio (local)", "options": { "baseURL": "http://127.0.0.1:1234/v1" }, "models": { "google/gemma-3n-e4b": { "name": "Gemma 3n-e4b (local)" } } } }}この例では:
lmstudioはカスタムプロバイダー ID です。これには任意の文字列を指定できます。npmは、このプロバイダーに使用するパッケージを指定します。ここで、@ai-sdk/openai-compatibleは OpenAI 互換 API に使用されます。nameは、UI でのプロバイダーの表示名です。options.baseURLはローカル サーバーのエンドポイントです。modelsは、モデル ID とその構成のマップです。機種選択リストに機種名が表示されます。
Moonshot AI
Moonshot AI の Kim K2 を使用するには:
-
Moonshot AI console に移動し、アカウントを作成し、[API キーの作成] をクリックします。
-
/connectコマンドを実行し、Moonshot AI を検索します。/connect -
Moonshot API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行して、Kimi K2 を選択します。/models
MiniMax
-
MiniMax API Console に移動し、アカウントを作成し、API キーを生成します。
-
/connectコマンドを実行し、MiniMax を検索します。/connect -
MiniMax API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行して、M2.1 のようなモデルを選択します。/models
Nebius Token Factory
-
Nebius Token Factory console に移動し、アカウントを作成し、[キーの追加] をクリックします。
-
/connectコマンドを実行し、Nebius Token Factory を検索します。/connect -
Nebius Token Factory API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行して、Kimi K2 Instruct のようなモデルを選択します。/models
オラマ
Ollama を通じてローカル モデルを使用するようにopencodeを構成できます。
{ "$schema": "https://opencode.ai/config.json", "provider": { "ollama": { "npm": "@ai-sdk/openai-compatible", "name": "Ollama (local)", "options": { "baseURL": "http://localhost:11434/v1" }, "models": { "llama2": { "name": "Llama 2" } } } }}この例では:
ollamaはカスタムプロバイダー ID です。これには任意の文字列を指定できます。npmは、このプロバイダーに使用するパッケージを指定します。ここで、@ai-sdk/openai-compatibleは OpenAI 互換 API に使用されます。nameは、UI でのプロバイダーの表示名です。options.baseURLはローカル サーバーのエンドポイントです。modelsは、モデル ID とその構成のマップです。機種選択リストに機種名が表示されます。
Ollama Cloud
OpenCode で Ollama Cloud を使用するには:
-
https://ollama.com/ にアクセスしてサインインするか、アカウントを作成します。
-
[設定] > [キー**] に移動し、[API キーの追加] をクリックして新しい API キーを生成します。
-
OpenCode で使用するために API キーをコピーします。
-
/connectコマンドを実行し、Ollama Cloud を検索します。/connect -
Ollama Cloud API キーを入力します。
┌ API key││└ enter -
重要: OpenCode でクラウド モデルを使用する前に、モデル情報をローカルに取得する必要があります。
Terminal window ollama pull gpt-oss:20b-cloud -
/modelsコマンドを実行して、Ollama Cloud モデルを選択します。/models
OpenAI
ChatGPT Plus または Pro にサインアップすることをお勧めします。
-
サインアップしたら、
/connectコマンドを実行し、OpenAI を選択します。/connect -
ここで ChatGPT Plus/Pro オプションを選択すると、ブラウザが開きます。 そして認証を求められます。
┌ Select auth method││ ChatGPT Plus/Pro│ Manually enter API Key└ -
これで、
/modelsコマンドを使用すると、すべての OpenAI モデルが利用できるようになります。/models
APIキーの使用
すでに API キーをお持ちの場合は、API キーを手動で入力 を選択し、terminal に貼り付けることができます。
OpenCode Zen
OpenCode Zen は、OpenCode チームによって提供される、テストおよび検証されたモデルのリストです。 詳細はこちら。
-
OpenCode Zen にサインインし、API キーの作成 をクリックします。
-
/connectコマンドを実行し、OpenCode Zen を検索します。/connect -
OpenCode API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行して、Qwen 3 Coder 480B のようなモデルを選択します。/models
OpenRouter
-
OpenRouter ダッシュボード に移動し、[API キーの作成] をクリックして、キーをコピーします。
-
/connectコマンドを実行し、OpenRouter を検索します。/connect -
プロバイダーの API キーを入力します。
┌ API key││└ enter -
多くの OpenRouter モデルはデフォルトでプリロードされており、
/modelsコマンドを実行して必要なモデルを選択します。/models
opencode構成を通じて追加のモデルを追加することもできます。
{ "$schema": "https://opencode.ai/config.json", "provider": { "openrouter": { "models": { "somecoolnewmodel": {} } } }}-
opencode設定を通じてカスタマイズすることもできます。プロバイダーを指定する例を次に示します。
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"moonshotai/kimi-k2": {"options": {"provider": {"order": ["baseten"],"allow_fallbacks": false}}}}}}}
SAP AI Core
SAP AI コアは、統合プラットフォームを通じて、OpenAI、Anthropic、Google、Amazon、Meta、Mistral、AI21 の 40 以上のモデルへのアクセスを提供します。
- SAP BTP Cockpit に移動し、SAP AI コア サービス インスタンスに移動して、サービス キーを作成します。
-
/connectコマンドを実行し、SAP AI Core を検索します。/connect -
サービス キーの JSON を入力します。
┌ Service key││└ enter
または、AICORE_SERVICE_KEY 環境変数を設定します。
AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencodeまたは、bash プロファイルに追加します。
export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'-
必要に応じて、デプロイメント ID とリソース グループを設定します。
Terminal window AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
-
/modelsコマンドを実行して、40 以上の利用可能なモデルから選択します。/models
OVHcloud AI Endpoints
-
OVHcloud パネル に移動します。
Public Cloudセクション、AI & Machine Learning>AI Endpointsに移動し、API Keysタブで 新しい API キーの作成 をクリックします。 -
/connectコマンドを実行し、OVHcloud AI エンドポイントを検索します。/connect -
OVHcloud AI エンドポイント API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行して、gpt-oss-120b のようなモデルを選択します。/models
Scaleway
Scaleway Generative APIs を Opencode で使用するには:
-
Scaleway Console IAM settings に移動して、新しい API キーを生成します。
-
/connectコマンドを実行し、Scaleway を検索します。/connect -
Scaleway API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行して、devstral-2-123b-instruct-2512 や gpt-oss-120b などのモデルを選択します。/models
Together AI
-
Together AI console に移動し、アカウントを作成し、[キーの追加] をクリックします。
-
/connectコマンドを実行し、Together AI を検索します。/connect -
Together AI API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行して、Kimi K2 Instruct のようなモデルを選択します。/models
Venice AI
-
Venice AI console に移動し、アカウントを作成し、API キーを生成します。
-
/connectコマンドを実行し、Venice AI を検索します。/connect -
Venice AI API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行して、Llama 3.3 70B のようなモデルを選択します。/models
Vercel AI Gateway
Vercel AI Gateway を使用すると、統合エンドポイントを通じて OpenAI、Anthropic、Google、xAI などのモデルにアクセスできます。モデルは値上げなしの定価で提供されます。
-
Vercel ダッシュボード に移動し、AI ゲートウェイ タブに移動し、API キー をクリックして新しい API キーを作成します。
-
/connectコマンドを実行し、Vercel AI Gateway を検索します。/connect -
Vercel AI Gateway API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行してモデルを選択します。/models
opencode構成を通じてモデルをカスタマイズすることもできます。プロバイダーのルーティング順序を指定する例を次に示します。
{ "$schema": "https://opencode.ai/config.json", "provider": { "vercel": { "models": { "anthropic/claude-sonnet-4": { "options": { "order": ["anthropic", "vertex"] } } } } }}いくつかの便利なルーティング オプション:
| オプション | 説明 |
|---|---|
order | 試行するプロバイダー シーケンス |
only | 特定のプロバイダーに制限する |
zeroDataRetention | データ保持ポリシーがゼロのプロバイダーのみを使用する |
xAI
-
xAI console に移動し、アカウントを作成し、API キーを生成します。
-
/connectコマンドを実行し、xAI を検索します。/connect -
xAI API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行して、Grok Beta のようなモデルを選択します。/models
Z.AI
-
Z.AI API コンソール に移動し、アカウントを作成し、新しい API キーの作成 をクリックします。
-
/connectコマンドを実行し、Z.AI を検索します。/connect
GLM コーディング プランに加入している場合は、Z.AI コーディング プランを選択します。
-
Z.AI API キーを入力します。
┌ API key││└ enter -
/modelsコマンドを実行して、GLM-4.7 のようなモデルを選択します。/models
ZenMux
-
ZenMux ダッシュボード に移動し、[API キーの作成] をクリックして、キーをコピーします。
-
/connectコマンドを実行し、ZenMux を検索します。/connect -
プロバイダーの API キーを入力します。
┌ API key││└ enter -
多くの ZenMux モデルはデフォルトでプリロードされており、
/modelsコマンドを実行して必要なモデルを選択します。/models
opencode構成を通じて追加のモデルを追加することもできます。
{ "$schema": "https://opencode.ai/config.json", "provider": { "zenmux": { "models": { "somecoolnewmodel": {} } } }}カスタムプロバイダー
/connect コマンドにリストされていない OpenAI 互換プロバイダーを追加するには:
-
/connectコマンドを実行し、その他まで下にスクロールします。Terminal window $ /connect┌ Add credential│◆ Select provider│ ...│ ● Other└ -
プロバイダーの一意の ID を入力します。
Terminal window $ /connect┌ Add credential│◇ Enter provider id│ myprovider└
-
プロバイダーの API キーを入力します。
Terminal window $ /connect┌ Add credential│▲ This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.│◇ Enter your API key│ sk-...└ -
プロジェクト ディレクトリで
opencode.jsonファイルを作成または更新します。opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"myprovider": {"npm": "@ai-sdk/openai-compatible","name": "My AI ProviderDisplay Name","options": {"baseURL": "https://api.myprovider.com/v1"},"models": {"my-model-name": {"name": "My Model Display Name"}}}}}
構成オプションは次のとおりです。
- npm: 使用する AI SDK パッケージ、OpenAI 互換プロバイダーの場合は
@ai-sdk/openai-compatible - name: UI での表示名。
- モデル: 利用可能なモデル。
- options.baseURL: API エンドポイント URL。
- options.apiKey: 認証を使用しない場合は、オプションで API キーを設定します。
- options.headers: 必要に応じてカスタム ヘッダーを設定します。
詳細オプションの詳細については、以下の例を参照してください。
/modelsコマンドを実行すると、カスタム プロバイダーとモデルが選択リストに表示されます。
例
次に、apiKey、headers、およびモデル limit オプションを設定する例を示します。
{ "$schema": "https://opencode.ai/config.json", "provider": { "myprovider": { "npm": "@ai-sdk/openai-compatible", "name": "My AI ProviderDisplay Name", "options": { "baseURL": "https://api.myprovider.com/v1", "apiKey": "{env:ANTHROPIC_API_KEY}", "headers": { "Authorization": "Bearer custom-token" } }, "models": { "my-model-name": { "name": "My Model Display Name", "limit": { "context": 200000, "output": 65536 } } } } }}構成の詳細:
- apiKey:
env変数構文を使用して設定します。詳細については . - headers: 各リクエストとともに送信されるカスタム ヘッダー。
- limit.context: モデルが受け入れる最大Input Tokens。
- limit.output: モデルが生成できる最大トークン。
limit フィールドを使用すると、OpenCode はコンテキストがどのくらい残っているかを理解できます。標準プロバイダーは、これらを models.dev から自動的に取得します。
トラブルシューティング
プロバイダーの構成で問題が発生した場合は、次の点を確認してください。
- 認証設定を確認します:
opencode auth listを実行して、資格情報が正しいかどうかを確認します。 プロバイダー用のものが構成に追加されます。
これは、認証に環境変数に依存する Amazon Bedrock のようなプロバイダーには当てはまりません。
- カスタム プロバイダーの場合は、opencode 構成を確認し、次のことを行います。
/connectコマンドで使用されるプロバイダー ID が、opencode 構成内の ID と一致することを確認してください。- プロバイダーには適切な npm パッケージが使用されます。たとえば、Cerebras には
@ai-sdk/cerebrasを使用します。他のすべての OpenAI 互換プロバイダーの場合は、@ai-sdk/openai-compatibleを使用します。 options.baseURLフィールドで正しい API エンドポイントが使用されていることを確認してください。