콘텐츠로 이동

Providers

Using any LLM provider in opencode.

opencode는 AI SDKModels.dev를 사용하여 75+ LLM 제공 업체를 지원하며 로컬 모델을 실행합니다.

필요한 공급자를 추가하려면:

  1. /connect 명령을 사용하여 공급자를 위한 API 열쇠를 추가하십시오.
  2. opencode config에 있는 공급자를 구성하십시오.

등급

공급자의 API 키를 /connect 명령으로 추가하면 저장됩니다. ~/.local/share/opencode/auth.json에서.


콘피그

opencode의 provider 섹션을 통해 공급자를 사용자 정의 할 수 있습니다. 설정.


기본 URL

baseURL 옵션을 설정하여 모든 공급자를위한 기본 URL을 사용자 정의 할 수 있습니다. 프록시 서비스 또는 사용자 정의 엔드포인트를 사용할 때 유용합니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}

opencode 젠

OpenCode Zen은 opencode 팀이 제공하는 모델 목록입니다. opencode와 잘 작동하도록 테스트 및 검증. 더 알아보기.

  1. TUI에서 /connect 명령을 실행하고, opencode를 선택하고, opencode.ai/auth에 머리를 선택합니다.

    /connect
  2. 로그인, 청구 세부 정보를 추가하고 API 키를 복사하십시오.

  3. API 키를 붙여.

    ┌ API key
    └ enter
  4. TUI의 /models를 실행하여 우리가 추천하는 모델 목록을 볼 수 있습니다.

    /models

opencode의 다른 공급자와 같이 작동하고 사용하기에 완전히 선택적입니다.


디렉토리

세부사항에 있는 공급자의 몇몇을 보십시오. 공급자를 추가하려는 경우 목록, PR을 무료로 엽니 다.


302.AI

  1. 302.AI 콘솔에 머리, 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 302.AI를 검색하십시오.

    /connect
  3. 302.AI API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

아마존 베드록

opencode로 Amazon Bedrock을 사용하려면:

  1. Amazon Bedrock 콘솔 및 요청에서 ** 모델 카탈로그**에 머리 원하는 모델에 액세스.

  2. ** 설정** 다음 방법 중 하나를 사용하여:

환경 변수 (빠른 시작)

opencode를 실행하는 동안 이러한 환경 변수 중 하나를 설정:

Terminal window
# Option 1: Using AWS access keys
AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
# Option 2: Using named AWS profile
AWS_PROFILE=my-profile opencode
# Option 3: Using Bedrock bearer token
AWS_BEARER_TOKEN_BEDROCK=XXX opencode

또는 bash 프로필에 추가:

~/.bash_profile
export AWS_PROFILE=my-dev-profile
export AWS_REGION=us-east-1

설정 파일 (추천)

프로젝트 별 또는 지속적 구성의 경우 opencode.json를 사용하십시오.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "my-aws-profile"
}
}
}
}

** 유효한 옵션:**

  • region - AWS 지역 (예: us-east-1, eu-west-1)

  • profile - AWS는 ~/.aws/credentials에서 단면도를 지명했습니다

  • endpoint - VPC 엔드 포인트에 대한 사용자 정의 엔드 포인트 URL (일반 baseURL 옵션 별)

고급: VPC 엔드포인트

Bedrock의 VPC 엔드포인트를 사용하는 경우:

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "production",
"endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
}
}
}
}

인증 방법

-AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY: IAM 사용자 생성 및 AWS 콘솔에서 액세스 키를 생성

  • AWS_PROFILE: ~/.aws/credentials의 프로필 이름을 사용합니다. aws configure --profile my-profile 또는 aws sso login로 첫번째 구성
  • AWS_BEARER_TOKEN_BEDROCK: Amazon Bedrock 콘솔에서 장기적인 API 키 생성
  • AWS_WEB_IDENTITY_TOKEN_FILE / AWS_ROLE_ARN: EKS IRSA (서비스 계정을위한IAM 역할) 또는 OIDC federation과 다른 쿠버네티스 환경. 이 환경 변수는 서비스 계정 할당을 사용할 때 쿠버네티스에 의해 자동으로 주사됩니다.

인증

Amazon Bedrock은 다음과 같은 인증 우선 순위를 사용합니다.

  1. ** 브라우저 토큰 ** - AWS_BEARER_TOKEN_BEDROCK 환경 변수 또는 /connect 명령에서 토큰

  2. **AWS Credential Chain ** - 프로필, 액세스 키, 공유 자격 증명, IAM 역할, 웹 ID 토큰 (EKS IRSA), 인스턴스 메타 데이터

  3. 당신이 원하는 모형을 선정하기 위하여 /models 명령을 실행하십시오.

    /models

안토픽

  1. 가입하면 /connect 명령을 실행하고 Anthropic을 선택합니다.

    /connect
  2. Claude Pro/Max 옵션을 선택하고 브라우저를 열 수 있습니다. 자주 묻는 질문

    ┌ Select auth method
    │ Claude Pro/Max
    │ Create an API Key
    │ Manually enter API Key
  3. 이제 모든 Anthropic 모델은 /models 명령을 사용할 때 사용할 수 있어야합니다.

    /models

opencode의 Claude Pro/Max 구독을 사용하여 Anthropic에서 공식적으로 지원되지 않습니다.

API 키 사용

Pro/Max 구독이 없는 경우 Create an API Key를 선택할 수 있습니다. 브라우저를 열고 Anthropic에 로그인하고 terminal에서 붙여넣을 수있는 코드를 제공합니다.

또는 이미 API 키가 있다면, ** 수동으로 API Key**를 입력하고 terminal에서 붙여넣을 수 있습니다.


Azure OpenAI

  1. Azure 포털 이상으로 머리와 Azure OpenAI 리소스를 만듭니다. 당신은 필요로 할 것이다:
  • 소스 이름: 이것은 API 엔드 포인트의 일부가됩니다 (https://RESOURCE_NAME.openai.azure.com/)
  • ** API 키**: KEY 1 또는 당신의 자원에서 KEY 2
  1. Azure AI Foundry로 이동하여 모델을 배포합니다.

  2. /connect 명령을 실행하고 Azure를 검색하십시오.

    /connect
  3. API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 환경 변수로 리소스 이름을 설정:

    Terminal window
    AZURE_RESOURCE_NAME=XXX opencode

또는 bash 프로파일에 추가:

~/.bash_profile
export AZURE_RESOURCE_NAME=XXX
  1. /models 명령을 실행하여 배포 된 모델을 선택하십시오.

    /models

Azure Cognitive 서비스

  1. Azure 포털 이상으로 머리와 Azure OpenAI 리소스를 만듭니다. 당신은 필요로 할 것이다:
  • 소스 이름: 이것은 API 엔드 포인트의 일부가됩니다 (https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/)
  • ** API 키**: KEY 1 또는 당신의 자원에서 KEY 2
  1. Azure AI Foundry로 이동하여 모델을 배포합니다.

  2. /connect 명령을 실행하고 Azure Cognitive Services를 검색하십시오.

    /connect
  3. API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 환경 변수로 리소스 이름을 설정:

    Terminal window
    AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode

또는 bash 프로파일에 추가:

~/.bash_profile
export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
  1. /models 명령을 실행하여 배포 된 모델을 선택하십시오.

    /models

기본

  1. Baseten에 머리는, 계정을 만들고, API 열쇠를 생성합니다.

  2. /connect 명령을 실행하고 Baseten를 검색하십시오.

    /connect
  3. Baseten API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

Cerebras의

  1. Cerebras 콘솔에 머리, 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Cerebras를 검색하십시오.

    /connect
  3. Cerebras API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 Qwen 3 Coder 480B .

    /models

Cloudflare AI 게이트웨이

Cloudflare AI 게이트웨이는 OpenAI, Anthropic, Workers AI 등의 모델에 액세스할 수 있으며, 통합된 엔드포인트를 통해 더 많은 기능을 제공합니다. Unified Billing를 사용하면 각 공급자의 별도의 API 키가 필요하지 않습니다.

  1. Cloudflare 대시보드에 머리, AI > AI Gateway로 이동하고 새로운 게이트웨이를 만듭니다.

  2. 계정 ID 및 Gateway ID를 환경 변수로 설정하십시오.

    ~/.bash_profile
    export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id
    export CLOUDFLARE_GATEWAY_ID=your-gateway-id
  3. /connect 명령을 실행하고 ** Cloudflare AI Gateway**를 검색하십시오.

    /connect
  4. Cloudflare API 토큰을 입력하십시오.

    ┌ API key
    └ enter

또는 환경 변수로 설정한다.

~/.bash_profile
export CLOUDFLARE_API_TOKEN=your-api-token
  1. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

opencode config를 통해 모델을 추가할 수 있습니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"cloudflare-ai-gateway": {
"models": {
"openai/gpt-4o": {},
"anthropic/claude-sonnet-4": {}
}
}
}
}

코텍

  1. Cortecs 콘솔에 머리, 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Cortecs를 검색하십시오.

    /connect
  3. Cortecs API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 Kimi K2 Instruct .

    /models

딥스카이

  1. DeepSeek 콘솔에 머리, 계정을 만들고, ** 새로운 API 키**를 클릭합니다.

  2. /connect 명령을 실행하고 DeepSeek를 검색하십시오.

    /connect
  3. DeepSeek API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 DeepSeek 모델을 선택하십시오. DeepSeek Reasoner .

    /models

딥 인프라

  1. Deep Infra 대시보드에 머리로, 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Deep Infra를 검색하십시오.

    /connect
  3. 딥 인프라 API 키 입력.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

펌웨어

  1. Firmware 대시보드에 머리, 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 Firmware를 검색하십시오.

    /connect
  3. Firmware API 키 입력.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

불꽃 놀이 AI

  1. Fireworks AI 콘솔에 머리, 계정을 만들고 ** API 키**를 클릭합니다.

  2. /connect 명령을 실행하고 ** 불꽃 놀이 AI **를 검색하십시오.

    /connect
  3. 불꽃 놀이 AI API 열쇠를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 Kimi K2 Instruct .

    /models

GitLab 듀오

프로젝트 Duo는 GitLab의 Anthropic 프록시를 통해 기본 툴 호출 기능을 갖춘 AI-powered Agentic 채팅을 제공합니다.

  1. /connect 명령을 실행하고 GitLab을 선택합니다.

    /connect
  2. 인증 방법을 선택하십시오:

    ┌ Select auth method
    │ OAuth (Recommended)
    │ Personal Access Token

OAuth 사용 (추천)

SelectOAuth와 브라우저는 권한이 없습니다.

개인 액세스 토큰 사용

  1. [GitLab User Settings > Access Tokens](https://gitlab.com/-/user settings/personal access tokens)로 이동

  2. 새 토큰 추가 **

  3. 이름: OpenCode의 범위: api

  4. 토큰 복사 (glpat-와 함께 시작)

  5. terminal에서 그것을 입력하십시오

  6. 유효한 모형을 보기 위하여 /models 명령을 실행하십시오.

    /models

세 개의 클로드 기반 모델은 다음과 같습니다. -duo-chat-haiku-4-5 (기본값) - 빠른 작업에 대한 빠른 응답 -duo-chat-sonnet-4-5 - 대부분의 워크플로우의 밸런스 성능 -duo-chat-opus-4-5 - 복잡한 분석 가능

셀프 호스팅 GitLab

자체 호스팅 GitLab 인스턴스:

Terminal window
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_TOKEN=glpat-...

인스턴스가 사용자 정의 AI Gateway를 실행하면:

Terminal window
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com

또는 bash 프로파일에 추가:

~/.bash_profile
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_TOKEN=glpat-...

####OAuth for Self-Hosted 인스턴스

자체 호스팅 된 인스턴스를 위해 Oauth 작업을 만들기 위해, 당신은 만들 필요가 새로운 응용 프로그램 (설정 → 응용 프로그램) 콜백 URL http://127.0.0.1:8080/callback 및 다음 범위:

  • api (당신의 대신에 API에 액세스)
  • read user (개인 정보 읽기)
  • read repository (Repository에 읽은 전용 접근)

그런 다음 환경 변수로 애플리케이션 ID를 노출:

Terminal window
export GITLAB_OAUTH_CLIENT_ID=your_application_id_here

opencode-gitlab-auth 홈페이지에 대한 추가 문서.

구성

opencode.json를 통해 주문을 받아서 만드십시오:

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab": {
"options": {
"instanceUrl": "https://gitlab.com",
"featureFlags": {
"duo_agent_platform_agentic_chat": true,
"duo_agent_platform": true
}
}
}
}
}
GitLab API 도구 (선택, 그러나 높게 추천되는)

GitLab 도구에 액세스하려면 (merge 요청, 문제, 파이프라인, CI/CD 등):

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"plugin": ["@gitlab/opencode-gitlab-plugin"]
}

이 플러그인은 MR 리뷰, 문제 추적, 파이프라인 모니터링 등을 포함한 종합 GitLab 저장소 관리 기능을 제공합니다.


프로젝트

GitHub Copilot 구독을 사용하여 opencode:

  1. /connect 명령을 실행하고 GitHub Copilot을 검색하십시오.

    /connect
  2. github.com/login/device로 이동하여 코드를 입력합니다.

    ┌ Login with GitHub Copilot
    │ https://github.com/login/device
    │ Enter code: 8F43-6FCF
    └ Waiting for authorization...
  3. 이제 원하는 모델을 선택하기 위해 /models 명령을 실행합니다.

    /models

구글 Vertex AI

opencode로 Google Vertex AI를 사용하려면:

  1. Google Cloud Console에서 ** Model Garden**을 통해 헤드를 확인하고 확인하십시오. 당신의 지역에서 유효한 모형.

  2. 필요한 환경 변수를 설정:

  • GOOGLE_CLOUD_PROJECT: 당신의 구글 클라우드 프로젝트 ID
  • VERTEX_LOCATION (선택): Vertex AI를 위한 지구 (global에 기본)
  • 인증(초당):
  • GOOGLE_APPLICATION_CREDENTIALS: 서비스 계정 JSON 키 파일 경로
  • gcloud CLI를 사용하여 인증 : gcloud auth application-default login

opencode를 실행하면서 설정한다.

Terminal window
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode

또는 bash 프로파일에 추가하십시오.

~/.bash_profile
export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json
export GOOGLE_CLOUD_PROJECT=your-project-id
export VERTEX_LOCATION=global
  1. 당신이 원하는 모형을 선정하기 위하여 /models 명령을 실행하십시오.

    /models

Groq
  1. Groq 콘솔에 머리, click Create API Key, 키 복사.

  2. /connect 명령을 실행하고 Groq에 대한 검색.

    /connect
  3. 공급자를 위한 API 열쇠를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 원하는 것을 선택합니다.

    /models

###Hugging 얼굴

Hugging Face Inference Provider는 17+ 공급자가 지원하는 오픈 모델에 대한 액세스를 제공합니다.

  1. Hugging Face settings를 통해 토큰을 Inference Provider에게 호출할 권한을 부여합니다.

  2. /connect 명령을 실행하고 Hugging Face를 검색하십시오.

    /connect
  3. Hugging Face 토큰을 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 Kimi-K2-Instruct 또는 GLM-4.6 .

    /models

헬리콘

Helicone는 AI 애플리케이션에 대한 로깅, 모니터링 및 분석 기능을 제공하는 LLM Observability 플랫폼입니다. Helicone AI Gateway는 모델을 기반으로 적절한 공급자에게 요청을 자동으로 전달합니다.

  1. Helicone에 머리, 계정을 만들고, 대시보드에서 API 키를 생성합니다.

  2. /connect 명령을 실행하고 ** Helicone**를 검색하십시오.

    /connect
  3. Helicone API 열쇠를 입력하십시오.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

캐싱 및 속도 제한과 같은 더 많은 공급자와 고급 기능을 위해 Helicone 문서를 확인하십시오.

선택 사항

이벤트에서 opencode를 통해 자동으로 구성되지 않는 Helicone의 기능 또는 모델을 볼 수 있습니다.

여기에 Helicone의 모델 디렉토리, 당신은 당신이 추가 할 모델의 ID를 잡아이 필요.

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
},
"models": {
"gpt-4o": {
// Model ID (from Helicone's model directory page)
"name": "GPT-4o", // Your own custom name for the model
},
"claude-sonnet-4-20250514": {
"name": "Claude Sonnet 4",
},
},
},
},
}
사용자 정의 헤더

Helicone는 캐싱, 사용자 추적 및 세션 관리와 같은 기능을 위한 사용자 정의 헤더를 지원합니다. options.headers를 사용하여 공급자 구성에 추가하십시오:

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "opencode",
},
},
},
},
}
세션 추적

Helicone’s Sessions 기능으로 그룹 관련 LLM 요청이 가능합니다. opencode-helicone-session 플러그인을 사용하여 각 opencode 대화를 Helicone 세션으로 자동 로그인하십시오.

Terminal window
npm install -g opencode-helicone-session

설정에 추가하십시오.

opencode.json
{
"plugin": ["opencode-helicone-session"]
}

플러그인은 Helicone-Session-IdHelicone-Session-Name 헤더를 귀하의 요청에 주사합니다. Helicone의 세션 페이지에서는 별도의 세션으로 나열된 각 opencode 대화를 볼 수 있습니다.

공통 헬리콥터
헤드러Description
Helicone-Cache-Enabled대응 캐싱 (true/false)
Helicone-User-Id사용자별 추적 가능
Helicone-Property-[Name]사용자 정의 속성 추가(예: Helicone-Property-Environment)
Helicone-Prompt-Idprompt 대응

모든 사용 가능한 헤더에 대한 Helicone Header Directory를 참조하십시오.


llama.cpp를

llama.cpp’s llama-server 유틸리티를 통해 로컬 모델을 사용할 수 있습니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}

이 예제에서:

  • llama.cpp는 주문 공급자 ID입니다. 원하는 문자열이 될 수 있습니다.
  • npm는 이 공급자를 위해 사용할 포장을 지정합니다. 여기, @ai-sdk/openai-compatible는 OpenAI 호환 API에 사용됩니다.
  • name는 UI에 있는 공급자를 위한 전시 이름입니다.
  • options.baseURL는 로컬 서버의 엔드포인트입니다.
  • models는 모델 ID를 구성하는 맵입니다. 모델 이름은 모델 선택 목록에 표시됩니다.

IO.NET

IO.NET은 다양한 사용 사례에 최적화된 17개의 모델을 제공합니다:

  1. IO.NET 콘솔에 머리, 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 IO.NET를 검색하십시오.

    /connect
  3. IO.NET API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

LM 스튜디오

LM Studio를 통해 로컬 모델을 사용할 수 있습니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}

이 예제에서:

  • lmstudio는 주문 공급자 ID입니다. 원하는 문자열이 될 수 있습니다.
  • npm는 이 공급자를 위해 사용할 포장을 지정합니다. 여기, @ai-sdk/openai-compatible는 OpenAI 호환 API에 사용됩니다.
  • name는 UI에 있는 공급자를 위한 전시 이름입니다.
  • options.baseURL는 로컬 서버의 엔드포인트입니다.
  • models는 모델 ID를 구성하는 맵입니다. 모델 이름은 모델 선택 목록에 표시됩니다.

문샷 AI

Moonshot AI에서 Kimi K2 사용 :

  1. Moonshot AI 콘솔에 머리, 계정을 만들고, ** API 키**를 클릭합니다.

  2. /connect 명령을 실행하고 Moonshot AI를 검색하십시오.

    /connect
  3. Moonshot API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 Kimi K2 .

    /models

미니 맥스

  1. MiniMax API 콘솔에 머리, 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 MiniMax를 검색하십시오.

    /connect
  3. MiniMax API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 M2.1 .

    /models

Nebius 토큰 공장

  1. Nebius Token Factory 콘솔에 머리, 계정을 만들고, ** 키 추가 **.

  2. /connect 명령을 실행하고 Nebius Token Factory를 검색하십시오.

    /connect
  3. Nebius 토큰 공장 API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 Kimi K2 Instruct .

    /models

오라마

Ollama를 통해 로컬 모델을 사용할 수 있습니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}

이 예제에서:

  • ollama는 주문 공급자 ID입니다. 원하는 문자열이 될 수 있습니다.
  • npm는 이 공급자를 위해 사용할 포장을 지정합니다. 여기, @ai-sdk/openai-compatible는 OpenAI 호환 API에 사용됩니다.
  • name는 UI에 있는 공급자를 위한 전시 이름입니다.
  • options.baseURL는 로컬 서버의 엔드포인트입니다.
  • models는 모델 ID를 구성하는 맵입니다. 모델 이름은 모델 선택 목록에 표시됩니다.

##Ollama 클라우드

opencode로 Ollama Cloud를 사용하려면:

  1. https://ollama.com/ 이상 머리와 로그인하거나 계정을 만들 수 있습니다.

  2. Navigate toSettings > Keys 및 click API Key를 추가하여 새로운 API 키 생성.

  3. opencode에서 사용을 위한 API 열쇠를 복사하십시오.

  4. /connect 명령을 실행하고 ** Ollama Cloud**를 검색하십시오.

    /connect
  5. Ollama Cloud API 키 입력.

    ┌ API key
    └ enter
  6. ** 중요 **: opencode의 클라우드 모델을 사용하기 전에, 로컬 모델 정보를 끌어야 합니다:

    Terminal window
    ollama pull gpt-oss:20b-cloud
  7. /models 명령을 실행하여 Ollama Cloud 모델을 선택하십시오.

    /models

오픈아이

ChatGPT Plus 또는 Pro에 가입하는 것이 좋습니다.

  1. 가입하면 /connect 명령을 실행하고 OpenAI를 선택하십시오.

    /connect
  2. ChatGPT Plus/Pro 옵션을 선택하고 브라우저를 열 수 있습니다. 자주 묻는 질문

    ┌ Select auth method
    │ ChatGPT Plus/Pro
    │ Manually enter API Key
  3. 이제 모든 OpenAI 모델은 /models 명령을 사용할 때 사용할 수 있어야합니다.

    /models
API 키 사용

API 키가 이미 있다면 ** 수동으로 API 키**를 입력하고 terminal에서 붙여넣을 수 있습니다.


opencode 젠

OpenCode Zen은 opencode 팀에서 제공하는 테스트 및 검증된 모델 목록입니다. 더 알아보기.

  1. 로그인 OpenCode Zen and clickCreate API Key.

  2. /connect 명령을 실행하고 OpenCode Zen를 검색하십시오.

    /connect
  3. opencode API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 Qwen 3 Coder 480B .

    /models

오픈로자

  1. OpenRouter 대시보드에 머리, click ** API Key**를 클릭하고 키를 복사합니다.

  2. /connect 명령을 실행하고 OpenRouter를 검색하십시오.

    /connect
  3. 공급자를 위한 API 열쇠를 입력하십시오.

    ┌ API key
    └ enter
  4. 많은 OpenRouter 모델은 기본적으로 /models 명령을 실행하여 원하는 것을 선택합니다.

    /models

opencode config를 통해 추가 모델을 추가할 수 있습니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openrouter": {
"models": {
"somecoolnewmodel": {}
}
}
}
}
  1. 당신은 또한 당신의 opencode config를 통해 그들을 주문을 받아서 만들 수 있습니다. 공급자 지정의 예입니다.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "moonshotai/kimi-k2": {
    "options": {
    "provider": {
    "order": ["baseten"],
    "allow_fallbacks": false
    }
    }
    }
    }
    }
    }
    }

SAP AI 핵심

SAP AI Core는 OpenAI, Anthropic, Google, Amazon, Meta, Mistral 및 AI21의 40+ 모델에 대한 액세스를 제공합니다.

  1. SAP BTP Cockpit로 이동하여 SAP AI Core 서비스 인스턴스로 이동하고 서비스 키를 만듭니다.

  2. /connect 명령을 실행하고 SAP AI Core를 검색하십시오.

    /connect
  3. 서비스 키 JSON을 입력하십시오.

    ┌ Service key
    └ enter

또는 AICORE_SERVICE_KEY 환경 변수를 설정:

Terminal window
AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode

또는 bash 프로파일에 추가:

~/.bash_profile
export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
  1. 선택적으로 배치 ID 및 자원 그룹:

    Terminal window
    AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
  2. /models 명령을 실행하여 40+ 유효한 모형에서 선택하십시오.

    /models

OVHcloud AI 엔드포인트

  1. OVHcloud 패널에 머리. Public Cloud 섹션으로 이동, AI & Machine Learning > AI EndpointsAPI Keys 탭에서, ** 새로운 API 키 활성화 **.

  2. /connect 명령을 실행하고 ** OVHcloud AI Endpoints**를 검색하십시오.

    /connect
  3. OVHcloud AI Endpoints API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 gpt-oss-120b .

    /models

스케일웨이

opencode를 사용하여 Scaleway Generative APIs를 사용하려면:

  1. Scaleway 콘솔 IAM 설정를 통해 새로운 API 키 생성.

  2. /connect 명령을 실행하고 Scaleway를 검색하십시오.

    /connect
  3. Scaleway API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오. devstral-2-123b-instruct-2512 또는 gpt-oss-120b .

    /models

함께 AI

  1. Together AI 콘솔에 머리, 계정을 만들고 ** 키 추가 **를 클릭합니다.

  2. /connect 명령을 실행하고 Together AI를 검색하십시오.

    /connect
  3. 함께 AI API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 Kimi K2 Instruct .

    /models

베니스 AI

  1. Venice AI 콘솔에 머리, 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 **Venice AI **를 검색하십시오.

    /connect
  3. 베니스 AI API 열쇠를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 Llama 3.3 70B .

    /models

Vercel AI 게이트웨이

Vercel AI를 게이트웨이는 OpenAI, Anthropic, Google, xAI 등에서 모델에 액세스할 수 있습니다. 모델은 Markup없이 목록 가격에서 제공됩니다.

  1. Vercel 대시보드에 머리, AI Gateway 탭으로 이동하고, API 키를 클릭하여 새로운 API 키 생성.

  2. /connect 명령을 실행하고 Vercel AI Gateway를 검색하십시오.

    /connect
  3. Vercel AI Gateway API 키 입력.

    ┌ API key
    └ enter
  4. 모델을 선택하려면 /models 명령을 실행하십시오.

    /models

opencode config를 통해 모델을 사용자 정의 할 수 있습니다. 공급자 routing 순서를 지정하는 예입니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}

몇몇 유용한 여정 선택권:

옵션설명
order공급자의 순서
only특정 공급자 제한
zeroDataRetention제로 데이터 보유 정책만 이용 가능

  1. xAI 콘솔에 머리, 계정을 만들고 API 키를 생성합니다.

  2. /connect 명령을 실행하고 xAI를 검색하십시오.

    /connect
  3. xAI API 키를 입력하십시오.

    ┌ API key
    └ enter
  4. /models 명령을 실행하여 같은 모델을 선택하십시오 Grok Beta .

    /models

Z.AI

  1. Z.AI API 콘솔에 머리, 계정을 만들고, 새로운 API 키를 클릭합니다.

  2. /connect 명령을 실행하고 ** Z.AI**를 검색하십시오.

    /connect

GLM 코딩 플랜에 가입하면 Z.AI 코딩 플랜을 선택하십시오.

  1. Z.AI API 키를 입력하십시오.

    ┌ API key
    └ enter
  2. /models 명령을 실행하여 같은 모델을 선택하십시오 GLM-4.7 .

    /models

ZenMux를

  1. ZenMux 대쉬보드에 머리, click Create API Key, 키 복사.

  2. /connect 명령을 실행하고 ZenMux를 검색하십시오.

    /connect
  3. 공급자를 위한 API 열쇠를 입력하십시오.

    ┌ API key
    └ enter
  4. 많은 ZenMux 모델은 기본적으로 사전 로드되며 /models 명령을 실행하여 원하는 것을 선택합니다.

    /models

opencode config를 통해 추가 모델을 추가할 수 있습니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"zenmux": {
"models": {
"somecoolnewmodel": {}
}
}
}
}

사용자 정의 공급자

/connect 명령에 나열되지 않은 OpenAI-compatible 공급자를 추가하려면:

  1. /connect 명령을 실행하고 ** 다른**로 스크롤하십시오.

    Terminal window
    $ /connect
    Add credential
    Select provider
    ...
    Other
  2. 공급자를 위한 유일한 ID를 입력하십시오.

    Terminal window
    $ /connect
    Add credential
    Enter provider id
    myprovider
  3. 공급자를 위한 당신의 API 열쇠를 입력하십시오.

    Terminal window
    $ /connect
    Add credential
    This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.
    Enter your API key
    sk-...
  4. 프로젝트 디렉토리에 opencode.json 파일을 만들거나 업데이트하십시오.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "myprovider": {
    "npm": "@ai-sdk/openai-compatible",
    "name": "My AI ProviderDisplay Name",
    "options": {
    "baseURL": "https://api.myprovider.com/v1"
    },
    "models": {
    "my-model-name": {
    "name": "My Model Display Name"
    }
    }
    }
    }
    }

여기에 구성 옵션:

  • npm: AI SDK 패키지, OpenAI 호환 공급자 @ai-sdk/openai-compatible -name: UI의 표시 이름.
  • ** 모델**: 유효한 모델.
  • options.baseURL: API 엔드포인트 URL.
  • options.apiKey: 선택적으로 auth를 사용하지 않는 경우 API 키 설정.
  • options.headers: 선택적으로 사용자 정의 헤더를 설정합니다.

아래 예에서 고급 옵션에 더.

  1. /models 명령을 실행하고 사용자 정의 공급자와 모델은 선택 목록에서 나타납니다.

예제

다음은 apiKey, headers 및 모델 limit 옵션 설정 예입니다.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}

구성 세부 사항:

  • apiKey: env 변수 구문을 사용하여 설정, learn more. -headers: 각 요청으로 전송된 사용자 정의 헤더.
  • limit.context: 모델이 허용하는 최대 Input Tokens.
  • limit.output: 모델이 생성할 수 있는 최대 Output Tokens.

limit 필드를 사용하면 opencode가 얼마나 많은 컨텍스트를 이해 할 수 있습니다. 표준 공급자는 model.dev에서 자동적으로 당깁니다.


문제 해결

공급자 구성에 문제가 있는 경우 다음을 확인하십시오.

  1. **주의 설정 확인 **: opencode auth list를 실행하여 자격 증명을 볼 수 있습니다. 공급자는 config에 추가됩니다.

이것은 Amazon Bedrock과 같은 공급자에 적용되지 않습니다. 환경 변수에 의존합니다.

  1. 주문 공급자를 위해, opencode config를 검사하고:
  • /connect 명령에 사용되는 공급자 ID가 opencode config에서 ID를 일치시킵니다.
  • 오른쪽 npm 패키지는 공급자에 사용됩니다. 예를 들어 Cerebras의 @ai-sdk/cerebras를 사용합니다. 그리고 다른 모든 OpenAI 호환 공급자를 위해, 사용 @ai-sdk/openai-compatible.
  • 올바른 API 엔드포인트는 options.baseURL 필드에 사용됩니다.