Zen
Liste organisée de modèles fournis par OpenCode.
OpenCode Zen est une liste de modèles testés et vérifiés fournie par l’équipe OpenCode.
Zen fonctionne comme n’importe quel autre fournisseur dans OpenCode. Vous vous connectez à OpenCode Zen et obtenez votre clé API. C’est entièrement facultatif et vous n’avez pas besoin de l’utiliser pour utiliser OpenCode.
Arrière-plan
Il existe un grand nombre de modèles, mais seuls quelques-uns fonctionnent bien comme agents de codage. De plus, la plupart des fournisseurs sont configurés très différemment ; vous obtenez donc des performances et une qualité très variables.
Donc, si vous utilisez un modèle via quelque chose comme OpenRouter, vous ne pouvez jamais être sûr d’obtenir la meilleure version du modèle que vous voulez.
Pour corriger cela, nous avons fait plusieurs choses :
- Nous avons testé un groupe sélectionné de modèles et discuté avec leurs équipes de la meilleure façon de les faire fonctionner.
- Nous avons ensuite travaillé avec quelques fournisseurs pour nous assurer qu’ils étaient correctement servis.
- Enfin, nous avons comparé la combinaison modèle/fournisseur et établi une liste que nous recommandons en toute confiance.
OpenCode Zen est une passerelle AI qui vous donne accès à ces modèles.
Comment ça marche
OpenCode Zen fonctionne comme n’importe quel autre fournisseur dans OpenCode.
- Vous vous connectez à OpenCode Zen, ajoutez vos informations de facturation et copiez votre clé API.
- Vous exécutez la commande
/connectdans le TUI, sélectionnez OpenCode Zen et collez votre clé API. - Exécutez
/modelsdans le TUI pour voir la liste des modèles que nous recommandons.
La facturation se fait à la requête et vous pouvez ajouter des crédits à votre compte.
Points de terminaison
Vous pouvez également accéder à nos modèles via les points de terminaison API suivants.
| Modèle | ID du modèle | Point de terminaison | Package AI SDK |
|---|---|---|---|
| GPT 5.4 | gpt-5.4 | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.4 Pro | gpt-5.4-pro | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.4 Mini | gpt-5.4-mini | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.4 Nano | gpt-5.4-nano | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.3 Codex | gpt-5.3-codex | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.3 Codex Spark | gpt-5.3-codex-spark | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.2 | gpt-5.2 | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.2 Codex | gpt-5.2-codex | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 | gpt-5.1 | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 Codex | gpt-5.1-codex | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 Codex Max | gpt-5.1-codex-max | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 Codex Mini | gpt-5.1-codex-mini | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5 | gpt-5 | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5 Codex | gpt-5-codex | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5 Nano | gpt-5-nano | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| Claude Opus 4.6 | claude-opus-4-6 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Opus 4.5 | claude-opus-4-5 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Opus 4.1 | claude-opus-4-1 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Sonnet 4.6 | claude-sonnet-4-6 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Sonnet 4.5 | claude-sonnet-4-5 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Sonnet 4 | claude-sonnet-4 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Haiku 4.5 | claude-haiku-4-5 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Haiku 3.5 | claude-3-5-haiku | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Gemini 3.1 Pro | gemini-3.1-pro | https://opencode.ai/zen/v1/models/gemini-3.1-pro | @ai-sdk/google |
| Gemini 3 Flash | gemini-3-flash | https://opencode.ai/zen/v1/models/gemini-3-flash | @ai-sdk/google |
| MiniMax M2.5 | minimax-m2.5 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| MiniMax M2.5 Free | minimax-m2.5-free | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| GLM 5 | glm-5 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2.5 | kimi-k2.5 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Big Pickle | big-pickle | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| MiMo V2 Pro Free | mimo-v2-pro-free | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| MiMo V2 Omni Free | mimo-v2-omni-free | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Qwen3.6 Plus Free | qwen3.6-plus-free | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Nemotron 3 Super Free | nemotron-3-super-free | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
Le model id dans votre configuration OpenCode utilise le format opencode/<model-id>. Par exemple, pour GPT 5.3 Codex, vous utiliseriez opencode/gpt-5.3-codex dans votre configuration.
Modèles
Vous pouvez récupérer la liste complète des modèles disponibles et leurs métadonnées à partir de :
https://opencode.ai/zen/v1/modelsTarification
Nous prenons en charge un modèle de paiement à l’utilisation. Vous trouverez ci-dessous les prix par 1M tokens.
| Modèle | Input | Output | Cached Read | Cached Write |
|---|---|---|---|---|
| Big Pickle | Free | Free | Free | - |
| MiMo V2 Pro Free | Free | Free | Free | - |
| MiMo V2 Omni Free | Free | Free | Free | - |
| Qwen3.6 Plus Free | Free | Free | Free | - |
| Nemotron 3 Super Free | Free | Free | Free | - |
| MiniMax M2.5 Free | Free | Free | Free | - |
| MiniMax M2.5 | $0.30 | $1.20 | $0.06 | $0.375 |
| GLM 5 | $1.00 | $3.20 | $0.20 | - |
| Kimi K2.5 | $0.60 | $3.00 | $0.10 | - |
| Qwen3 Coder 480B | $0.45 | $1.50 | - | - |
| Claude Opus 4.6 | $5.00 | $25.00 | $0.50 | $6.25 |
| Claude Opus 4.5 | $5.00 | $25.00 | $0.50 | $6.25 |
| Claude Opus 4.1 | $15.00 | $75.00 | $1.50 | $18.75 |
| Claude Sonnet 4.6 | $3.00 | $15.00 | $0.30 | $3.75 |
| Claude Sonnet 4.5 (≤ 200K tokens) | $3.00 | $15.00 | $0.30 | $3.75 |
| Claude Sonnet 4.5 (> 200K tokens) | $6.00 | $22.50 | $0.60 | $7.50 |
| Claude Sonnet 4 (≤ 200K tokens) | $3.00 | $15.00 | $0.30 | $3.75 |
| Claude Sonnet 4 (> 200K tokens) | $6.00 | $22.50 | $0.60 | $7.50 |
| Claude Haiku 4.5 | $1.00 | $5.00 | $0.10 | $1.25 |
| Claude Haiku 3.5 | $0.80 | $4.00 | $0.08 | $1.00 |
| Gemini 3.1 Pro (≤ 200K tokens) | $2.00 | $12.00 | $0.20 | - |
| Gemini 3.1 Pro (> 200K tokens) | $4.00 | $18.00 | $0.40 | - |
| Gemini 3 Flash | $0.50 | $3.00 | $0.05 | - |
| GPT 5.4 | $2.50 | $15.00 | $0.25 | - |
| GPT 5.4 Pro | $30.00 | $180.00 | $30.00 | - |
| GPT 5.4 Mini | $0.75 | $4.50 | $0.075 | - |
| GPT 5.4 Nano | $0.20 | $1.25 | $0.02 | - |
| GPT 5.3 Codex Spark | $1.75 | $14.00 | $0.175 | - |
| GPT 5.3 Codex | $1.75 | $14.00 | $0.175 | - |
| GPT 5.2 | $1.75 | $14.00 | $0.175 | - |
| GPT 5.2 Codex | $1.75 | $14.00 | $0.175 | - |
| GPT 5.1 | $1.07 | $8.50 | $0.107 | - |
| GPT 5.1 Codex | $1.07 | $8.50 | $0.107 | - |
| GPT 5.1 Codex Max | $1.25 | $10.00 | $0.125 | - |
| GPT 5.1 Codex Mini | $0.25 | $2.00 | $0.025 | - |
| GPT 5 | $1.07 | $8.50 | $0.107 | - |
| GPT 5 Codex | $1.07 | $8.50 | $0.107 | - |
| GPT 5 Nano | Free | Free | Free | - |
Vous remarquerez peut-être Claude Haiku 3.5 dans votre historique d’utilisation. Il s’agit d’un modèle à faible coût utilisé pour générer les titres de vos sessions.
Les modèles gratuits :
- MiniMax M2.5 Free est disponible sur OpenCode pour une durée limitée. L’équipe utilise cette période pour recueillir des retours et améliorer le modèle.
- MiMo V2 Pro Free est disponible sur OpenCode pour une durée limitée. L’équipe utilise cette période pour recueillir des retours et améliorer le modèle.
- MiMo V2 Omni Free est disponible sur OpenCode pour une durée limitée. L’équipe utilise cette période pour recueillir des retours et améliorer le modèle.
- Qwen3.6 Plus Free est disponible sur OpenCode pour une durée limitée. L’équipe utilise cette période pour recueillir des retours et améliorer le modèle.
- Nemotron 3 Super Free est disponible sur OpenCode pour une durée limitée. L’équipe utilise cette période pour recueillir des retours et améliorer le modèle.
- Big Pickle est un modèle stealth gratuit sur OpenCode pour une durée limitée. L’équipe utilise cette période pour recueillir des retours et améliorer le modèle.
Contactez-nous si vous avez des questions.
Rechargement automatique
Si votre solde passe sous $5, Zen rechargera automatiquement $20.
Vous pouvez modifier le montant du rechargement automatique. Vous pouvez également désactiver complètement le rechargement automatique.
Limites mensuelles
Vous pouvez également définir une limite d’utilisation mensuelle pour l’ensemble de l’espace de travail et pour chaque membre de votre équipe.
Par exemple, si vous définissez une limite d’utilisation mensuelle à $20, Zen n’utilisera pas plus de $20 sur un mois. Mais si le rechargement automatique est activé, Zen peut finir par vous facturer plus de $20 si votre solde passe sous $5.
Modèles obsolètes
| Modèle | Date de dépréciation |
|---|---|
| MiniMax M2.1 | March 15, 2026 |
| GLM 4.7 | March 15, 2026 |
| GLM 4.6 | March 15, 2026 |
| Gemini 3 Pro | March 9, 2026 |
| Kimi K2 Thinking | March 6, 2026 |
| Kimi K2 | March 6, 2026 |
| Qwen3 Coder 480B | Feb 6, 2026 |
Confidentialité
Tous nos modèles sont hébergés aux US. Nos fournisseurs suivent une politique de rétention zéro et n’utilisent pas vos données pour l’entraînement des modèles, avec les exceptions suivantes :
- Big Pickle : Pendant sa période gratuite, les données collectées peuvent être utilisées pour améliorer le modèle.
- MiniMax M2.5 Free : Pendant sa période gratuite, les données collectées peuvent être utilisées pour améliorer le modèle.
- MiMo V2 Pro Free : Pendant sa période gratuite, les données collectées peuvent être utilisées pour améliorer le modèle.
- MiMo V2 Omni Free : Pendant sa période gratuite, les données collectées peuvent être utilisées pour améliorer le modèle.
- Qwen3.6 Plus Free : Pendant sa période gratuite, les données collectées peuvent être utilisées pour améliorer le modèle.
- Nemotron 3 Super Free : Pendant sa période gratuite, les données collectées peuvent être utilisées pour améliorer le modèle.
- OpenAI APIs : Les requêtes sont conservées pendant 30 jours conformément à OpenAI’s Data Policies.
- Anthropic APIs : Les requêtes sont conservées pendant 30 jours conformément à Anthropic’s Data Policies.
Pour les équipes
Zen fonctionne aussi très bien pour les équipes. Vous pouvez inviter des coéquipiers, attribuer des rôles, sélectionner les modèles que votre équipe utilise, et plus encore.
La gestion de votre espace de travail est actuellement gratuite pour les équipes dans le cadre de la version bêta. Nous partagerons bientôt plus de détails sur la tarification.
Rôles
Vous pouvez inviter des coéquipiers dans votre espace de travail et attribuer des rôles :
- Admin : Gérer les modèles, les membres, les clés API et la facturation
- Member : Gérer uniquement ses propres clés API
Les administrateurs peuvent également définir des limites de dépenses mensuelles pour chaque membre afin de garder les coûts sous contrôle.
Accès aux modèles
Les administrateurs peuvent activer ou désactiver des modèles spécifiques pour l’espace de travail. Les requêtes effectuées vers un modèle désactivé renverront une erreur.
Cela est utile si vous souhaitez désactiver l’utilisation d’un modèle qui collecte des données.
Apportez votre propre clé
Vous pouvez utiliser vos propres clés API OpenAI ou Anthropic tout en accédant à d’autres modèles dans Zen.
Lorsque vous utilisez vos propres clés, les tokens sont facturés directement par le fournisseur, pas par Zen.
Par exemple, votre organisation a peut-être déjà une clé pour OpenAI ou Anthropic et vous souhaitez l’utiliser à la place de celle fournie par Zen.
Objectifs
Nous avons créé OpenCode Zen pour :
- Benchmark les meilleurs modèles/fournisseurs pour les agents de codage.
- Avoir accès aux options de la plus haute qualité sans dégrader les performances ni basculer vers des fournisseurs moins chers.
- Répercuter toute baisse de prix en vendant au prix coûtant ; la seule marge sert à couvrir nos frais de traitement.
- N’avoir aucun lock-in en vous permettant de l’utiliser avec n’importe quel autre agent de codage. Et toujours vous permettre d’utiliser n’importe quel autre fournisseur avec OpenCode également.