Skip to main content
Sprachmodell der nächsten Generation

GLM 5

Sprachmodell der nächsten Generation

745 Mrd. Parameter, 44 Mrd. aktiv. Für Agenten-KI, fortgeschrittenes Reasoning und Spitzenleistung. Coding, Kreativität, komplexe Problemlösung.

745B Parameter
44B aktiv (MoE)
200K Kontext
MIT-Lizenz

Was ist GLM-5

GLM-5 ist Zhipu AIs (Z.ai) Sprachmodell der fünften Generation. Mit ~745 Mrd. Parametern (MoE), 256 Experten, 8 aktiv pro Token (5,9 % spärlich), 44 Mrd. aktiv pro Inferenz – für Agenten-KI, mehrstufiges Reasoning und Spitzenleistung in Coding, Kreativität und komplexer Problemlösung.

Zhipu AI (2019 aus Tsinghua) treibt Open-Source-KI voran. Im Januar 2026 Hongkong-IPO, ~4,35 Mrd. HKD (~558 Mio. USD) für GLM-5. Vollständiges Training auf Huawei Ascend mit MindSpore – unabhängig von US-Hardware.

Überblick

Auf einen Blick

Coding

Stark in Code-Generierung, Debugging, Mehrsprachigkeit – Partner für den gesamten Entwicklungszyklus.

Agenten-KI

Autonome Planung, Tool-Nutzung, Web-Browsing, mehrstufige Workflows mit minimalem menschlichem Eingriff.

200K Kontext

Effiziente Sparse-Attention für lange Texte, Codebasen und Forschung in einer Sitzung.

Offen & kosteneffizient

MIT-Lizenz geplant. Günstigere API als GPT-5/Claude. Hugging Face, ModelScope.

Kernfähigkeiten

Was GLM-5 kann

Große Fortschritte in fünf Bereichen und erweiterte Grenzen von LLMs.

Kreativ

Von Langform über Technikdokumente bis Marketing und Wissenschaft – hochwertige, nuancierte Inhalte.

Coding

Starke Verbesserung bei Code-Generierung, Debugging, Mehrsprachigkeit – Partner für den gesamten Zyklus.

Fortgeschrittenes Reasoning

Spitzen-Mehrschritt-Logik und komplexe Problemlösung – Beweise, Wissenschaft, präzise Analyse.

Agenten-KI

Integrierte Agenten-Architektur: autonome Planung, Tools, Web-Browsing, mehrstufige Workflows mit minimalem Eingriff.

Langer Kontext

Bis 200K Token – lange Dokumente, Papers, Codebasen, Transkripte in einer Sitzung verarbeiten und schlussfolgern.

Anwendungsfälle

Wo GLM-5 glänzt

End-to-End-Entwicklung

Von Anforderungen bis Deployment – ein Modell für Full-Stack und Backend über den gesamten Zyklus.

KI-Agenten und Automatisierung

Assistenten mit Planung, Browsing, Tool-Aufrufen und mehrstufigen Workflows; lange Sitzungen.

Dokumentation und Berichte

Aus Prompts direkt technische Docs, Marketing-Texte und strukturierte Berichte erzeugen.

Forschung und Analyse

Mit 200K Kontext lange Papers, Codebasen und komplexe Analysen in einer Sitzung schlussfolgern.

EntwicklungKI-AgentenBüro & DokumenteLanger Kontext

Technische Architektur

Wie GLM-5 aufgebaut ist

MoE mit ~745 Mrd. Parametern, 256 Experten, 8 aktiv pro Token (5,9 %), 44 Mrd. aktiv pro Inferenz – etwa doppelt so groß wie GLM-4.5. DeepSeek Sparse Attention (DSA) für bis 200K Token. Vollständig auf Huawei Ascend mit MindSpore trainiert – unabhängig von US-Chips.

Gesamtparameter ~745 Mrd.
Aktive Parameter ~44 Mrd.
Experten-Setup 256, 8 aktiv (5,9 %)
Kontextlänge Bis 200K Token
Attention DeepSeek Sparse (DSA)
Trainings-Hardware Huawei Ascend

Warum GLM-5

Wettbewerbsvorteile

GLM-5 konkurriert in Reasoning, Coding und Agenten-Aufgaben mit Claude Opus und GPT-5; übertrifft GLM-4.7 in Kreativität und Multimodal.

  • Spitzen-Mehrschritt-Reasoning und Agenten-KI – autonome Planung und Tool-Nutzung.
  • 200K-Kontext und effiziente Sparse-Attention – Balance aus Fähigkeit und Deployment-Kosten.
  • Training auf Huawei Ascend (nicht von den USA abhängig). MIT Open-Weights geplant – kommerziell und finetuning-fähig.
  • Kosteneffiziente API (GLM-4.x ~0,11 $/M Token). GLM-5 soll diesen Vorteil gegenüber GPT-5/Claude behalten.

Open Source und Preise

Zugang und Kosten

Zhipu hat Open-Source-Erfahrung; GLM-4.7 ist auf Hugging Face kommerziell nutzbar. GLM-5 soll unter MIT folgen – kommerziell, Finetuning und Community-Forschung.

Kosteneffizienz ist eine Stärke der GLM-Serie. GLM-4.x API ~0,11 $/M Token, deutlich günstiger als GPT-5. GLM-5 soll das fortsetzen.

Release-Zeitplan

Meilensteine

  • 8. Jan. 2026 — Zhipu AI Hongkong-IPO abgeschlossen, ~4,35 Mrd. HKD (~558 Mio. USD).
  • Jan. 2026 — GLM-5-Training auf Ascend nahezu abgeschlossen; interne Tests und Bewertung.
  • Mitte Feb. 2026 — GLM-5 auf Z.ai und WaveSpeed API; Benchmarks gegen Claude Opus.
  • Q1 2026 — Nach API-Start voraussichtlich MIT Open-Weights-Release.

Erste Schritte

So nutzen Sie GLM-5

1

API-Zugang

Über Zhipu Z.ai oder WaveSpeed API sofort GLM-5 nutzen; Standard-API für App-Integration.

2

Open Weights

Nach Veröffentlichung von Hugging Face oder ModelScope herunterladen; MIT geplant – Self-Hosting und Finetuning.

3

Deployment

Auf Huawei Ascend, Moore Threads, Cambricon oder Standard-GPU-Cloud laufen; Docs und Beispiele über offizielle Kanäle.

GLM 5 API Zugriff

GLM 5 API Integrationsbeispiel

Sehen Sie sich ein praktisches GLM 5 API Request-Beispiel an, um Authentifizierung, Request-Struktur und die wichtigsten Funktionen zu verstehen, die Sie schrittweise aktivieren können.

GLM 5 API mit OpenAI-kompatiblem Format nutzen

Verbinden Sie sich über den /v1-Endpunkt von AIAPI.world mit GLM 5 API. Das ist ideal für Projekte, die bereits das OpenAI SDK oder OpenAI-ähnliche Requests verwenden, und kann die Kosten um 20% senken.

AIAPI.world für GLM 5 API nutzen

Wenn Sie bereits ein OpenAI-kompatibles Format verwenden, können Sie GLM 5 API auch über den /v1-Endpunkt von AIAPI.world aufrufen.

AIAPI.world /v1 OpenAI-kompatibles Beispiel

Ideal für Projekte, die bereits das OpenAI SDK oder OpenAI-ähnliche Requests nutzen

openai
curl https://aiapi.world/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_AIAPI_WORLD_KEY" \
  -d '{
    "model": "glm-5",
    "messages": [
      {
        "role": "user",
        "content": "Summarize the main API capabilities in 3 bullet points."
      }
    ],
    "stream": true
  }'

Unten sehen Sie ein lauffähiges GLM 5 API-Request-Beispiel, das die Authentifizierung mit Ihrem API Key, den Aufruf des chat completions-Endpunkts und das Aktivieren von Streaming-Ausgabe zeigt.

Minimales API-Request-Beispiel

Ein einfacher Chat-Completion-Aufruf mit aktiviertem Streaming

curl
curl https://open.bigmodel.cn/api/paas/v4/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "glm-5",
    "messages": [
      {
        "role": "user",
        "content": "Summarize the main API capabilities in 3 bullet points."
      }
    ],
    "stream": true
  }'

Häufige Fragen

FAQ

Was ist GLM-5

GLM-5 ist Zhipu AIs Sprachmodell der fünften Generation: MoE, ~745 Mrd. Parameter, 44 Mrd. aktiv – für fortgeschrittenes Reasoning, Coding, Kreativität und Agenten-KI, deutlich über GLM-4.5.

Wann erscheint GLM-5

Ab Mitte Februar 2026 auf Z.ai und WaveSpeed API. MIT Open Weights voraussichtlich in Q1 2026.

Wer entwickelt GLM-5

Zhipu AI (Z.ai), 2019 aus Tsinghua. Hongkong-IPO Januar 2026, ~4,35 Mrd. HKD für GLM-5.

GLM-5 vs. GPT-5

Konkurrenzfähig in Reasoning und Agenten zu GPT-5/Claude Opus, mit günstigeren Preisen und Open Weights. Übertrifft GLM-4.7 in Kreativität/Multimodal; 200K Kontext; Training auf Ascend – hardware-unabhängig.

Ist GLM-5 Open Source

Zhipu hat Open-Source-Track; GLM-4.7 auf Hugging Face kostenlos. GLM-5 voraussichtlich MIT Open Weights – kommerziell, Finetuning, Community.

Auf welcher Hardware wurde GLM-5 trainiert

Vollständig auf Huawei Ascend mit MindSpore – unabhängig von US-Chips; Meilenstein für lokale KI-Infrastruktur.

GLM-5 starten

Über Z.ai oder WaveSpeed API jetzt auf GLM-5 zugreifen oder Open Weights von Hugging Face/ModelScope laden. Dokumentation für Integration in Produkte.

Loslegen