KI-Sprachmodell Kimi K2: Was der chinesische DeepSeek-Konkurrent leistet

Kimi K2 ist ein weiteres offenes Modell aus China. Dieser Artikel beleuchtet die Architektur und Besonderheiten des Modells im Vergleich zu den Alternativen.

Artikel verschenken
vorlesen Druckansicht
Lesezeit: 8 Min.
Von
  • Dr. Christian Winkler
Inhaltsverzeichnis

Durch den Paukenschlag von DeepSeek im Januar 2025 ist der am gleichen Tag veröffentlichte Artikel zu effizienterem Reinforcement Learning des chinesischen Entwicklers Moonshot AI zunächst in Vergessenheit geraten. Spätestens mit der Veröffentlichung des großen Sprachmodells (Large Language Model, LLM) Kimi K2 hat nun aber auch Moonshot AI eine hohe Popularität erreicht. In vielen Benchmarks hat es DeepSeek-R1 abgehängt, doch auch proprietäre Modelle mussten Federn lassen. Allgemein akzeptiert ist Kimi K2 im Moment das stärkste offene Modell.

Offen bedeutet in diesem Fall, dass man die Modellgewichte herunterladen und das LLM auf eigener Hardware ausführen kann. Deutlich weniger offen ist der Trainingsprozess, den Moonshot AI im Gegensatz zu DeepSeek nicht detailliert publiziert hat. Wie bei anderen Modellen fehlt außerdem der Hinweis auf die Trainingsdaten, hier halten sich fast alle Anbieter bis auf die Entwickler von OLMo 2 und SmolLM3 bedeckt.

iX-tract
  • Kimi K2 ist ein neues großes Sprachmodell aus China, das sich aufgrund der veröffentlichten Modellgewichte auf eigener Serverhardware betreiben lässt. Es gilt damit als offenes Modell.
  • Obwohl es sich nicht um ein Reasoning-Modell handelt, schlägt Kimi K2 in vielen Benchmarks den Reasoning-Konkurrenten DeepSeek-R1 und reicht an proprietäre Modelle heran.
  • Die Architektur orientiert sich stark an DeepSeek V3, nutzt Multi-Head Latent Attention für RAM-Ersparnis, das Mixture-of-Experts-Verfahren und verwendet für die Modellgewichte effiziente Acht-Bit-Fließkommazahlen.
  • Erstmals wird im Training der Muon-Optimizer anstelle von AdamW verwendet, was laut Hersteller den Prozess beschleunigt und stabiler macht.
Mehr zum Thema Künstliche Intelligenz (KI)
Prof. Dr. Christian Winkler

Prof. Dr. Christian Winkler beschäftigt sich speziell mit der automatisierten Analyse natürlichsprachiger Texte (NLP). Als Professor an der TH Nürnberg konzentriert er sich bei seiner Forschung auf die Optimierung der User Experience.

Im Gegensatz zu DeepSeek-R1 und der ersten Variante der Qwen3-Reihe ist Kimi K2 kein Reasoning-Modell. Es gibt Antworten direkt, ohne einen dahinterstehenden Denkprozess zu exponieren.

Das war die Leseprobe unseres heise-Plus-Artikels "KI-Sprachmodell Kimi K2: Was der chinesische DeepSeek-Konkurrent leistet". Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.

heise+ entdecken – ab 2,99 € pro Woche

Hier bestellen

Über 90.000 Leser vertrauen bereits darauf – wählen Sie jetzt Ihr passendes Paket!


Mit heise+ lesen Sie alle Inhalte auf heise online. Zusätzlich zu unseren Magazin-Inhalten erhalten Sie damit weitere exklusive Tests, Ratgeber und Hintergründe.

Hier bestellen