PEKING, 27.12.2025 /PRNewswire/ — Am 22. Dezember veröffentlichte Z.ai GLM-4.7, die neueste Version seiner GLM-Familie großer Sprachmodelle. Entwickelt für die Verarbeitung von MultiPEKING, 27.12.2025 /PRNewswire/ — Am 22. Dezember veröffentlichte Z.ai GLM-4.7, die neueste Version seiner GLM-Familie großer Sprachmodelle. Entwickelt für die Verarbeitung von Multi

Z.ai veröffentlicht GLM-4.7 für reale Entwicklungsumgebungen und positioniert sich als „Chinas OpenAI"

PEKING, 27.12.2025 /PRNewswire/ — Am 22. Dezember veröffentlichte Z.ai GLM-4.7, die neueste Iteration seiner GLM-Familie großer Sprachmodelle. GLM-4.7 wurde entwickelt, um mehrstufige Aufgaben in der Produktion zu bewältigen, und richtet sich an Entwicklungsumgebungen, die lange Aufgabenzyklen, häufige Tool-Nutzung und höhere Anforderungen an Stabilität und Konsistenz beinhalten.

Aufbauend auf GLM-4.6 mit Fokus auf komplexe Entwicklung

GLM-4.7 ist ein Schritt nach vorn gegenüber GLM-4.6 mit verbesserten Funktionen für Entwickler. Es bietet robuste Unterstützung für Coding-Workflows, komplexes Denken und agentenähnliche Ausführung, wodurch das Modell selbst bei langen, mehrstufigen Aufgaben eine größere Konsistenz sowie ein stabileres Verhalten bei der Interaktion mit externen Tools aufweist. Für Entwickler bedeutet dies, dass GLM-4.7 ein zuverlässiges Tool für die tägliche Produktion ist.

Die Verbesserungen gehen über die technische Leistung hinaus. GLM-4.7 erzeugt auch natürliche und ansprechende Ausgaben für Konversations-, Schreib- und Rollenspielszenarien und entwickelt GLM zu einem kohärenten Open-Source-System weiter. 

Entwickelt für reale Entwicklungs-Workflows

Die Erwartungen an die Modellqualität sind zu einem zentralen Fokus für Entwickler geworden. Zusätzlich zum Befolgen von Prompts oder Plänen muss ein Modell die richtigen Tools aufrufen und bei langen, mehrstufigen Aufgaben konsistent bleiben. Wenn sich Aufgabenzyklen verlängern, können selbst kleinere Fehler weitreichende Auswirkungen haben, die Debugging-Kosten in die Höhe treiben und Lieferzeiten verlängern. GLM-4.7 wurde unter Berücksichtigung dieser realen Einschränkungen trainiert und bewertet.

In mehrsprachigen Programmier- und terminalbasierten Agentenumgebungen zeigt das Modell eine größere Stabilität über erweiterte Workflows hinweg. Es unterstützt bereits „denke-dann-handle"-Ausführungsmuster innerhalb weit verbreiteter Coding-Frameworks wie Claude Code, Cline, Roo Code, TRAE und Kilo Code und richtet sich enger daran aus, wie Entwickler komplexe Aufgaben in der Praxis angehen.

Z.ai bewertete GLM-4.7 anhand von 100 realen Programmieraufgaben in einer auf Claude Code basierenden Entwicklungsumgebung, die Frontend-, Backend- und anweisungsfolgende Szenarien abdeckte. Im Vergleich zu GLM-4.6 liefert das neue Modell deutliche Verbesserungen bei den Aufgabenabschlussraten und der Verhaltenskonsistenz. Dies reduziert die Notwendigkeit wiederholter Prompt-Anpassungen und ermöglicht es Entwicklern, sich direkter auf die Lieferung zu konzentrieren. Aufgrund seiner exzellenten Ergebnisse wurde GLM-4.7 als Standardmodell für den GLM Coding Plan ausgewählt.

Zuverlässige Leistung bei Tool-Nutzung und Coding-Benchmarks

Über eine Reihe von Code-Generierungs- und Tool-Nutzungs-Benchmarks hinweg liefert GLM-4.7 eine wettbewerbsfähige Gesamtleistung. Bei BrowseComp, einem auf webbasierte Aufgaben fokussierten Benchmark, erreicht das Modell einen Score von 67,5. Bei τ²-Bench, das die interaktive Tool-Nutzung bewertet, erzielt GLM-4.7 einen Score von 87,4, das bisher höchste berichtete Ergebnis unter öffentlich verfügbaren Open-Source-Modellen.

Bei wichtigen Programmier-Benchmarks einschließlich SWE-bench Verified, LiveCodeBench v6 und Terminal Bench 2.0 leistet GLM-4.7 auf oder über dem Niveau von Claude Sonnet 4.5 und zeigt deutliche Verbesserungen gegenüber GLM-4.6 in mehreren Dimensionen.

Auf Code Arena, einer großangelegten Blind-Evaluation-Plattform mit mehr als einer Million Teilnehmern, belegt GLM-4.7 den ersten Platz unter Open-Source-Modellen und hält die Spitzenposition unter in China entwickelten Modellen.

Besser vorhersagbares und kontrollierbares Denken

GLM-4.7 führt eine feinkörnigere Kontrolle darüber ein, wie das Modell durch langwierige und komplexe Aufgaben denkt. Da sich künstliche Intelligenzsysteme in Produktions-Workflows integrieren, sind solche Fähigkeiten zu einem zunehmenden Fokus für Entwickler geworden. GLM-4.7 ist in der Lage, Konsistenz in seinem Denken über mehrere Interaktionen hinweg aufrechtzuerhalten und gleichzeitig die Tiefe des Denkens entsprechend der Aufgabenkomplexität anzupassen. Dies macht sein Verhalten innerhalb agentenbasierter Systeme im Laufe der Zeit vorhersagbarer. Darüber hinaus erforscht Z.ai aktiv neue Wege zur Bereitstellung von KI im großen Maßstab, während es die GLM-Serie entwickelt und verfeinert.

Verbesserungen bei der Frontend-Generierung und allgemeinen Fähigkeiten

Über die funktionale Korrektheit hinaus zeigt GLM-4.7 ein deutlich ausgereifteres Verständnis von visueller Struktur und etablierten Frontend-Design-Konventionen. Bei Aufgaben wie der Generierung von Webseiten oder Präsentationsmaterialien neigt das Modell dazu, Layouts mit konsistenterem Abstand, klarerer Hierarchie und kohärenteren Stilen zu produzieren, was den Bedarf an manuellen Überarbeitungen nachgelagert reduziert.

Gleichzeitig haben Verbesserungen in der Konversationsqualität und im Schreibstil die Bandbreite der Anwendungsfälle des Modells erweitert. Diese Änderungen machen GLM-4.7 besser geeignet für kreative und interaktive Anwendungen.

Ökosystemintegration und offener Zugang

GLM-4.7 ist über die BigModel.cn API verfügbar und vollständig in die Z.ai Full-Stack-Entwicklungsumgebung integriert. Game-Entwickler und Partner im globalen Ökosystem haben den GLM Coding Plan bereits in ihre Tools integriert, einschließlich Plattformen wie TRAE, Cerebras, YouWare, Vercel, OpenRouter und CodeBuddy. Die Einführung über Entwickler-Tools, Infrastrukturanbieter und Anwendungsplattformen hinweg deutet darauf hin, dass GLM-4.7 in breitere Engineering- und Produktnutzung eingesetzt wird.

Z.ai wird das „weltweit erste börsennotierte Large-Model-Unternehmen"

Z.ai hat angekündigt, dass es darauf abzielt, das weltweit erste börsennotierte Large-Model-Unternehmen zu werden, indem es an der Stock Exchange of Hong Kong gelistet wird. Dieser geplante Börsengang markiert das erste Mal, dass Kapitalmärkte ein börsennotiertes Unternehmen begrüßen werden, dessen Kerngeschäft die unabhängige Entwicklung von AGI-Grundlagenmodellen ist.

In den Jahren 2022, 2023 und 2024 erzielte Z.ai einen Umsatz von jeweils 57,4 Millionen RMB (~8,2 Millionen USD), 124,5 Millionen RMB (~17,7 Millionen USD) und 312,4 Millionen RMB (~44,5 Millionen USD). Zwischen 2022 und 2024 erreichte die durchschnittliche jährliche Umsatzwachstumsrate (CAGR) des Unternehmens 130%. Der Umsatz für die erste Hälfte von 2025 betrug 190 Millionen RMB (~27 Millionen USD), was drei aufeinanderfolgende Jahre der Umsatzverdopplung markiert. Während des Berichtszeitraums war das Large-Model-bezogene Geschäft des Unternehmens sein wichtigster Wachstumstreiber.

GLM-4.7-Verfügbarkeit

Standardmodell für Coding Plan: https://z.ai/subscribe

Jetzt ausprobieren: https://chat.z.ai/

Weights: https://huggingface.co/zai-org/GLM-4.7

Technical blog: https://z.ai/blog/glm-4.7

Über Z.ai

Z.ai wurde 2019 gegründet und entstand aus der Kommerzialisierung technologischer Errungenschaften an der Tsinghua-Universität. Sein Team sind Pioniere bei der Einführung von Large-Model-Forschung in China. Unter Nutzung seiner ursprünglichen GLM (General Language Model) Pre-Training-Architektur hat Z.ai ein Full-Stack-Modellportfolio aufgebaut, das Sprache, Code, Multimodalität und intelligente Agenten abdeckt. Seine Modelle sind mit mehr als 40 im Inland produzierten Chips kompatibel, was es zu einem der wenigen chinesischen Unternehmen macht, deren technische Roadmap mit globalen Top-Standards Schritt hält.

Cision Originalinhalt anzeigen, um Multimedia herunterzuladen:https://www.prnewswire.com/news-releases/zai-releases-glm-4-7-designed-for-real-world-development-environments-cementing-itself-as-chinas-openai-302649821.html

QUELLE Z.ai

Marktchance
Sleepless AI Logo
Sleepless AI Kurs(AI)
$0.03896
$0.03896$0.03896
+0.36%
USD
Sleepless AI (AI) Echtzeit-Preis-Diagramm
Haftungsausschluss: Die auf dieser Website veröffentlichten Artikel stammen von öffentlichen Plattformen und dienen ausschließlich zu Informationszwecken. Sie spiegeln nicht unbedingt die Ansichten von MEXC wider. Alle Rechte verbleiben bei den ursprünglichen Autoren. Sollten Sie der Meinung sein, dass Inhalte die Rechte Dritter verletzen, wenden Sie sich bitte an service@support.mexc.com um die Inhalte entfernen zu lassen. MEXC übernimmt keine Garantie für die Richtigkeit, Vollständigkeit oder Aktualität der Inhalte und ist nicht verantwortlich für Maßnahmen, die aufgrund der bereitgestellten Informationen ergriffen werden. Die Inhalte stellen keine finanzielle, rechtliche oder sonstige professionelle Beratung dar und sind auch nicht als Empfehlung oder Billigung von MEXC zu verstehen.