• 正文
    • 01.基礎模型GLM-4-32B:強化代碼能力,擅長動畫繪制、網(wǎng)頁設計、SVG生成
    • 02.推理模型GLM-Z1-32B:部分性能比肩671B DeepSeek-R1,極速版快至200 Tokens/s
    • 03.沉思模型GLM-Z1-Rumination:AI中的“博士生”,自主完成復雜研究任務
    • 04.結語:推理模型迎來開源盛世
  • 相關推薦
申請入駐 產(chǎn)業(yè)圖譜

“大模型六小虎”首個IPO,來了!

04/15 15:50
525
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

作者 | ?ZeR0

編輯 | ?漠影

剛剛開源32B推理模型,比肩滿血版DeepSeek R1,API定價低至1/30。

智東西4月15日報道,“大模型六小虎”的第一個IPO來了!中國證監(jiān)局官網(wǎng)顯示,大模型獨角獸北京智譜華章科技股份有限公司(簡稱“智譜”)已在北京證監(jiān)局辦理輔導備案,輔導機構為中國國際金融股份有限公司。

智譜成立于2019年6月,注冊資本為3622萬元,法定代表人是其董事長劉德兵,無控股股東,實際控制人為唐杰、劉德兵。清華大學計算機系教授是智譜的創(chuàng)始人和靈魂人物,擔任智譜首席科學家。唐杰直接持股7.4081%,劉德兵直接持股0.2554%,兩人通過持股平臺合計控制智譜17.3966%表決權,通過一致行動人合計持有智譜12.1600%表決權,綜上合計控制智譜36.9647%表決權。今日,智譜剛剛發(fā)布新一代開源模型GLM-4-32B-0414系列,包含基座(Chat)、推理沉思模型權重,有9B和32B兩個尺寸,并遵循寬松的MIT License,完全開源,不限制商用,無需申請。

開源地址:github.com/THUDM/GLM-4/其中,GLM-Z1-32B-0414推理模型以320億個參數(shù),在部分任務的性能表現(xiàn)上,可媲美參數(shù)高達6710億的DeepSeek-V3/R1。

同時,智譜啟用全新域名“z.ai”。該平臺已集成基座、推理、沉思三類GLM模型,即日起面向全球用戶免費開放使用。z.ai將持續(xù)演進為下一代的AI應用平臺。

新版基座模型和推理模型已上線智譜MaaS平臺,提供API。本次上線的基礎模型有兩個版本,包括GLM-4-Air-250414和GLM-4-Flash-250414,前者定價0.5元/百萬tokens,后者完全免費。上線的推理模型有三個版本:1、GLM-Z1-Flash(免費版)完全免費,降低模型使用門檻。2、GLM-Z1-AirX(極速版):國內(nèi)最快推理模型,推理速度最高可達200tokens/s8倍于常規(guī)速度,定價5元/百萬tokens

3、GLM-Z1-Air(高性價比版):定價0.5元/百萬tokens,僅為DeepSeek-R1輸出定價的1/30,適合高頻調(diào)用場景。相比之下,DeepSeek-R1目前在標準時段的輸出定價是16元/百萬tokens,輸入定價是4元/百萬tokens(緩存未命中)和1元/百萬tokens(緩存命中);在優(yōu)惠時段價格(北京時間00:30-08:30)的輸出定價是4元/百萬tokens,輸入定價是1元/百萬tokens(緩存未命中)和0.25元/百萬tokens(緩存命中)。

01.基礎模型GLM-4-32B:強化代碼能力,擅長動畫繪制、網(wǎng)頁設計、SVG生成

基礎模型GLM-4-32B-0414以320億個參數(shù),性能比肩更大參數(shù)量的國內(nèi)外主流模型。

GLM-4-32B-0414在工程代碼、Artifacts生成、函數(shù)調(diào)用、搜索問答及報告等基準測試中取得了不錯的表現(xiàn),部分表現(xiàn)可媲美更大參數(shù)規(guī)模的GPT-4o、DeepSeek-V3-0324(671B)等模型。

該模型經(jīng)過了15T高質(zhì)量數(shù)據(jù)的預訓練,其中包含大量推理類的合成數(shù)據(jù),為后續(xù)的強化學習擴展打下了基礎。在后訓練階段,除了針對對話場景進行了人類偏好對齊外,智譜還通過拒絕采樣和強化學習等技術強化了模型在指令遵循、工程代碼、函數(shù)調(diào)用方面的效果,旨在加強Agents(智能體)任務所需的原子能力。GLM-4-32B-0414還強化了代碼生成能力,可生成更復雜的單文件代碼。z.ai的對話模式內(nèi)建了預覽功能,支持對生成的HTML和SVG進行可視化查看,便于用戶評估生成結果和進行迭代優(yōu)化。在z.ai上已經(jīng)可以體驗這些功能,比如輸入“用HTML模擬太陽系的行星運動”的指令,你可以在頁面右側看到直觀的動態(tài)演示:

做個HTML彈珠打磚塊小游戲亦是不在話下,在頁面左側流暢地輸出400多行代碼和游戲簡介后,右側的小游戲就能上手開玩。

或者上點難度,要求包括:設計一個移動端機器學習平臺的UI,其中要包括訓練任務,存儲管理,和個人統(tǒng)計界面;個人統(tǒng)計界面要用圖表展示用戶過去一段時間的各類資源使用情況;使用Tailwind CSS來美化頁面,把這3個手機界面平鋪展示到一個HTML頁面中。最終,該模型輸出的成品審美在線:

你也可以讓GLM-4-32B-0414設計一個支持自定義函數(shù)繪制的繪圖板,可添加和刪除自定義函數(shù),并為函數(shù)指定顏色。

或是讓它用svg展示一個大語言模型的訓練流程:

GitHub頁面還給出了模擬小球碰撞的動畫繪制示例:

02.推理模型GLM-Z1-32B:部分性能比肩671B DeepSeek-R1,極速版快至200 Tokens/s

GLM-Z1-32B-0414是一款具有深度思考能力的推理模型。它是在GLM-4-32B-0414的基礎上,采用冷啟動和擴展強化學習策略,并針對數(shù)學、代碼和邏輯等任務進一步了深度優(yōu)化訓練。相比基礎模型,GLM-Z1-32B-0414顯著提升了數(shù)理能力和解決復雜任務的能力。在訓練過程中,智譜引入了基于對戰(zhàn)排序反饋的通用強化學習,進一步提升了模型的通用能力。GLM-Z1-32B-0414以320億個參數(shù),在部分任務的性能表現(xiàn)上,比肩參數(shù)量多達6710億的DeepSeek-R1相媲美。在AIME 24/25、LiveCodeBench、GPQA等基準測試中,GLM-Z1-32B-0414展現(xiàn)了較強的數(shù)理推理能力,能夠應對更廣泛的復雜任務。

沿用上述技術,智譜訓練了一個9B的小尺寸模型GLM-Z1-9B-0414。雖然參數(shù)量更少,GLM-Z1-9B-0414在數(shù)學推理及通用任務上依然表現(xiàn)出色,整體性能已躋身同尺寸開源模型的領先水平。

尤其是在資源受限的場景下,該模型可以很好地在效率與效果之間取得平衡,支持輕量化部署。智譜針對推理模型優(yōu)化了量化、投機采樣技術,改進了推理框架和調(diào)度平臺的性能,降低長思考對KV Cache顯存的壓力,可在不影響性能的情況下,實現(xiàn)更快的推理速度和更大并發(fā)量,GLM-Z1-AirX(極速版)的推理速度可達到200 token/s。在z.ai上可使用GLM-Z1-32B,體驗高效推理能力。推理模型不僅會輸出思維鏈,還能通過Artifacts功能生成可上下滑動瀏覽的可視化頁面。

03.沉思模型GLM-Z1-Rumination:AI中的“博士生”,自主完成復雜研究任務

沉思模型GLM-Z1-Rumination-32B-0414代表了GLM對通用人工智能(AGI)未來形態(tài)的下一步探索。不同于一般的深度思考模型,沉思模型通過更長時間的深度思考來解決更開放和更復雜的問題,還能在深度思考過程中結合搜索工具處理復雜任務,并利用多種規(guī)則型獎勵來指導和擴展端到端強化學習訓練。沉思模型支持「自主提出問題—搜索信息—構建分析—完成任務」的完整流程。其技術底座源自強化學習擴展與端到端的深度研究(Deep Research)策略訓練,具備博士級研究能力的潛力。沉思模型在研究型寫作復雜檢索任務上的能力得到了顯著提升,并能夠更好地應對開放問題。z.ai上可免費體驗GLM-Z1-Rumination-0414,例如讓它分析北京、上海、杭州、深圳的AI發(fā)展對比情況,以及未來的發(fā)展規(guī)劃。

 

04.結語:推理模型迎來開源盛世

自年初DeepSeek爆紅以來,推理模型發(fā)展飛速,不僅逐漸從閉源轉向開源,而且更加關注高效和性價比。昨日下午,DeepSeek在自家open-infra-index庫中發(fā)布了一份題為“開源DeepSeek推理引擎的路徑”的文檔,宣布將開源內(nèi)部推理引擎,并與開源社區(qū)建立更廣泛的合作。今日,智譜新一代GLM-4-32B-0414系列開源模型組團上線,并通過z.ai向大眾開放。全新推理模型同時提供免費版、高性價比版、極速版,以更經(jīng)濟實惠的API價格,為開發(fā)者提供了又一款有競爭力的模型選擇。這些開源進展將催化技術創(chuàng)新的擴散,推動AI普惠,并深刻影響AI產(chǎn)業(yè)發(fā)展進程。

相關推薦