今日,深度求索(DeepSeek)正式宣布全新系列大模型 DeepSeek-V4 預(yù)覽版 上線并同步開源。該系列突破性地支持 100萬字(1M)超長上下文,在智能體(Agent)協(xié)同能力、世界知識儲備及復(fù)雜邏輯推理性能上,均實(shí)現(xiàn)國內(nèi)與開源領(lǐng)域的全面領(lǐng)先。即日起,用戶可通過官網(wǎng) chat.deepseek.com 或官方 App 體驗,開發(fā)者亦可通過更新 API 參數(shù)無縫接入。

雙版本矩陣:Pro 旗艦對標(biāo)頂尖,F(xiàn)lash 主打高效經(jīng)濟(jì)
![]()
![]()
為滿足多元應(yīng)用場景,DeepSeek-V4 劃分為 Pro 與 Flash 兩大版本:
DeepSeek-V4-Pro(高性能旗艦):Agent 能力實(shí)現(xiàn)跨越式升級。在 Agentic Coding 評測中登頂開源模型榜首,內(nèi)部實(shí)際交付質(zhì)量已接近頂尖閉源模型 Opus 4.6(非思考模式),綜合體驗優(yōu)于 Sonnet 4.5,與 Opus 4.6 思考模式仍存在一定差距。在世界知識測評中大幅領(lǐng)先開源陣營,僅稍遜于 Gemini-Pro-3.1;在數(shù)學(xué)、STEM 及競賽型代碼評測中超越所有已公開開源模型,推理性能比肩全球頂級閉源產(chǎn)品。
DeepSeek-V4-Flash(高效經(jīng)濟(jì)版):參數(shù)量與激活規(guī)模更精簡,在保持與 Pro 版相近推理能力的同時,世界知識儲備略有縮減。憑借更低的算力需求,V4-Flash 提供更快捷、低成本的 API 服務(wù)。在簡單 Agent 任務(wù)中與 Pro 版旗鼓相當(dāng),高難度復(fù)雜任務(wù)仍有優(yōu)化空間。
![]()
架構(gòu)突破:首創(chuàng) Token 壓縮+DSA 稀疏注意力,1M 上下文成標(biāo)配
DeepSeek-V4 在底層架構(gòu)上實(shí)現(xiàn)重大創(chuàng)新。模型采用全新的 Token 維度注意力壓縮機(jī)制,結(jié)合 DSA 稀疏注意力(DeepSeek Sparse Attention),成功破解長上下文場景下的算力與顯存瓶頸。相比傳統(tǒng)方法,該架構(gòu)在維持百萬級上下文吞吐的同時大幅降低計算開銷。官方明確宣布:自即日起,1M 超長上下文將成為 DeepSeek 所有官方服務(wù)的標(biāo)準(zhǔn)配置。
生態(tài)適配與 API 升級:全面擁抱 Agent 開發(fā)流
針對主流 AI Agent 生態(tài),V4 系列已完成對 Claude Code、OpenClaw、OpenCode、CodeBuddy 等框架的深度適配,在自動化代碼生成、結(jié)構(gòu)化文檔輸出(如 PPT/報告生成)等任務(wù)中表現(xiàn)顯著提升。
行業(yè)資訊、企業(yè)動態(tài)、峰會活動可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...