這是字典一個(gè)關(guān)于 AI 底層邏輯重構(gòu)的時(shí)刻。
長(zhǎng)期以來(lái),梁文論文Transformer 架構(gòu)被困在一個(gè)昂貴的鋒署分悖論中:我們用著最先進(jìn)的 GPU 算力,去讓 AI 模型 " 死記硬背 " 那些查字典就能知道的名新模型靜態(tài)知識(shí)。
DeepSeek 梁文鋒團(tuán)隊(duì)與其北大合作者在今日凌晨發(fā)布的配本重磅論文《Conditional Memory via Scalable Lookup》,徹底打破了這一僵局。計(jì)算記憶他們提出了一種全新的后智Engram(印跡)模塊,在傳統(tǒng)的商爆 " 條件計(jì)算 "(MoE)之外,開(kāi)辟了第二條稀疏化戰(zhàn)線——" 條件記憶 "。表劇
這不只是字典一次技術(shù)修補(bǔ),而是梁文論文一場(chǎng)關(guān)于模型 " 腦容量 " 的供給側(cè)改革。它證明了:當(dāng)我們將 " 記憶 " 從 " 計(jì)算 " 中剝離,鋒署分把該背的名新模型交給 " 字典 ",把該算的配本交給大腦,AI 的計(jì)算記憶推理能力將迎來(lái)反直覺(jué)的爆發(fā)式增長(zhǎng)。
作者:休閑







