DeepSeekが新AI「Engram」公開、VRAM節約へ“条件付きメモリ”提案
AIの大規模化で課題になりがちな「メモリ(VRAM)不足」を、設計から解きほぐす――DeepSeekが2026年1月13日(火)、新たな研究成果を示す共同論文とコード「Engram」を公開しました。
何が発表されたのか:カギは「conditional memory(条件付きメモリ)」
DeepSeek(世界有数のオープンウェイトAIモデルの開発チーム)は、巨大モデルを動かす際に必要となる貴重なビデオメモリ(VRAM)を大幅に抑えるための新しいアーキテクチャを提案しました。論文は創業者の梁文鋒(Liang Wenfeng)氏が主導したとされています。
中核となる技術は、論文内で「conditional memory」と呼ばれる仕組みです。ポイントは、AIの中身を大きく「ロジック(推論の骨格)」と「知識(大量の情報)」に分け、知識の大部分をより安価で扱いやすいハードウェア側に置けるようにする、という発想にあります。
RAGより“ほぼ即時”の検索体験を目指す
現在よく使われる手法として、外部データベースから関連情報を取り出して回答に反映するRAG(検索拡張生成)があります。ただ、RAGは実装や運用によっては「検索→取り込み→生成」の手順が重く感じられることもあります。
DeepSeekの説明では、今回の方式は知識ベースの検索がほぼ瞬時に行えるとされ、たとえるなら「質問を思い浮かべた瞬間、必要な本がページを開いたまま手元に現れる」ような体験だといいます。
公開されたコード名は「Engram」
DeepSeekはこの技術の公式コードを「Engram」として公開しました。論文は、Engramについて次のように述べています。
- 知識容量(知識を保持できる量)を効果的にスケールできる
- 知識集約型のタスクで性能向上が期待できる
- 学習(training)と推論(inference)の効率を高く保つ
私たちの体験はどう変わる?:安く、速く、会話を忘れにくく
ユーザー視点での含意はシンプルです。VRAMの制約が緩むほど、コストや遅延(待ち時間)の圧力は下がりやすくなります。さらに論文の狙いどおりに「知識アクセスが軽くなる」なら、長い対話の流れも扱いやすくなり、たとえば「50プロンプト前の話をちゃんと踏まえてくれる」といった体感改善につながる可能性があります。
今後の焦点:実装の広がりと“知識”の置き場所
今回の発表は、AIの性能競争を「モデルを大きくする」だけでなく、「知識をどう持ち、どう呼び出すか」へと視線を移す内容でもあります。コードが公開されたことで、今後は実運用での扱いやすさ(知識ベースの管理、検索品質、運用設計)も含めて、どこまで現場に浸透していくかが注目点になりそうです。
Reference(s):
DeepSeek unveils new AI architecture to slash memory requirements
cgtn.com








