速報2026-03-28

DeepSeek V4が1兆パラメータで登場──中国発オープンソースLLMが再びフロンティアに

4つの技術革新でGPT-5クラスの性能を実現。オープンソース陣営に大きな追い風

by AITAKE 編集部·4 min·
#DeepSeek#オープンソース#LLM
DeepSeek V4が1兆パラメータで登場──中国発オープンソースLLMが再びフロンティアに

中国のAIスタートアップDeepSeekは、1兆パラメータ規模の大規模言語モデル「DeepSeek V4」を公開した。オープンソースとして公開されたモデルとしては過去最大規模であり、複数のベンチマークでGPT-5.4やGemini 3.1に匹敵するスコアを記録している。中国発のオープンモデルが再び業界に衝撃を与えた格好だ。

4つの技術革新

DeepSeek V4の技術的な特徴は大きく4つある。第一に、新しいMixture of Experts(MoE)アーキテクチャにより、1兆パラメータのうち推論時にアクティブになるのは約1400億パラメータに抑えられ、計算効率が大幅に向上した。第二に、128Kトークンのコンテキストウィンドウを実現し、長文書の処理能力が飛躍的に高まった。第三に、マルチモーダル対応が標準装備され、テキスト・画像・コードを統合的に処理できる。第四に、新たな学習手法「Reinforced Self-Play」により、モデルが自己対話を通じて推論能力を強化する仕組みが導入された。

POINT

DeepSeek V4はApache 2.0ライセンスで公開。商用利用も自由であり、企業のローカル環境でのデプロイが可能。ただし米国の輸出規制との関係には注意が必要。

AITAKE編集部の見方

DeepSeek V4は、オープンソースAIの進化が止まらないことを改めて証明した。特にMoEアーキテクチャの効率化は目覚ましく、実質的な推論コストを大幅に下げることで、中小企業やスタートアップにもフロンティアモデルへのアクセスを開放している。一方で、米中間のAI技術競争という地政学的な文脈も無視できない。米国の半導体輸出規制下でこのレベルのモデルが開発されたことは、規制の実効性に疑問を投げかけている。日本のAI開発者にとっては、高性能なオープンモデルの選択肢が増えたことを素直に歓迎すべきだろう。

Source: DeepSeek