中国のAIスタートアップDeepSeekが2025年12月2日、最新モデル「DeepSeek-V3.2」を発表した。同時に推論特化型の「DeepSeek-V3.2 Speciale」も公開している。OpenAIのGPT-5やGoogleのGemini 3 Proと同等の性能を持つ。API料金は10分の1から30分の1だ。
驚異的な性能と価格のギャップ
DeepSeek-V3.2 Specialeは国際数学オリンピックレベルの問題で96.0%の正解率を記録した。ハーバード・MIT数学トーナメントでは99.2%を達成している。GPT-5 High(88.3%)を大きく上回る結果だ。
ソフトウェア開発の実務を想定したSWE-bench Verifiedでは77.2%を記録した。GPT-5 High(74.9%)とGemini 3.0 Pro(76.2%)を抑えてトップとなった。
価格面では、入力100万トークンあたり0.14〜0.27米ドル、出力が0.28〜0.40米ドルと推定される。GPT-5は入力1.25ドル、出力10.00ドルだ。10倍から30倍の価格差がある。月間1億トークンを処理する企業の場合、GPT-5では月100万バーツ以上かかる。DeepSeekでは3〜4万バーツで済む計算だ。
技術的革新の核心
DeepSeek-V3.2の技術革新は「DeepSeek Sparse Attention(DSA)」にある。従来のTransformerモデルではコンテキスト長の二乗に比例して計算量が増加する問題があった。DSAは重要なトークンのみを動的に選択する。これで計算複雑性を大幅に削減した。
「Lightning Indexer」という軽量コンポーネントを使う。処理すべきトークンを選択する仕組みだ。128,000トークンという巨大なコンテキストウィンドウを持ちながら、競合他社より圧倒的に低いコストで運用できている。
もう一つの重要な技術がMixture-of-Experts(MoE)アーキテクチャだ。総パラメータ数は6,710億から6,850億という巨大なモデルだ。しかし推論時にアクティブになるパラメータは約370億に過ぎない。入力されたトークンごとに最も適切な「専門家」ネットワークが動的に選択される。
OpenAIに「コードレッド」発令
DeepSeekの急速な追い上げは欧米企業に深刻な危機感をもたらしている。複数の報道によれば、OpenAIのCEOサム・アルトマン氏は社内に「コードレッド(緊急事態)」を発令した。
背景にはDeepSeekの「安価で高性能な推論」がある。OpenAIの主要な収益源であるAPIビジネスを浸食し始めている。コスト意識の高い開発者や企業が高額なGPT-5からDeepSeekへ移行する動きが観測されている。ChatGPTのトラフィック減少の一因ともなっている。
AI業界全体が「性能競争」から「コスト効率競争」へとシフトしつつある。ハードウェアコストの償却が終わっていない欧米企業にとっては厳しい局面だ。
輸出規制のパラドックス
米国政府はNvidiaのH100などの最先端AIチップの対中輸出を規制してきた。DeepSeekは規制対象外のチップや在庫のH800を使用した。ハードウェアのハンディキャップを「アルゴリズムの革新」で克服している。
Anthropic CEOのDario Amodei氏はDeepSeekの成功が輸出規制の失敗を意味するものではないとしている。同時に中国企業が制約下で驚異的な適応能力を見せたことは認めている。ハードウェアの制約がかえって効率的なアーキテクチャ開発を強制した可能性がある。
DeepSeek-V3のフルトレーニングに要した計算資源はH800 GPUで278.8万時間だった。GPT-4の推定トレーニングコストの数分の1から十分の1程度と推測されている。
弱点と課題
DeepSeek-V3.2にも明確な弱点が存在する。MMLU-ProやGPQA Diamondといった広範な知識を問うベンチマークではGemini 3.0 Proが依然として優位を保っている。Googleが持つ検索インデックスや膨大なマルチモーダルデータセットの優位性が反映された結果だ。
もう一つの課題は推論コストだ。Specialeモデルが高い精度を出す背景には「長考」がある。AIME 2025においてSpecialeは回答に平均23,000トークンを消費した。Gemini 3.0 Proは15,000トークン、GPT-5 Highは13,000トークンだった。API利用時の従量課金コストや応答時間の観点では課題となる。
企業への影響と対応
DeepSeekの登場はAI活用のコストハードルを大幅に下げる。これまで高コストゆえに採算が合わなかった用途でも最先端の推論能力が利用可能になる。
一方でDeepSeekのモデルは中国の国内法に準拠している。特定の政治的トピックに対して検閲が行われている可能性がある。商用利用におけるセキュリティ対策とリスク評価が必要だ。
実務的にはハイブリッドな運用が現実的な選択肢となる。簡単なタスクやコスト重視の場面ではDeepSeekを使う。最高レベルの機密性や広範な知識が必要な場面ではGeminiやGPT-5を利用する選択肢がある。
2025年12月のDeepSeek-V3.2発表はAI業界の競争軸を「性能」から「効率性」へと移行させる転換点となった。圧倒的な計算リソースに頼る時代は終わりつつある。アルゴリズムの工夫による効率化が競争の主戦場となっている。
参考記事リンク
- DeepSeek-V3.2 – Simon Willison’s Weblog
- DeepSeek just gave away an AI model that rivals GPT-5 – and it could change everything
- The Complete Guide to DeepSeek Models: V3, R1, V3.1, V3.2 and Beyond – BentoML
- DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models
- DeepSeek’s latest open models rival GPT-5.1 and Gemini 3 Pro – DeepLearning.AI


