Files / 新興技術

人工知能の主権は可能か?自律と相互依存のバランスを求めて

本報告書は、ブルッキングス研究所と欧州政策研究センターの共同研究により作成され、各国が主権を追求する背景要因、戦略的アプローチ、および構造的限界を詳細に分析し、「管理された相互依存」という代替的な政策枠組みを提案しています。

Detail

Published

07/03/2026

主要セクションタイトルのリスト

  1. 序論
  2. 第1部:AI主権とは何か?
  3. AI主権の推進要因
  4. 各国のAI主権への対応
  5. 第2部:AI主権の戦略
  6. 絶対的なAI主権が達成不可能な理由
  7. 管理された相互依存を選ぶ理由
  8. 管理された相互依存の実践
  9. 結論
  10. 付録A:分類データと各国ランキング
  11. 付録B:AI技術スタックの詳細説明

文書概要

人工知能(AI)が世界的な公共政策と議論の中心的存在として浮上するにつれ、AI主権は多くの政策立案者の語彙の一部となっている。この概念は、重要インフラ、データ、ガバナンスルールに関する戦略的、経済的、文化的自律性への主張を結びつけている。その懸念は多様な目的から生じており、政府の正当な利益を反映する一方で、逆効果な考慮事項も含み得る。AIは、国境を越えた研究協力、複雑なサプライチェーン、情報技術ネットワーク、そして人間の知識と活動を反映する膨大なデータなど、グローバルな基盤の上に構築されている。いかなる国もこれと完全に切り離すことはできない。本報告書は、AI主権の合理的な目標を達成するために、これらの相互依存関係をどのように理解し管理すべきかを探ることを目的としている。

AI開発の潜在的影響とその急速な普及は、世界的なデジタル主権への懸念を悪化させ、さらなる緊急性を与えている。米国と中国のAI開発と展開における支配的地位、およびこれら2つのグローバル勢力間の地政学的競争は、他の国々に格差を縮小し板挟みを避けようとする動機を与えている。各国のAIコンピューティング能力、データ、モデルに関する野心は多様な形をとり、AI主権戦略を通じて、セキュリティ、レジリエンス、経済的競争力、文化的・言語的包摂性を強化することを目指している。AI主権イニシアチブのリーダーであるインドが2026年2月にAIインパクトサミットを主催する予定であり、この問題は国際舞台に躍り出ることになる。

各国がAIシステムに対する自律性を求めるのには正当な理由がある。複数言語のサポートは間違いなくAIの有用性を高め、より広範な人々がその知識と恩恵にアクセスできるようにする。国内でのAIシステムの開発または運用は社会的利益をもたらし、しばしば国家安全保障および国内外での競争に必要不可欠と見なされる。しかし、これらの利益は必然的なものではない。その複雑さとコストは実行不可能または非効率をもたらす可能性があり、その性能、レジリエンス、セキュリティは国際的な代替案に及ばない可能性もある。したがって、主権的AIシステムは、座礁資産化または過小利用につながる恐れがある。逆に、主権的AIシステムは、デジタル権威主義の道具となったり、グローバルな影響力を持つ一部の国々が既存の支配的地位を強化または拡大するための戦略となる可能性もある。

本報告書の中心的な主張は、ほぼすべての国にとって、フルスタックのAI主権を達成することは構造的に不可能であるということである。AIは国境を越えた技術スタックであり、鉱物、エネルギー、コンピューティングハードウェア、ネットワーク、デジタルインフラ、データ資産、モデル、アプリケーション、そして人材とガバナンスといった横断的エンパワーメント要因に至るまで、高度に集中したボトルネックが存在する。絶対的な主権の追求は、必然的に市場の分断、標準の分裂、そして重複したまたは無効な公共投資につながるであろう。

これに基づき、報告書は、管理された相互依存という現実的な代替経路を提案する。このアプローチは自給自足を追求するのではなく、AI技術スタックの各層にわたるリスクを軽減するための戦略的同盟とパートナーシップに依存する。各国は、技術スタックの層ごとに依存関係をマッピングし、実行可能な介入を優先し、サプライヤーとパートナーの多様化を図り、技術標準、調達、ガバナンスメカニズムを通じて相互運用性と移植性を組み込むことによって、管理された相互依存を実践することができる。適切に実施されれば、管理された相互依存は、オープンな市場と国境を越えた協力の利点を維持しながら、国家のレジリエンスと自律的な行動能力を強化することができる。

報告書は最後に、AI主権は複雑なトレードオフを提示し、自国のAI製品の普及を求める米国や中国を含むグローバルなAIアクター、そして自前のAIシステムを望む多くの他の国々に対して、一連の重要な疑問を投げかけていると指摘する:国内AIシステムの経済的利益を享受しながら、非効率な投資、不十分な性能、競争力の低下をどのように回避するか?各国は、AI主権と安全保障などの分野における国際協力をどのように調整すべきか?政府は、主権的AIシステムが人権を保護し、デジタル権威主義の道具とならないことをどのように保証できるか?各国は、グローバルなAI開発とガバナンスを促進する形で、これらの目標をどのように管理すべきか?これらの問いへの答えが、将来のグローバルAIエコシステムの構造と安定性を決定づけることになる。