AIの「レッドライン」は誰が引くのか — Anthropic対国防総省訴訟が問うガバナンスの空白
Anthropicが米国防総省を提訴した。自律型兵器と大量監視を拒否した企業に対し、政府がサプライチェーンリスクを指定するという前例のない対立。この訴訟が浮き彫りにするのは、AIの利用範囲を決める権限が誰にあるのかという根本的な問いである。
何が起きているのか
2026年3月9日、AI開発企業Anthropicが米国防総省を連邦裁判所に提訴した。直接の原因は、国防総省が同社を「サプライチェーンリスク」に指定したことである。だが、この訴訟が問うているのは一企業の法的権利にとどまらない。 AIの利用範囲を誰が決めるのか というガバナンスの根本問題である。
経緯はこうだ。Anthropicは2025年7月に国防総省と2億ドル(約300億円)の契約を結んだが、2つの「レッドライン」を設けていた。完全自律型兵器システムへの技術転用と、米国市民に対する大量監視である。2026年1月、Hegseth国防長官がAI契約に「あらゆる合法的目的」での使用を義務づけるメモランダムを発出。2月24日の直接会談でも合意に至らず、Hegsethは2月27日を期限とする最後通牒を突きつけた。
Anthropicはこれを拒否した。「我々は良心に従って彼らの要求に応じることはできない(We cannot in good conscience accede to their request)」。翌日、トランプ大統領が連邦機関にAnthropic製品の使用停止を指示し、国防総省がサプライチェーンリスク指定を発動した。
背景と文脈
AI企業と軍事利用——8年間の振れ幅
この対立を理解するには、AI業界と軍事利用の関係がこの8年でどう変遷してきたかを見る必要がある。
Google Project Maven 撤退
従業員3,100名の署名、約12名が抗議退職
JWCC 契約締結
Amazon/Google/Microsoft/Oracle — 最大90億ドル
OpenAI 軍事禁止撤廃
Usage Policyから「military and warfare」を静かに削除
Anthropic 国防総省契約
2億ドル契約。「レッドライン」(自律型兵器・大量監視の禁止)を維持
最後通牒と拒否
Hegseth長官「あらゆる合法的目的」要求 → Anthropicが拒否
提訴
サプライチェーンリスク指定 → Anthropicが連邦政府を提訴
2018年のGoogle Project Mavenは転換点であった。ドローン映像分析への AI活用に対し、3,100名の従業員が抗議署名し、約12名が退職。Googleは契約を更新せず、「AI原則」を策定した。しかしその後、同社は2022年にJWCC(Joint Warfighting Cloud Capability)の最大90億ドル契約に参加している。「原則」は掲げたが、ビジネスは止められなかった。
OpenAIの方針転換はさらに鮮明である。2024年1月、Usage Policyから「military and warfare(軍事および戦争)」の明示的禁止を静かに削除した。The Interceptの報道によれば、国防総省は禁止方針が存在していた時期からMicrosoft Azure経由でOpenAIモデルをテスト利用していた。
こうした流れのなかで、Anthropicの「拒否」は異例の行動であった。
法的争点——調達権限の逸脱か
Anthropicの法的主張は5つのCountに分かれる。行政手続法(APA)違反、合衆国憲法修正第1条(表現の自由)侵害、適正手続条項違反。
Just Security誌の分析は、国防総省の法的根拠に重大な疑問を呈している。サプライチェーンリスク指定の根拠法である合衆国法典第10編3252条(10 U.S.C. § 3252)は「調達権限」であり「制裁メカニズム」ではない。同法が想定する「リスク」とは、敵対者がシステムを転覆させる技術的脅威であって、契約条件の交渉決裂ではないのだ。
さらに矛盾がある。指定時点でClaudeは米軍・情報機関に「広範に展開」されており、指定後も最長6カ月の継続使用が許可された。「差し迫った安全保障上の脅威」という前提と、この猶予期間は整合しない。なおCNBCの報道(2026年3月5日)によれば、Claudeはすでにイランに対する軍事作戦で利用されていたとされる。このことは「自律型兵器・大量監視の禁止」というレッドラインの射程と実効性に、より根本的な問いを投げかける。
Lawfare誌はより踏み込んだ見解を示した。「この指定は最初の法的審査に耐えない」。そして、本質的な問いとして、 「議会が——国防総省やAnthropicではなく——軍事AIのルールを設定すべきである」 と論じている。
従業員が声を上げるとき
注目すべきは、競合他社の反応である。OpenAIとGoogle DeepMindの研究者30名以上がAmicus Brief(法廷助言書)に個人の立場で署名した。Google DeepMindのチーフサイエンティストJeff Dean氏を含むこの行動は、2018年のProject Maven以来の大規模な従業員アクティビズムといえる。
助言書の核心はこう述べる。「フロンティアAIシステムの展開リスクを抑制する法的枠組みが存在しない現在、AI開発者の倫理的コミットメントと、それを公に守る意思は、良いガバナンスの障害ではない」。
2026年3月時点で、Salesforce・Databricks・IBM・Cursorなど業界横断で数百名の従業員が公開書簡にも署名している。
構造を読む
三極構造のガバナンス空白
この訴訟が浮き彫りにしたのは、AI軍事利用をめぐるガバナンスの空白である。
企業の自主規制
AnthropicのRSP、Googleの「AI原則」。柔軟だが拘束力なし。RSP v3.0改訂のように、圧力下で後退するリスク
政府の行政権限
国防総省のサプライチェーンリスク指定。即時性はあるが、法的根拠の逸脱・手続き瑕疵のリスク
立法府による法整備
Lawfare誌「議会がルールを設定すべき」。民主的正統性が最も高いが、技術の進化に追いつかない
市民社会の役割: 監視・提言・第三極としての参画
企業の自主規制 は柔軟だが拘束力がない。Anthropic自身、最後通牒の翌日にResponsible Scaling Policy(RSP)v3.0を改訂し、「特定の安全ガイドラインが事前に保証されない限り新モデルの訓練を停止する」という核心的な約束を撤廃している。Time誌は「旗艦的な安全性の誓約を撤回」と報じた。ただしAnthropic側は、この改訂は国防総省との交渉とは独立した判断だと説明している。タイミングの一致は広く疑問視されているが、判断は留保される。倫理的立場とビジネス判断は、常に緊張関係にある。
政府の行政権限 は即時性があるが、法的根拠の逸脱リスクを伴う。今回の指定が法的に正当かどうかは裁判で争われることになるが、仮に正当であったとしても、「倫理的方針を理由とする制裁」という前例は、すべてのテック企業の政策発言を萎縮させうる。
立法府による法整備 は民主的正統性が最も高いが、技術の進化に追いつかない。バイデン政権のEO 14110(AI安全に関する大統領令)は2025年1月にトランプ政権が撤回。国際的にも、国連総会は2025年11月に自律型兵器規制の決議を156カ国の賛成で採択したが、米国とロシアは反対票を投じている。EU AI Actは軍事利用を免除対象としており、規制のギャップは埋まっていない。
三つのアクターのいずれも、単独ではAI軍事利用の境界線を引く正統性と実効性を備えていない。
NPO・市民社会への問い
この訴訟はAI業界内部の問題にとどまらない。
サプライチェーンリスク指定の直接的な法的影響は国防総省の調達に限定される。ただし、現時点でNPOセクターへの直接的な影響を報じた一次ソースは確認されていない。それでも以下の波及経路は論理的に想定しうる。連邦助成金を受けるNPOが国防総省の下請業者としてサービスを提供する場合(退役軍人支援や安全保障研究など)、コンプライアンス要件が波及する可能性がある。法的義務がなくとも、政府との関係を持つ組織がリスク回避的にClaude の使用を控える「萎縮効果」も想定される。
より本質的な問いは、特定のAIツールの選択が政治的信号と受け取られるリスクである。NPOがミッションに最適なツールを選択する際の自由度が、政治的文脈によって制約される可能性がある。
Lawfare誌が指摘した「議会がルールを設定すべき」という論点は、NPO・市民社会がロビイングや政策提言の場としての立法府の重要性を再認識すべきことを示唆している。企業と政府の二項対立に、公益を代表する第三極として市民社会が参画すること。これはISVDが掲げる「社会構想デザイン」の射程そのものである。
問いの所在
Anthropicが法廷で勝つか負けるかは、この訴訟の本質ではない。重要なのは、この対立が露呈させた構造的な問いである。
AI技術は同一のモデルが災害対応にも軍事偵察にも使える「デュアルユース(軍民両用)」の性質を持つ。技術そのものに軍民の区別はない。だからこそ、その利用範囲を決める権限の所在が問われている。
企業が「良心」で線を引くことの限界、政府が行政権限で線を引くことの逸脱リスク、立法府が民主的に線を引くことの遅延。三つの限界が同時に可視化されたとき、残された選択肢は、それらを補完し監視する市民社会の役割を強化することだろう。
参考文献
- Anthropic Sues Defense Department Over Supply Chain Risk Designation | Lawfare
- Congress—Not the Pentagon or Anthropic—Should Set Military AI Rules | Lawfare
- What Hegseth's "Supply Chain Risk" Designation of Anthropic Does and Doesn't Mean | Just Security
- Anthropic sues Defense Department over supply-chain risk designation | TechCrunch
- OpenAI and Google employees rush to Anthropic's defense in DOD lawsuit | TechCrunch
- Anthropic sues Pentagon over rare "supply chain risk" label | Axios
- Anthropic Drops Flagship Safety Pledge | TIME
- 156 states support UNGA resolution on autonomous weapons | Stop Killer Robots
- OpenAI Quietly Deletes Ban on Using ChatGPT for "Military and Warfare" | The Intercept
- Anthropicがアメリカ国防総省を提訴 | GIGAZINE
関連ガイド
- ステークホルダーマップ作成ガイド — 多様なアクター間の関係性を可視化するフレームワーク
- コレクティブ・インパクト設計ガイド — セクター横断の協働設計手法