メインコンテンツへスキップ
一般社団法人社会構想デザイン機構

Anthropic対国防総省 — AI企業の倫理的判断と国家安全保障が衝突するとき

ヨコタナオヤ
約7分で読めます

AI企業Anthropicが米国防総省によるClaudeの無制限軍事利用要求を拒否し、連邦政府との契約機会を全面的に失った。企業の倫理的自律と国家安全保障ニーズの衝突が突きつける、AI産業のガバナンスと責任ある開発をめぐる構造的な問いを読み解く。

XFBThreads

ざっくり言うと

  1. Anthropicが国防総省の無制限軍事利用要求を拒否し、連邦契約の全面禁止という報復を受けた
  2. OpenAIがその空白を即座に埋め、倫理的に厳格な企業ほど不利になる逆選択の構造が可視化された
  3. AI軍事利用を包括的に規制する法制度が存在せず、ガバナンスの空白が三層で露呈している

何が起きているのか

AnthropicがClaudeの無制限軍事利用要求を拒否し連邦契約を失った経緯

2018
Google Project Maven抗議(社員3,100人署名)→ 契約非更新
2024/01
OpenAI、利用規約から軍事利用禁止を削除
2024/11
Anthropic、Palantir/AWS経由で米政府機密環境にClaude提供
2025/07
国防総省とAnthropic、2年間・上限$2億のプロトタイプ契約
2026/02
Anthropic、無制限使用要求を拒否 → 連邦契約全面禁止
2026/02
OpenAI、Anthropic排除直後に国防契約を獲得
AI企業と軍事の関係 — 8年間で「倫理的抵抗」から「市場競争」へ

2026年2月末、AI企業Anthropicと米国防総省の対立が一気に表面化した。事の発端は2024年11月に遡る。AnthropicはPalantir、AWSとの三者提携を通じ、自社のAIモデルClaudeを米政府の機密ネットワーク上で運用する契約を結んだ。民間のLLM(大規模言語モデル)が米政府の機密環境で稼働する初の事例だった。2025年7月には国防総省との間で2年間・上限2億ドルのプロトタイプ契約が正式に締結されている。

転機となったのは2026年2月13日の報道である。Claudeがベネズエラのマドゥロ大統領拘束作戦に使用されていたことが明らかになった。Anthropicは当初からAI利用に二つのレッドラインを設けていた。完全自律型兵器への使用禁止と、米国民に対する大規模国内監視への使用禁止である。マドゥロ作戦への関与は、この線引きの実効性に疑問を投げかけた。

2月24日、ヘグセス国防長官がAmodei CEOに書簡を送付し、2月27日を期限として「全用途における無制限の使用」を要求した。3日間という異例の短期限だった。Amodeiは2月26日、これを拒否する声明を発表し、「in good conscience accede to the Pentagon's request(良心に照らして国防総省の要求に応じることはできない)」と明言した。

報復は即座に来た。2月27日から28日にかけて、トランプ大統領はAnthropicの連邦契約の全面禁止を指示した。根拠として「サプライチェーンリスク」指定が用いられたが、これは従来、Huaweiなど外国企業に適用されてきた枠組みであり、米国企業への適用は初めてである。同日、OpenAIが最大2億ドル規模の国防契約を獲得したと報じられた。Anthropicの排除と、その空白を埋める競合企業の契約獲得が、事実上同時に起きたことになる。

背景と文脈

AI企業と軍事利用をめぐる議論の歴史的背景と業界動向

AI企業と軍事の関係は、今回が初めての衝突ではない。原型となったのは2018年のGoogle Project Maven事件だ。国防総省のドローン映像解析にGoogleのAI技術が使用されていることが社内で問題視され、社員3,100人が抗議の署名を提出した。Googleは契約を更新せず、その後AI倫理原則を公表して「兵器またはその他の人々に危害を直接もたらすことを主な目的とする技術」への不参加を表明した。

しかし、2018年から8年が経ち、テック業界の潮流は大きく変わっている。Palantirは陸軍との100億ドル契約、Project Mavenの13億ドル契約を獲得し、AIの軍事統合を事業の中核に据えた。OpenAIは2024年1月、利用規約から軍事利用禁止条項を静かに削除し、2026年2月にはAnthropic排除の直後に国防契約を手にした。Altman CEO自身が「日和見的に見えた」と認めたとされる動きだ。米国防総省のAI予算はFY2025で18億ドルに達し、前年比40%増の急拡大を見せている。軍事AIは巨大な市場になりつつあり、倫理的判断と市場機会が正面から衝突する構図が鮮明になった。

労働者の側にも動きがある。Anthropicの排除を受けて、テック企業横断の「We Will Not Be Divided」請願が立ち上がり、Google社員約800人、OpenAI社員約100人が署名した。Google社員200人以上が経営陣に対し軍事との関係を回避するよう求める書簡を提出している。2018年のProject Mavenが一企業内の抗議だったのに対し、今回は企業の壁を越えた連帯へと広がった点が新しい。

国際的な枠組みも動いている。2024年12月、国連総会は自律型致死兵器システム(LAWS)に関する決議を166対3(反対はベラルーシ、北朝鮮、ロシア。米国は投票に不参加)の圧倒的多数で採択した。国連事務総長と赤十字国際委員会(ICRC)は2026年までに拘束力のある条約を策定するよう呼びかけている。ただし、決議に法的拘束力はなく、条約交渉は進んでいない。国家が自律型兵器の軍事的優位を手放す動機は乏しく、技術の進歩が国際規範の形成を追い越している。

構造を読む / 社会構想の種

企業倫理と国家安全保障の対立が示す構造的課題の分析

この事態は、個別企業の判断を超えた構造的な問題を三つの層で露呈させている。

倫理的制約を維持
  • レッドライン設定(自律型兵器禁止等)
  • 国防総省の無制限使用要求を拒否
  • → 連邦契約を全面禁止
倫理的制約を緩和
  • 軍事利用禁止条項を利用規約から削除
  • 排除された企業の空白を即座に獲得
  • → 最大2億ドルの国防契約
AI軍事利用の「逆選択」構造 — 倫理的に厳格な企業ほど市場から排除される力学

第一に、「倫理的自律」のコストが可視化されたことである。Anthropicはレッドラインを守る代償として連邦契約の全面禁止を受けた。一方、OpenAIはその空白に即座に入り込み、市場シェアを獲得した。つまり現行の市場構造では、倫理的に厳格な企業ほど競争上不利になるという逆選択が働く。この力学が放置されれば、AI企業群の中で「倫理的に最も緩い企業」が国家の技術基盤を独占するという帰結が待っている。市場競争が倫理の切り下げ競争(race to the bottom)に転化するリスクは、環境規制や労働基準において繰り返し観察されてきた構造と同型だ。

第二に、「サプライチェーンリスク」指定という制裁手段の転用である。この枠組みは本来、Huaweiのような外国企業からの安全保障上のリスクに対処するために設計された。それが米国企業に、しかも技術的リスクではなく「政策的不服従」を理由に適用されたことの含意は大きい。国家安全保障の論理が、企業の倫理的判断を制約する手段として機能しうることが示された。これは、AI企業だけでなく、政府と契約関係にあるすべての技術企業に萎縮効果をもたらす可能性がある。

第三に、ガバナンスの空白である。国連のLAWS決議は166対3で採択されたが、拘束力はない。米国内にはAI兵器の使用を包括的に規制する法制度が存在しない。国防総省のAI倫理原則は自主的なガイドラインにとどまり、議会による実効的な監視は機能していない。結果として、AIの軍事利用に関する意思決定は、行政府と個別企業の二者間交渉に矮小化されている。Anthropicのレッドラインは企業の自主規制であり、法的保護を伴わない。今回の事態は、自主規制が国家権力の圧力に耐えうるかという問いに対して、明確な否定を突きつけた。

「We Will Not Be Divided」請願に見られるテック労働者の企業横断的連帯は、この構造的空白を埋めるもう一つの回路として注目に値する。2018年のProject Mavenでは一企業内の抗議が契約非更新という成果をもたらした。しかし、その後Googleは軍事領域への関与を拡大しており、個別企業内の抗議が持続的な歯止めにはなりにくいことも明らかになっている。企業横断の連帯が、個別企業の意思決定を超えた規範形成の力を持ちうるかどうかは、まだ未知数だ。

残る問い

AI統制と民主的価値の両立可能性への未解決の疑問

AI企業に倫理的判断を委ねる現行の構造は、一企業が拒否しても代わりの企業が即座に埋めるという現実の前で、果たして機能しているのか。国家が「安全保障」の名のもとに企業の自律的判断を無効化できるとき、技術の倫理的統治は誰が担うのか。166カ国が賛成した国連決議が拘束力を持たない世界で、自律型兵器の開発と配備に実効的な歯止めをかける主体は、どこに存在しうるのか。

これらの問いに完全な答えを持つ者はいない。ただし、答えがないことと、問いを放棄してよいこととは違う。Anthropicが支払った代償と、OpenAIが手にした契約。この二つの事実の間にある距離が、現在の社会がAI技術の軍事利用をどう扱っているかの正確な測定値である。

関連ガイド


関連コラム


参考文献

Anthropic's Statement on Department of Defense ContractDario Amodei, Anthropic. Anthropic

Resolution on Autonomous Weapons Systems (A/RES/79/62)United Nations General Assembly. United Nations

DoD Responsible AI Strategy and Implementation PathwayU.S. Department of Defense. U.S. Department of Defense

参考書籍

読んだ後に考えてみよう

  1. 技術企業の経営者が政府要求と企業理念の板挟みになった場合、どのような判断基準を持つべきだろうか。
  2. 国家安全保障を理由とした民間企業への技術統制は、どこまで正当化されるのだろうか。
  3. あなたの職場や専門分野では、倫理的価値と実利的要求が衝突する場面をどう乗り越えてきただろうか。

関連コンテンツ

XFBThreads

新着コラムをメールで受け取る

週1-2本の社会構造分析コラムを配信します。登録は無料です。

ISVDの活動に参加しませんか?

会員登録で最新の研究・活動レポートをお届けします。協業やプロジェクト参加のご相談もお気軽にどうぞ。