一般社団法人社会構想デザイン機構
シミュレーション

AIの軍事利用は許容されるべきか — 国家安全保障と技術倫理の交差点

AI技術の軍事利用をめぐり、安全保障の論理と技術倫理が正面から衝突している。架空の4人の論者によるシミュレーション討論を通じ、この問題の構造的争点を浮き彫りにする。

登壇者

河野 誠一

元防衛省統合幕僚監部 技術研究官

条件付き推進派 — 同盟国の技術的優位維持に不可欠

Dr. Sarah Mitchell

MITメディアラボ AI倫理研究者

反対派 — 自律型兵器は人間の尊厳に対する構造的脅威

張 偉明

国際安全保障アナリスト(シンガポール拠点)

現実主義派 — 国際ガバナンス枠組みの構築が先決

田中 彩

テック企業エンジニア・「We Will Not Be Divided」署名者

技術者倫理派 — 開発者が倫理的責任を放棄してはならない

本稿は架空の討論者によるシミュレーション・ディベートである。特定の個人・組織の見解を代弁するものではない。論点の構造的理解を目的として、異なる立場からの主張を再構成した。

議題設定

2026年2月、AnthropicがAIモデルの軍事利用に関する国防総省の無制限使用要求を拒否し、連邦契約の全面禁止を受けた。同時にOpenAIが最大2億ドル規模の国防契約を獲得した。米国防総省のAI関連予算はFY2025で252億ドル。Project MavenはPalantirとの契約上限が13億ドルに引き上げられた。一方、国連の自律型致死兵器(LAWS)決議は拘束力を持たない。

AIの軍事利用は許容されるべきか。4人の論者が、論点ごとに正面からぶつかる。

倫理・人権重視安全保障重視国際制度・構造個人・企業の判断
河野
河野 誠一条件付き推進
Mi
Dr. Mitchell反対
張 偉明現実主義
田中
田中 彩技術者倫理
4論者のポジションマップ — 安全保障と倫理の二軸で見るスタンスの分布

争点1:「精密攻撃」はAIで民間人を守れるのか

河野 誠一条件付き推進派

AIは単なる攻撃手段ではない。情報分析の高速化、サイバー防御の自動化、ロジスティクスの最適化——これらは防衛的用途だ。国際人道法が求める「区別の原則」や「比例性の原則」を、疲労も恐怖もないAIが人間より正確に遵守できる可能性すらある。無差別爆撃の時代よりも、精密誘導AIは民間人被害を構造的に低減しうる。

Dr. Sarah Mitchell反対派

その主張は、データによって否定されている。2026年2月の米国・イスラエルによるイラン攻撃——48時間で約2,000回の「精密攻撃」が実施され、死者787人のうち民間人は555人。全体の約70%だ。ミナーブの小学校が攻撃された。河野氏の言う「民間人保護に資する」防衛技術の、これが現実だ。

河野 誠一条件付き推進派

イラン攻撃の数字は痛ましいが、論理が逆だ。問題はAI技術の「存在」ではなく「運用」にある。AIがなければ民間人被害はさらに増えていた可能性がある。技術を排除するのではなく、運用規範を厳格化すべきだ。

田中 彩技術者倫理派

「運用規範の厳格化」が機能していない現場を、私は知っている。ガザ紛争で使われた「Lavender」は、約3万7,000人のパレスチナ人を潜在的標的としてリスト化した。将校の承認時間はわずか20秒。事前設定された許容基準は「標的1人あたり民間人20人まで」だ。さらに「Where's Daddy?」というシステムは、夜間に自宅で家族と一緒にいるタイミングを狙って攻撃するよう設計されている。家族もろとも殺すことが、設計レベルで組み込まれている。

これが河野氏の言う「運用規範」の実態だ。

1
1. データ収集監視システム

通信・位置情報・SNSを自動収集

誰が収集対象を定義したか?

2
2. AI標的選定Lavenderアルゴリズム

37,000人をリスト化(精度90%=3,700人が誤標的)

アルゴリズム設計者? 学習データ提供者?

3
3. 追跡Where's Daddy?

夜間・自宅・家族同伴のタイミングを特定

攻撃条件の設計者は誰か?

4
4. 人間の承認将校(20秒)

事前設定:標的1人あたり民間人20人まで許容

形式的承認は「判断」か?

5
5. 攻撃実行精密誘導兵器

家屋ごと破壊。家族を含む民間人が犠牲に

最終責任は誰にあるか?

責任の帰属問題(accountability gap):全段階で責任が分散し、誰も全責任を負わない構造
Lavenderシステムのキルチェーン — 各段階における「責任の帰属」の曖昧さ

争点2:対中国・ロシアの技術競争を放棄できるか

河野 誠一条件付き推進派

中国は2017年の「新世代AI発展計画」で軍民融合戦略を国策化し、都市戦用の自律型ドローンスウォームを開発している。ロシアはウクライナでAI搭載ドローンの運用を急拡大させた。米国がAIの軍事活用を自制しても、戦略的競合国は止まらない。結果として生じるのは民主主義国家の技術的劣位——国際秩序の不安定化に直結する。

Dr. Sarah Mitchell反対派

「中国が開発しているから我々も」——このロジックは核兵器の軍拡競争とまったく同じ構造だ。抑止力の論理は際限のないエスカレーションを正当化する。しかもAIは核兵器と違い「使用の閾値」が低い。「犠牲なき戦争」の幻想が先制攻撃のインセンティブを生む。

河野 誠一条件付き推進派

核兵器との類比は不適切だ。核兵器は「使えない兵器」だが、AIは情報分析や防御にも使える。中国のAI軍事システムにバイアスの監査を要求できるのは、技術的優位を持つ国だけだ。撤退は問題の解決ではなく、問題の他者への委譲にすぎない。

張 偉明現実主義派

河野氏とMitchell氏の対立は、どちらも正しく、どちらも不完全だ。技術競争は現実だが、歯止めのない競争は破滅的でもある。核兵器ではNPTが保有国数を予測の20〜30カ国から9カ国に抑制した。不完全だが「なにもないよりはるかにまし」だった。AIにも同様の枠組みが必要だ。


争点3:企業の倫理的自制は機能するか

田中 彩技術者倫理派

Anthropicはレッドラインを守った。2つの制約——完全自律型兵器への使用禁止と大規模国内監視への使用禁止。しかしその代償は連邦契約の全面禁止だ。そしてOpenAIが翌日に2億ドルの契約を手にした。

Dr. Sarah Mitchell反対派

これが「逆選択」の構造だ。倫理的な企業ほど競争上不利になり、基準が最も緩い企業が市場を独占する。race to the bottom——環境規制や労働基準で何度も観察されてきた構造と同じだ。自主規制は国家権力の圧力と市場競争の前で持続不可能だということを、Anthropic事件は決定的に証明した。

河野 誠一条件付き推進派

Mitchell氏は比較対象を間違えている。問題は「AI企業間の倫理競争」ではなく、「民主主義国家と権威主義国家の技術競争」だ。米国防総省にはAI倫理原則がある。不十分かもしれないが、中国人民解放軍にそれに相当するものはない。倫理の切り下げを防ぐには、民主主義国家が技術的優位を保ちつつ利用を制約する二正面作戦しかない。

田中 彩技術者倫理派

その「二正面作戦」は論理的に矛盾している。Anthropicに「無制限の使用」を要求したのが、まさにその米国防総省だ。ヘグセス国防長官は3日間の期限でAnthropicに全用途開放を迫り、拒否すれば「サプライチェーンリスク」指定で報復した。Huawei向けの枠組みを米国企業に転用したのだ。

制約を課す主体と制約を破壊する主体が同一のとき、「内側から変える」は機能しない。

国際条約機能不全

LAWS決議156対5で採択、しかしCCWコンセンサス方式で米・露・イスラエルが阻止

拘束力なし — 1国でもブロック可能

国家規制自己矛盾

国防総省がAI倫理原則を策定しつつ、Anthropicに「無制限使用」を要求

制約する主体 = 制約を破壊する主体

企業自主規制構造的限界

Anthropicがレッドライン維持 → 契約全面禁止。OpenAIが即座に代替

倫理的企業ほど競争上不利(逆選択)

三層の重ね合わせ + 独立した査察メカニズムが必要
AIの軍事利用に対するガバナンスの三層構造 — いずれも単独では機能しない

争点4:殺傷判断を機械に委ねてよいのか

Dr. Sarah Mitchell反対派

自律型兵器の根底にある問いは単純だ。「誰が殺害の決定に責任を負うか」——AIが標的を選定し攻撃を実行したとき、その責任はアルゴリズム設計者にあるのか、指揮官にあるのか、企業にあるのか。ジュネーブ条約はすべての攻撃に人間の法的責任を前提としている。その前提が成り立たない兵器は、国際法秩序そのものへの挑戦だ。

Ipsos社の28カ国調査で、平均61%が自律型致死兵器の使用に反対している。反対理由の3分の2は「機械に人を殺させることは道徳的一線を越える」。注目すべきは、米軍人の反対率が一般市民よりも高いという点だ。

河野 誠一条件付き推進派

責任の帰属は法的に整備すればよい。指揮官責任の原則を拡張し、AIを「兵器システム」として既存の枠組みに位置づける。技術的に解決可能な問題を、倫理的不可能として葬るべきではない。

田中 彩技術者倫理派

「法的に整備すればよい」——Lavenderの運用がその楽観論を完全に否定している。将校が20秒でAIの出力を承認するとき、「人間が判断した」と言えるだろうか。Googleは2018年にAI倫理原則で「兵器への不参加」を宣言し、2024年にはイスラエル政府と12億ドルのProject Nimbus契約を結んだ。「関与して修正する」は「関与して沈黙する」に変質する。

私たちが書いたコードが、どこかの小学校を「軍事施設」と誤分類したとき、その責任は私たちにもある。「上が決めたことだ」は免罪符にならない。

張 偉明現実主義派

ここまでの議論を整理する。4人が浮き彫りにした構造的争点は三つだ。

第一に、抑止力のパラドクス。進めなければ権威主義国家に劣後し、進めれば軍拡エスカレーションを招く。

第二に、ガバナンスの空白。自主規制は持続不可能(Anthropic)、国家規制は自己矛盾(ヘグセス書簡)、国際条約は拘束力なし(CCWコンセンサス方式)。三者を重ね合わせた枠組みが必要だが、構築は遅々として進まない。

第三に、責任の拡散。アルゴリズム設計者、指揮官、経営者、政治指導者——全員が責任の一端を負い、誰も全責任を引き受けない。この「責任の拡散」こそが自律型兵器の最も危険な特性だ。

国連LAWS決議は2024年に166対3、2025年に156対5で採択された。しかしCCWのコンセンサス方式が障壁となり、米・露・イスラエルが条約交渉を阻止し続けている。完璧な解はない。だが「なにもないよりはるかにまし」な枠組みを、今すぐ構築し始める必要がある。


残る問い

この討論が示したのは、AIの軍事利用をめぐる議論が「賛成か反対か」の二項対立では捉えきれないということだ。国家安全保障、技術倫理、国際法、企業責任、技術者の良心、アルゴリズムバイアス、責任の帰属——すべてが絡み合い、一つの答えに収斂しない。

確実に言えることは一つだけある。この問いに答えを出すまでの時間は、技術の進歩によって急速に縮まっている。AIの能力が日々向上するなかで、人間社会がルールを設計する速度がそれに追いついていない。技術は待ってくれない。しかし、待たない技術に人間の判断を委ねることのコストは、今この瞬間も積み上がり続けている。


関連コラム


参考文献

Anthropic's Statement on Department of Defense Contract

Dario Amodei, Anthropic. Anthropic

原文を読む

Resolution on Autonomous Weapons Systems (A/RES/79/62)

United Nations General Assembly. United Nations

原文を読む

DoD Responsible AI Strategy and Implementation Pathway

U.S. Department of Defense. U.S. Department of Defense

原文を読む

'Lavender': The AI machine directing Israel's bombing spree in Gaza

Yuval Abraham. +972 Magazine

原文を読む

Follow the Money: What the Pentagon's Budget Data Tells Us About AI and Autonomy Adoption

Maggie Gray. maggiegray.us

原文を読む

Growing demand sparks DOD to raise Palantir's Maven contract to more than $1B

DefenseScoop. DefenseScoop

原文を読む

Questions and Answers: Israeli Military's Use of Digital Tools in Gaza

Human Rights Watch. Human Rights Watch

原文を読む

Global survey highlights continued opposition to fully autonomous weapons

Ipsos / Human Rights Watch. Ipsos

原文を読む

156 states support UNGA resolution on autonomous weapons systems

Stop Killer Robots. Stop Killer Robots

原文を読む
ISVD編集部

ISVD編集部

社会課題に向き合い、デザインの力で解決策を生み出す。ISVDでは社会課題の可視化と解決策のデザインに取り組み、調査研究・実践ガイド・論考を通じて知見を発信しています。

ISVDの活動に参加しませんか?

会員登録で最新の調査研究・活動レポートをお届けします。協業やプロジェクト参加のご相談もお気軽にどうぞ。