一般社団法人社会構想デザイン機構
·ISVD編集部

AI規制、米国連邦vs州の攻防 — 統一フレームワークは実現するか

連邦の先占権と州の独自規制が正面衝突する米国のAI政策。カリフォルニア、コロラド、テキサスの法制度と、ガバナンスの構造的課題を読み解く。

何が起きているのか

米国のAI規制をめぐり、連邦政府と州の間で前例のない緊張が生まれている。

トランプ大統領は大統領令を発し、連邦AI政策フレームワークの確立を指示した。この枠組みは、連邦の方針と矛盾する州法を無効化しうる設計となっている。さらに司法長官にAI訴訟タスクフォースの設置を命じ、州際通商の違憲規制や連邦先占を理由に州法へ異議を申し立てる体制を整えつつある。連邦政府がAI分野で州の規制権限を明示的に制限しようとする、初めての本格的な動きだ。

一方、各州は独自の規制を急速に進めている。カリフォルニア州は二つの法律を施行に移した。TFAIA(2026年1月施行)は、10の26乗FLOPS超の計算資源を使用するフロンティアモデルの開発者に対し、リスクフレームワークの公表と安全対策を義務づけた。AI Transparency Act(SB 942)は2026年8月施行で、AIが生成したコンテンツへの透かしと検出ツールの提供を義務化する。

テキサス州のTRAIGA(HB 149、2025年6月署名)は、自傷行為の助長、違法差別、憲法上の権利侵害、児童性的虐待素材(CSAM)の生成など「制限目的」に該当するAIシステムの使用を禁止した。コロラド州のSB 24-205は、高リスクAIシステムによるアルゴリズム差別の防止を目的とし、当初2026年2月施行の予定だったが、6月30日に延期されている。

注目すべきは、連邦先占にも明確な例外が設けられている点だ。子どもの安全、AIコンピュート・データセンターインフラ、州政府自身のAI調達・利用に関しては、州法が連邦の先占対象から除外される。また、連邦と州の管轄が争われる場合でも、裁判所の判断が出るまで州法は執行可能とされている。

背景と文脈

米国における連邦と州の規制権限の対立は、AI固有の問題ではない。環境規制、金融規制、データプライバシーなど、新しい社会的課題が浮上するたびに繰り返されてきた構造的なパターンがある。

典型例がカリフォルニア州の自動車排ガス規制だ。連邦のEPA基準よりも厳しい独自基準を設定するカリフォルニアに対し、他の州が追随するか連邦基準に従うかで分裂が生じてきた。AI規制でも同様の構図が再現されつつある。カリフォルニアが最も厳格な規制を敷き、テキサスが特定用途に絞った規制を導入し、コロラドが差別防止に焦点を当てる。各州が異なる思想に基づいて規制を設計している。

この「パッチワーク」状態は、イノベーション促進の観点からも、市民保護の観点からも問題をはらむ。企業にとっては、州ごとに異なる規制への対応コストが増大する。市民にとっては、居住する州によって受けられる保護の水準が異なるという不均衡が生じる。

連邦政府がAI分野で統一フレームワークを志向する背景には、こうした実務上の混乱を回避したいという産業界の要請がある。一方で、連邦先占の行使は州の実験的な規制——いわば「民主主義の実験室」——を封じることにもなる。カリフォルニアのTFAIAのようなフロンティアモデル規制は、連邦レベルではまだ議論の途上にある。州が先行することで、連邦の政策形成に知見を提供するという経路が、先占によって断たれる可能性がある。

国際的な文脈も見逃せない。EUのAI法は2024年に成立し、リスクベースの包括規制を段階的に適用している。高リスクAIシステムの適合性評価、汎用AIモデルの透明性義務、禁止されるAI利用のリストなど、体系的な規制フレームワークを構築した。日本では2025年9月にAI関連法が全面施行されたが、罰則規定は含まれていない。

米国の議論は、EUのような包括規制とも、日本のような罰則なしのソフトロー的アプローチとも異なる。連邦と州の権限配分という独自の制度構造の中で、規制のあり方が模索されている。この「どのレベルの政府が規制すべきか」という問題設定自体が、米国のAIガバナンスの特徴だ。

構造を読む / 社会構想の種

この対立の本質は、技術規制の方法論ではなく、ガバナンスの設計原理にある。三つの構造的な問いが交差している。

まず、規制のスピードとイノベーションのスピードの不一致。AI技術の進化は立法プロセスよりもはるかに速い。カリフォルニアのTFAIAが定める10の26乗FLOPS超という閾値は、今日のフロンティアモデルに基づいた数値だ。しかし計算効率の向上やアルゴリズムの改善により、同等の能力がより少ない計算資源で実現される可能性がある。固定的な閾値に基づく規制は、技術の進化とともに陳腐化するリスクを内包している。

テキサスのTRAIGAが採用した「用途ベース」のアプローチ——特定の有害な使用目的を禁止する——は、この問題に対する一つの回答だ。技術の仕様ではなく、使い方に着目することで、技術変化への耐性を高める設計と言える。ただし、「制限目的」の範囲をどこまで広げるか、その線引きは政治的判断に委ねられる。

次に問われるのは、イノベーション促進と市民保護のトレードオフだ。連邦政府のフレームワークは、規制の統一化を通じて企業のコンプライアンスコストを下げ、イノベーションを加速させることを目指す。しかし、統一化が「最も緩い基準への収斂」を意味するなら、市民保護の水準は各州の独自規制よりも後退する。

コロラドのSB 24-205が示すアルゴリズム差別防止の試みは、この点で示唆的だ。高リスクAIシステムの影響評価を義務づけ、差別的な結果が生じた場合の是正措置を求める。こうした保護措置が連邦先占によって無効化されるとすれば、AIの影響を最も受けやすい立場にある人々——雇用選考、融資審査、刑事司法の場でアルゴリズムの判断にさらされる人々——の保護が後退する。

さらに深い層にあるのが、「誰がルールを決めるのか」という民主的正統性の問題だ。大統領令による規制フレームワークの構築は、議会での立法プロセスを経ていない。一方、州法は各州の議会を通過し、知事が署名した民主的手続きの産物だ。連邦先占の正統性の根拠が大統領令にとどまる場合、その法的安定性は脆弱となりうる。裁判所判断が出るまで州法が執行可能とされている規定は、この不安定さの反映でもある。

連邦先占の例外として子どもの安全が明示的に除外されている点は、一つの手がかりとなる。特定の保護法益については州の規制権限を認めるという設計は、連邦と州の役割分担を「全か無か」ではなく、領域ごとに切り分ける可能性を示唆している。AIがもたらすリスクの種類——差別、プライバシー侵害、安全性、透明性——ごとに、最も適切な規制レベルを選択するという多層的なガバナンスモデルは、理論的には魅力的だが、実装の複雑さは計り知れない。

日本のAI関連法が罰則なしで施行されたことは、ソフトローによるガバナンスの実験と見ることもできる。しかし、実効性の担保をどこに求めるかという問いは残る。米国の連邦vs州の攻防は、過剰規制と過少規制の間で揺れる振り子の一局面であり、その帰結は米国内にとどまらず、グローバルなAIガバナンスの方向性に影響を及ぼすだろう。

残る問い

技術が社会を変える速度と、社会が技術を統治する速度。この二つは、どれほどのズレまで許容できるのか。連邦と州の攻防は、その問いの米国的な表出にすぎない。完全な答えを持つ国は、まだどこにもない。

XFacebookはてブ
ISVD編集部

ISVD編集部

社会課題に向き合い、デザインの力で解決策を生み出す。ISVDの調査研究チームが、社会の構造変化を読み解くコラムをお届けします。

ISVDの活動に参加しませんか?

会員登録で最新の調査研究・活動レポートをお届けします。協業やプロジェクト参加のご相談もお気軽にどうぞ。