AI法規制 要約ガイド

日本・EU の主要AI関連法規制を一望する

生成AI活用マーケティング講座|2日目 参考資料
🇯🇵
AI推進法
令和7年法律第53号
🇪🇺
EU AI Act
Regulation 2024/1689
📋
AI事業者ガイドライン
経産省・総務省 v1.1
📎
ガイドライン別添
実務チェックリスト集
🇯🇵

AI推進法(人工知能関連技術の研究開発及び活用の促進に関する法律)

令和7年法律第53号|全28条+附則|全3ページ
概要 日本初のAI基本法。AIの研究開発と活用を「促進」する方向性を定めた法律で、規制よりも推進に重きを置いています。AI戦略本部の設置、AI基本計画の策定を義務づけ、国・地方自治体・事業者それぞれの責務を明確にしています。

📌 全体構成(4章構成)

総則(第1〜6条)

目的、AI関連技術の定義、5つの基本理念、国・地方公共団体の責務

基本的施策(第7〜17条)

研究開発の推進、人材育成、国際協力、知的財産保護、データ整備 等

AI基本計画(第18条)

政府によるAI基本計画の策定・公表を義務付け

AI戦略本部(第19〜28条)

内閣にAI戦略本部を設置。本部長は内閣総理大臣

🌟 5つの基本理念(第3条)

イノベーション促進

AI研究開発・活用の促進による産業競争力の強化

国民生活の向上

全国民がAIの恵沢を享受できる社会の実現

安全・安心の確保

権利利益の保護、安全性の確保

公正・透明性

公正かつ透明性の高いAI活用

国際協調

国際的な連携のもと推進

必ず見るべき箇所

  • 第1条(目的) — 法律の全体像を30秒で掴める条文
  • 第2条(定義) — 「AI関連技術」の公式定義
  • 第3条(基本理念) — 5つの基本理念。日本のAI政策の方向性
  • 第7条(活用事業者の責務) — ビジネスでAIを使う側が注意すべきこと
  • 第18条(AI基本計画) — 政府が何を計画するか
🇪🇺

EU AI Act(EU人工知能規則)

Regulation (EU) 2024/1689|2024年6月13日採択|全144ページ
概要 世界初の包括的AI規制法。リスクベースの4段階分類を柱とし、AIシステムのリスクレベルに応じた義務を課します。禁止されるAI利用の明確化、高リスクAIへの適合性評価、汎用AIモデル(GPAI)への透明性義務など、EUが世界のAI規制をリードする法律です。

⚠️ リスクベースの4段階分類(最重要コンセプト)

🚫 禁止(Unacceptable Risk) 社会信用スコア、職場での感情認識、リアルタイム顔認証 等
⚡ 高リスク(High Risk) 採用AI、信用審査、教育評価、重要インフラ管理 等
📢 限定リスク(Limited Risk) チャットボット、ディープフェイク → 透明性義務(AI使用の告知)
✅ 最小リスク(Minimal Risk) スパムフィルター、ゲームAI → 特別な義務なし

🔑 主な特徴

禁止されるAI利用

サブリミナル操作、脆弱性の悪用、社会信用スコア、法執行でのリアルタイム生体認証 等を明確に禁止

高リスクAIの分類

Annex IIIに列挙された8分野(生体認証、インフラ、教育、雇用、公共サービス等)

透明性義務

AIが生成したコンテンツへのラベリング、チャットボットのAI告知義務

AIリテラシー

AIの提供者・利用者は十分なAIリテラシーを確保する義務

必ず見るべき箇所

  • Article 5(禁止プラクティス) — 何が「やってはいけないAI」かを知る最重要条文
  • Article 6 + Annex III(高リスク分類) — 自社のAIが高リスクに該当するかチェック
  • Article 50(透明性義務) — チャットボット・生成AIの開示義務
  • Recital 20-27(前文) — リスク分類の背景と考え方を理解するのに最適
  • Article 99(罰則規定) — 違反時の制裁金(最大3,500万€or全世界売上7%)
📋

AI事業者ガイドライン(v1.1)

経済産業省・総務省|令和7年3月28日改訂|約40ページ
概要 日本のAI事業者向け実務指針。法的拘束力はないがAI推進法と連動し、事実上の業界標準です。AI開発者・AI提供者・AI利用者の3主体それぞれに対し、基本理念(3つ)と10の共通指針を示しています。リスクベースアプローチを採用し、Living Document(継続更新)方式。

💎 3つの基本理念

人間の尊厳

AIは人間のために。基本的人権を侵さない

多様性・包摂性

多様な背景を持つ人々が取り残されない社会

持続可能性

環境負荷も考慮した持続可能なAI開発・利用

📐 10の共通指針

👤
① 人間中心
🛡️
② 安全性
⚖️
③ 公平性
🔒
④ プライバシー保護
🔐
⑤ セキュリティ確保
👁️
⑥ 透明性
📊
⑦ アカウンタビリティ
📚
⑧ 教育・リテラシー
🤝
⑨ 公正競争確保
💡
⑩ イノベーション

👥 3つの主体と役割

⚙️
AI開発者
AIモデルを開発・学習する事業者
(第3部に詳細指針)
🏢
AI提供者
AIサービスとして提供する事業者
(第4部に詳細指針)
💼
AI利用者
業務でAIを利用する事業者
(第5部に詳細指針)

必ず見るべき箇所

  • 第1部(AIとは) — AIの定義。AI推進法との整合性を確認
  • 第2部 B(原則)・C(共通指針) — 10の指針は暗記レベルで重要
  • 第5部(AI利用者向け指針) — マーケターとして最も関係の深い章
  • 第2部 E(ガバナンス構築) — 社内AI運用ルール策定の参考に
📎

AI事業者ガイドライン 別添(付属資料集)

経済産業省・総務省|170ページ以上の実務資料
概要 ガイドライン本編の実践的な補足資料集。リスクの具体例、チェックリスト、事業者パターン図、バリューチェーン図、契約ガイドラインなどを収録。実務でAIガバナンスを構築する際に最も頻繁に参照する資料です。

📂 別添の構成(6部構成)

AIの前提整理

AIの便益とリスクの全体像、AIシステム概要図、バリューチェーン図

ガバナンス構築

AI管理体制、モニタリング、PDCAサイクルの実例

AI開発者向け実務

データ管理、品質保証、バイアス検知の具体的手法

AI提供者向け実務

サービス品質管理、ユーザーへの情報提供方法

AI利用者向け実務

利用時のリスク管理、従業員教育、インシデント対応

契約ガイドライン

AI開発・利用に関する契約の注意点、雛形の参考

⚡ 知っておくべき主なリスク例

  • データ汚染攻撃 — 学習データを意図的に改ざんし出力を操作
  • バイアス出力 — 性別・人種等による不公平な結果を出力
  • ハルシネーション — 事実に基づかない内容を自信をもって生成
  • ブラックボックス化 — 判断過程が説明できない
  • 個人情報の不適切取扱い — 学習データからの個人情報漏洩
  • 知的財産権侵害 — 著作物に類似した出力生成
  • 機密情報流出 — プロンプト経由での社内情報の外部送信
  • ディープフェイク — 偽の映像・音声による詐欺・名誉毀損

必ず見るべき箇所

  • 別添1 リスク分類表 — 技術的リスクと社会的リスクの全体マップ
  • 別添1 AIシステム概要図・バリューチェーン図 — 自社の立ち位置を確認
  • 別添5(AI利用者向け実務) — AIを「使う側」として一番実践的な内容
  • 別添2 ガバナンス構築のチェックリスト — 社内ルール策定にそのまま使える
  • 別添6 契約ガイドライン — AI開発を外注する際の必読資料
📊

4つの文書 比較一覧

横断的に見ることで全体像を把握
項目 🇯🇵 AI推進法 🇪🇺 EU AI Act 📋 AI事業者GL 📎 GL別添
性質 法律(拘束力あり) EU規則(拘束力あり) ガイドライン(ソフトロー) 実務参考資料
方向性 推進重視 規制重視 推進+自主規制 実務支援
アプローチ 原則ベース リスクベース(4段階) リスクベース チェックリスト
対象 国・自治体・事業者全般 EU市場でAIを提供・利用する全事業者 AI開発者・提供者・利用者 同左(実務担当者向け)
罰則 なし 最大3,500万€ or 全世界売上7% なし(推奨) なし
ボリューム 3ページ 144ページ 約40ページ 170ページ以上
最初に読むなら 第1条・第3条 Article 5・Recital 26-27 第2部B・C 別添1 リスク分類表