📋 AI導入対策リスト

組織の規模に応じた、AI利用セキュリティのベストプラクティス

生成AI活用マーケティング講座|Step B 配布資料
🚦

Part A — まずデータを分類する(全規模共通)

対策の出発点は「何をAIに入れてよいか」の線引き

「危ないサービス」より「危ない使い方」のほうが問題の本質です。どのサービスを使うかの前に、まず「どんなデータを入力するか」を3段階に分類します。この分類は、組織の規模に関係なく全員に共通する基本原則です。

🟢 緑 — 制限なく入力してよい

すでに公開されている情報、または自分だけに関わる一般的な情報。

  • 公開済みのWebサイトのテキスト・自社の公開プレスリリース
  • 一般的な知識に関する質問(「マーケティングの4Pとは?」等)
  • 自分で考えたアイデアやメモ(個人名・社名を含まないもの)

🟡 黄 — 条件付きで入力可能

社内向けの情報だが、漏洩しても致命的ではないもの。法人プランまたはオプトアウト設定の確認が前提。

  • 社内向けの企画書・レポートの下書き(固有名詞をマスキング済み)
  • 匿名化済みの売上データ・市場調査の集計データ
  • 社内研修資料の作成補助

🔴 赤 — 入力してはいけない

個人を特定できる情報、契約上の機密情報、認証情報。どんなサービス・プランでも原則入力禁止。

  • 顧客の個人情報(氏名、メールアドレス、電話番号、住所)
  • NDA対象の資料・契約書原本・未公開の財務データ
  • パスワード、APIキー、アクセストークン
  • 従業員の人事評価・給与情報
判断に迷ったら

「このデータが万が一AIサービスから漏洩したとき、誰かに損害が発生するか?」と自問してください。答えがYesなら、マスキングするか入力しない。

🏢

Part B — 規模別:AI導入対策チェックリスト

大企業 → 中小企業 → フリーランス、それぞれのベストプラクティス

すべての対策を全組織がやる必要はありません。組織の規模とリソースに応じて、優先すべき対策のレベルが異なります。必須は最低限やるべきこと、推奨はできればやりたいこと、理想はリソースがあればやるべきことです。

🏛️ 大企業(100人以上 / IT部門あり)
  • エンタープライズプラン(法人契約)を利用する 必須 ChatGPT Enterprise/Team、Claude commercial/API、Google Workspace with Gemini、Microsoft 365 Copilot等。学習不使用がデフォルト、SSO/MFA、テナント分離、データレジデンシー制御が含まれる。
  • 社内AI利用ガイドラインを策定する 必須 利用可能なAIサービスの指定、データ分類ルール(緑・黄・赤)、禁止データの定義、承認フロー、例外申請手続き、事故時の報告先を明文化する。
  • 従業員へのAIリテラシー研修を実施する 必須 EU AI Actも「AIリテラシー義務」を規定(前文20)。リスク・ルール・正しい使い方を全員が理解していることが前提。
  • アクセス権管理・監査ログを整備する 必須 誰がどのAIにどんな情報を投げたかの記録。RBAC(役割ベースアクセス制御)による権限管理。退職・異動時の権限剥奪。
  • セキュリティゲートウェイ / DLPを導入する 推奨 AIサービスへの通信をゲートウェイ経由にし、機密データの外部送信を自動検知・ブロック。通信ルートの監視で「送っちゃいけないもの」をシステム的に防ぐ。
  • ブラウザ管理・許可リストを設定する 推奨 業務端末から利用できるAIサービスをホワイトリスト方式で制限。未承認サービスへのアクセスをブロックし、シャドーAIを防止する。
  • インシデント対応計画を策定する 推奨 AI経由の情報漏洩が発生した場合の報告フロー、初動対応、影響範囲調査、再発防止策。PPC(個人情報保護委員会)への報告義務は利用事業者側にある。
  • 自動マスキングシステムを導入する 理想 AIへの送信前に個人情報・機密情報を自動検出・マスキングするツール。手動マスキングのヒューマンエラーを防ぐ。
  • 契約管理にAI利用条項を組み込む 理想 AI開発委託契約、SaaS利用契約にAI利用条項を標準化。入力データの学習利用有無、出力の権利関係、事故時の通知義務を明記。経産省のガイドライン別添6(契約ガイドライン)が参考になる。
🏠 中小企業(数人〜100人未満 / IT専任者なし〜少数)
  • 有料プラン(Team以上)を利用する 必須 ChatGPT Team/Plus、Claude Pro等。無料プランはデータが学習に使われるデフォルト設定のため、業務利用には不適。最低限、学習オフ設定が確認できるプランを選ぶ。
  • データ分類ルールを決めて共有する 必須 Part Aの緑・黄・赤の分類を社内で共有する。「AIに入れてよい情報」「入れてはいけない情報」を全員が理解していること。A4一枚でよいのでルールを文書化する。
  • 手動マスキングを習慣化する 必須 個人名→「顧客A」、会社名→「X社」、金額→「●万円」に置き換えてから入力する。講座で配布するマスキングツールを活用。
  • 利用可能なAIサービスを限定する 必須 「会社として使ってよいAI」のリストを決める。勝手に新しいサービスを試すのはNG。ゲートウェイが入れられない分、ルールで管理する。
  • 学習OFF設定を全員が確認する 必須 ChatGPT: Settings → Data Controls → 「Improve the model for everyone」OFF。設定手順書を配布し、全員が設定済みであることを確認する。
  • 簡易版AI利用ガイドラインを作成する 推奨 大企業のような詳細なものでなくてよい。A4一枚の「やっていいこと・ダメなこと」リストで十分。全員に配布し、新人にも説明する。
  • クライアント契約にAI利用の可否を確認する 推奨 NDA・秘密保持契約がAI入力にも及ぶ可能性がある。AIの利用範囲について事前にクライアントと合意しておく。
👤 フリーランス・個人事業主
フリーランスの基本方針

法人プランを使えないなら、入れてよい情報の境界を企業より厳しくする。大企業はシステムで守れるが、フリーランスは自分の行動だけが防御線。

  • オプトアウト(学習OFF)設定を徹底する 必須 ChatGPT: 「Improve the model for everyone」OFF。Claude: 設定から学習利用OFF。Gemini: アクティビティ設定でOFF(ただしGeminiは履歴と学習が連動するため注意)。
  • 手動マスキングを毎回必ず行う 必須 DLPもゲートウェイもないので、手動マスキングが唯一の防御線。個人名・社名・金額・住所を必ず伏せてから入力する。
  • クライアントとの契約でAI利用の可否を確認する 必須 AI利用条項がなくても、機密保持義務がAI入力にも及ぶ可能性がある。「御社の案件にAIを使ってよいですか?」を事前に確認する。
  • 赤データ(個人情報・NDA資料)は絶対にAIに入力しない 必須 フリーランスはインシデント発生時にすべての責任を個人で負う。「ちょっとくらい大丈夫」が命取りになる。
  • 業務用と個人用のアカウントを分ける 推奨 個人的な質問と業務データが同じアカウントに混在すると、履歴管理が困難になる。最低限、別のチャットスレッドを使う。
  • ローカルLLM(ollama等)の活用を検討する 理想 完全にローカルで動くため情報漏洩リスクがゼロ。性能は劣るが、機密性の高い作業には有効。
🔍

Part C — AIサービスのリスク分類(緑・黄・赤)

「危ないサービス」より「危ない使い方」が問題。だが契約形態でリスクは変わる

同じサービスでも、契約プランによってデータの扱いが大きく異なります。以下は「顧客の非公開情報を扱えるか」を基準にした分類です。

分類 サービス / プラン 理由
🟢 緑 OpenAI Business /
Enterprise / API
学習不使用がデフォルト。テナント分離、SSO/MFA、RBAC、データレジデンシー制御。企業向けDPA(データ処理契約)あり。
🟢 緑 Anthropic
commercial / API
入力データを学習に使わないポリシー。API経由はデフォルトで学習OFF。SOC 2 Type II取得。
🟢 緑 Google Workspace
with Gemini
Workspace契約内のGeminiは学習に使われない。Google Cloudのセキュリティ基盤。
🟢 緑 Microsoft 365 Copilot Microsoft 365のセキュリティ基盤。テナント内データ処理。学習不使用。
🟡 黄 Napkin AI SOC 2 Type II取得。Teamspaceで学習OFF可(デフォルトはON)。AI subprocessorsへのデータ共有あり。公開情報・匿名化済みデータなら可。
🟡 黄 Gamma SOC 2 Type II、DPA提供あり。ただし一般向けポリシーでは研究開発・AIモデル訓練への利用を記載。ビジネスプランで確認が必要。
🟡 黄 イルシル ISO 27001取得。法人向けは送信先を大手クラウドに限定。2段階認証/IP制限あり。比較的透明性が高い。
🟡 黄 ChatGPT Plus(個人有料) 学習OFFに設定可能だが、エンタープライズ級の管理機能はない。黄データまでに限定して使用するのが安全。
🔴 赤 無料プラン全般 ChatGPT Free、Gemini Free等。データがモデル改善に使われるデフォルト設定。オプトアウトが不完全なものも。
🔴 赤 運営主体・保存国が
不明なサービス
利用規約が読めない、運営企業が特定できない、データの保存国が明記されていないサービスは使用禁止。
🔴 赤 DeepSeek
(Webアプリ版)
中国サーバーにデータ送信。国家情報法により中国政府の情報提供要請を拒否できない構造的リスク。米政府機関では使用禁止。オープンソース版をローカルで動かすなら別扱い。
注意:中国系サービスについて

「中国企業は全部ダメ」ではなく、「顧客情報を入れてよい条件を満たしていないサービスは、国籍に関係なくダメ」が正しい判断基準です。ただし中国の国家情報法(2017年)により、中国企業・市民に対して国家の情報活動への協力義務があることは構造的リスクとして認識しておく必要があります。

⚙️

Part D — 学習OFF ≠ 履歴OFF ≠ メモリOFF

設定を混同している人が多い。3つは別の概念
設定項目 何が変わるか OFFにしたときの影響
学習(Model Training)
Improve the model for everyone
入力データがAIモデルの改善に使われるかどうか OFFにしても不便にならない。履歴もメモリも別設定で維持可能。業務利用なら必ずOFFにする。
履歴(Chat History)
Reference chat history
過去のチャットを参照して回答に活用するかどうか 「前に話したあれ」が効かなくなる。学習とは別概念。ONでもOFFでもセキュリティ上の影響は小さい。
メモリ(Memory) AIがユーザーの好みや過去の指示を記憶するかどうか OFFにすると毎回初対面の状態になる。利便性は下がるが機密情報が蓄積されるリスクは減る。
結論

学習OFFにしても不便にはなりません。履歴もメモリも別設定で維持できます。まず「学習OFF」だけは全員やる。詳細な設定手順は別途配布の「設定手順書」を参照してください。

Gemini特有の問題

Geminiは「学習OFF」と「履歴OFF」が連動しています(オール・オア・ナッシング)。学習をOFFにすると履歴も見られなくなります。回避策:Google Workspace契約(法人向け)を利用するか、API経由で利用する。

🔌

Part E — WebアプリとAPIの違い

「APIならデータが向こうに行かない」は誤解
Webアプリ利用 API利用
データの送信先 サービス提供側のサーバー 同じくサービス提供側のサーバー
画面・UI 提供側が用意 自分で作る(またはツールが用意)
履歴・保存 提供側が管理 自分で管理できる
学習利用 プランによる(無料=ON、法人=OFF等) デフォルトOFF(OpenAI API等)
データ保持 プランによる 最長30日保持される場合あり
受講生向けの理解

Webアプリ利用 = 「完成品のAIサービスをそのまま使う」。API利用 = 「自分のアプリからAI会社のエンジンを呼び出す」。どちらもエンジン本体は相手側にあり、データは送信されます。違いは「自分がどこまで手元で画面・保存・制御を持つか」。APIのほうがコントロールの自由度は高いですが、「データが外に出ない」わけではありません。

📚

出典・参考文献

AIセキュリティ対策に関する調査
  • • 本資料の対策リストは、Gemini・ChatGPT・Claudeとの議論を統合した「AIセキュリティ調査まとめ」(2026年3月8日取得)を基に構成
日本の法律・ガイドライン
  • • 総務省・経済産業省「AI事業者ガイドライン(第1.1版)」(令和7年3月28日改訂)
  • • 総務省・経済産業省「AI事業者ガイドライン 別添」— 別添5(AI利用者向け実務ガイド)、別添6(契約ガイドライン)
  • • 個人情報保護委員会「生成AIサービスの利用に関する注意喚起」
  • • 個人情報保護委員会「クラウドサービス提供事業者が個人データを取り扱わない場合の整理」
導入実態データ
  • • NRI調査(2025年、517社)— 生成AI導入済み企業 57.7%
  • • エルテス調査(2026年1月)— 生成AI利用規程が「ない」企業 45%
  • • BOXIL調査(9,734名)— 「特にルールはなく個人判断」31.9%
  • • Cyberhaven調査 — 社員のAI利用の73.8%が個人アカウント経由(シャドーAI)
  • • Harmonic Security — Fortune 500企業の生成AIへの入力の8.5%が機密データ
サービス別セキュリティ情報
  • • OpenAI — Enterprise Privacy(enterprise-privacy.openai.com)
  • • Anthropic — Commercial Terms of Service
  • • Google — Workspace AI and Privacy(workspace.google.com/privacy)
  • • Gamma — Privacy Policy / DPA
  • • Napkin AI — Security(SOC 2 Type II / Teamspace settings)
  • • 中華人民共和国 国家情報法(2017年6月施行)