SESSION 04

機密情報漏えいと
データプライバシー

どこまでAIに入力して良いのか、その判断基準を身につけていただきます。サービスごとのデータ取り扱いの違いと、実務で即使える3段階分類を学びます。

1:05 - 1:15(10分)
講義 5分 + ワーク 5分
LECTURE / 5 MIN
AIサービスにおけるデータの取り扱い
サービス別のデータ利用ポリシー

「チャット履歴OFF」と「学習データ除外」は別物です。履歴を非表示にしても、サーバー側で品質改善に利用される場合があります。サービスごとの違いを正確に理解する必要があります。

サービス学習利用オプトアウト備考
Gemini 無料版品質改善に利用される場合あり設定で変更可今日の研修で使用
Gemini Advanced / Workspaceオプトアウト設定あり企業向けはデフォルトOFF
ChatGPT Web版デフォルトで学習に利用オプトアウト可API経由はデフォルト学習なし
Claude Web版設定によるAPI経由は学習なし
情報漏えいが起きる4つのシナリオ
SCENARIO 01

社内文書の丸貼り

社内文書をそのままコピーして要約させるケースです。文書に含まれる未公開情報、戦略情報がサービス提供者のサーバーを経由します。

SCENARIO 02

個人情報を含むCSV

顧客リストや従業員名簿をCSVでアップロードして分析させるケースです。氏名、住所、電話番号が外部に渡ります。

SCENARIO 03

コード内の認証情報

ソースコードに埋め込まれたAPIキー、パスワード、接続文字列をそのまま貼り付けてデバッグを依頼するケースです。

SCENARIO 04

未公開戦略情報

会議議事録に含まれる新規事業計画、M&A情報、価格戦略を入力して整理させるケースです。

実務での判断基準 ── 3段階分類
入力OK
公開情報
一般的な質問
匿名化済みデータ
加工すればOK
固有名詞をマスキング
数値をダミー化
構造だけ残して入力
入力NG
個人情報
未公開財務情報
認証情報・APIキー
顧客の機密データ
判断に迷ったら

「この入力内容が翌日のニュースに出たら困るか」を自問してください。困るなら入力しないでください。この一文が最もシンプルで有効な判断基準です。

QUICK WORK / 5 MIN
情報分類クイズ

講師が5つの業務シナリオを読み上げます。「OK / 加工すればOK / NG」を挙手で即答してください。判断が割れたシナリオは議論します。

正解は一つではありません。自社のルールを持つことが目的です。

Q1: 取引先へのメール文面をAIに下書きさせたい(取引先名・金額を含む)
加工すればOK

取引先名を「A社」、金額を「XXX万円」に置き換えてから依頼してください。文面の構成やトーンだけAIに作らせ、固有情報はご自身で埋めてください。

Q2: 社内マニュアルの文章をわかりやすくリライトさせたい
OK(機密性による)

社内マニュアルの内容が機密情報でなければ問題ありません。ただし、未公開の製品仕様や技術情報が含まれる場合は加工が必要です。

Q3: 採用候補者の履歴書を要約させたい
NG

氏名、住所、学歴、職歴は個人情報そのものです。マスキングしても要約の意味がなくなるため、AIに入力すべきではありません。

Q4: 公開済みプレスリリースの英訳をさせたい
OK

公開済みの情報であり、機密性は低いです。翻訳精度のチェックは別途必要ですが、入力自体に問題はありません。

Q5: 自社プロダクトのソースコードのバグを見つけさせたい
加工すればOK

バグ箇所の関数だけ抽出し、変数名やクラス名を汎用的なものに置き換えてください。APIキーや接続先URLは必ず削除してから入力してください。

COMPREHENSION CHECK
理解度チェック
Q1. 「チャット履歴OFF」に設定した場合のデータの扱いとして正しいのは
A サーバー側にデータは一切送信されない不正解。履歴OFFにしても、回答生成のためにデータはサーバーに送信される。「履歴OFF = 送信なし」ではない。
B 履歴は非表示になるが、品質改善に利用される場合がある正解。「チャット履歴OFF」と「学習データ除外」は別物。履歴を非表示にしても、サーバー側で品質改善に利用されるケースがある。サービスごとのポリシーを正確に確認する必要がある。
C データは暗号化されて保存される不正解。暗号化の有無と「学習利用の有無」は別の問題。暗号化されていてもモデルの学習に使われる可能性はある。
D 24時間後に自動削除される不正解。自動削除の期間はサービスやプランによって異なる。一律24時間とは限らない。
Q2. AIへの入力判断で最もシンプルかつ有効な基準は
A 上司に毎回確認する不正解。上司への確認は重要だが、毎回の判断基準としては非効率。まず自分で判断できる基準を持つべき。
B AIの利用規約を全文読んでから判断する不正解。利用規約の確認は重要だが、毎回の入力判断の基準としては現実的でない。もっとシンプルな判断基準がある。
C 「この入力内容が翌日のニュースに出たら困るか」を自問する正解。困るなら入力しない。この一文が最もシンプルで有効な判断基準。迷った時にすぐ使える実用的なルール。
D 情報セキュリティ部門に都度申請する不正解。部門への相談は重要なケースもあるが、日常的な入力のたびに申請するのは現実的でない。自分で判断できる基準を持つことが先。
Q3. ソースコードのバグ調査をAIに依頼する際の適切な対応は
A コード全体をそのまま貼り付ける不正解。コード全体には認証情報、APIキー、接続文字列、社内独自のクラス名やアーキテクチャ情報が含まれるリスクがある。
B バグ箇所の関数のみ抽出し、変数名を汎用化、APIキー等を削除してから入力する正解。必要最小限のコードだけを抽出し、固有の変数名やクラス名を汎用的なものに置き換え、認証情報は必ず削除する。「加工すればOK」の典型的なパターン。
C コードを画像としてスクリーンショットで送る不正解。画像でもAIはOCRで内容を読み取れるため、テキストで送るのと本質的に同じリスクがある。加工が必要な点は変わらない。
D AI利用を諦めて自分で直す不正解。適切に加工すればAIを活用できる。コード全体の入力はNGだが、最小限に抽出・匿名化すれば安全にデバッグ支援を受けられる。