SESSION 01

ハルシネーション
見抜く力と防ぐ仕組み

AIがもっともらしく嘘をつく問題にどう対処するか。発生メカニズムの理解から、プロンプト設計による予防、ファクトチェックの実践まで。

0:05 - 0:25(20分)
講義 8分 + 実践 12分
LECTURE / 8 MIN
ハルシネーションとは何か
定義

モデルが学習データに存在しない情報を、あたかも事実であるかのように生成する現象。「幻覚」の名の通り、AI自身は嘘をついている自覚がない。出力の文体が自信に満ちているほど、人間は騙されやすい。

発生メカニズム
実際に起きた事例
CASE 01

架空の判例を引用した弁護士

2023年、米国の弁護士がChatGPTで判例を調査。AIが生成した架空の判例6件を裁判所に提出し、制裁処分を受けた。

Mata v. Avianca, Inc. (2023) ↗

CASE 02

存在しない論文のDOI

学術論文の参考文献をAIに生成させると、実在しないDOI(デジタルオブジェクト識別子)を返すことがある。形式は正しいが、リンク先は存在しない。GPT-4oでもDOIの36.2%にエラーがあるとの報告。

Scientific Reports: Fabrication and errors in bibliographic citations (2023) ↗

CASE 03

AI Package Hallucination ↗

AIが架空のライブラリ名を提案し、攻撃者がその名前で悪意あるパッケージを登録する手口(Slopsquatting)。約20%のAI生成コードに存在しないパッケージ名が含まれるとの研究報告がある。

事前対策 ── プロンプト設計で防ぐ

「わからない」を許可する

プロンプトに「わからない場合はわからないと答えてください」と明示する。これだけで架空の情報を生成するリスクが下がる。

出典を要求する

「回答には出典URLを付けてください」と指示する。実在する出典を付けられない場合、AIは回答を控えるか、不確実であることを示唆しやすくなる。

確信度を数値化

「この回答の確信度を0-100で示してください」と追加する。AIに自己評価させることで、人間が判断しやすくなる。

Ground Truthを添付

正解データ(社内文書、公式マニュアル等)をプロンプトに添付し、その範囲内で回答させる。RAG的なアプローチを手動で実現する方法。

生成物のチェック方法
ファクトチェック 3ステップ

生成されたテキストを検証する際は、この順序で確認する。

1. 固有名詞の検証
2. 数値の検証
3. 論理構造の検証
参考リンク
Google Gemini Blog OWASP Top 10 for LLM
HANDS-ON / 12 MIN
ハルシネーション発見 & Gemファクトチェッカー作成
前半 ── 発見チャレンジ(7分)
EXERCISE

AIが生成した事例の真偽を判定する

  1. Geminiに以下のプロンプトを入力する
// Geminiに入力するプロンプト 日本の中小企業のDX成功事例を5つ、具体的な社名と施策を挙げてください。
Step 1: 生成結果を受け取る
Geminiが5つの事例を生成する。社名、施策内容、数値データが含まれるはず。
Step 2: 自分で真偽を判定する
5事例のうち、実在する事例と架空の事例を自分の知識と直感で分類する。まだ検索しない。
Step 3: Deep Researchで検証
GeminiのDeep Research機能で各事例を検証する。社名・施策内容・数値のどこにハルシネーションがあるか特定する。
Step 4: 全体で共有
どの要素(社名 / 施策内容 / 数値)にハルシネーションが多かったか議論する。
後半 ── Gem作成(5分)
EXERCISE

ファクトチェック専用アシスタントをGemで作成する

  1. GeminiのGem機能を開く
  2. 以下のシステム指示を設定する
  3. 作成したGemに先ほどと同じ質問を投げ、出力の違いを確認する
// Gem のシステム指示(例) あなたはファクトチェック専用アシスタントです。 以下のルールを厳守してください: 1. 回答には必ず出典元URLを付与すること 2. 確信度が70%未満の情報には [要確認] タグを付けること 3. 数値データには出典年と調査機関名を明記すること 4. 確認できない情報は「確認できませんでした」と明記すること
比較のポイント

Gem適用前と適用後で、出典の有無、[要確認]タグの付与、数値の根拠の明示がどう変わるかを確認する。プロンプト設計だけでハルシネーションのリスクを大幅に下げられることを体感してほしい。