生成AIはなぜ「賢いのに嘘をつく」のか?情報理論の父シャノンの誕生日に学ぶハルシネーションの真実
「このAI、すごく賢いのになんで平気で嘘をつくんだろう?」──ChatGPTやGeminiを使ったことがある人なら、一度はそんな疑問を抱いたことがあるはずです。実はこの問いに答えるヒントは、今から約100年前に生まれた一人の天才数学者の研究の中に隠されています。
2026年5月2日は、情報理論の父クロード・シャノン(Claude Shannon)の生誕記念日です。1916年生まれのシャノンは、デジタル通信の基礎となる「情報理論」を打ち立てた人物であり、現代のAI・コンピュータサイエンスの礎を築きました。彼の誕生日である今日こそ、生成AIが「賢いのに嘘をつく」本当の理由を、情報理論の観点から掘り下げてみましょう。
情報理論の父シャノンとは何者か?
クロード・シャノンは1948年に発表した論文「通信の数学的理論(A Mathematical Theory of Communication)」の中で、情報を「ビット(bit)」という単位で定量化する方法を提案しました。この革命的なアイデアにより、文字・音声・画像など、あらゆる情報をデジタルデータとして扱えるようになったのです。
シャノンが定義した「エントロピー」という概念は、情報の不確かさや曖昧さを数値で表すもの。実はこの考え方が、現代の大規模言語モデル(LLM)が抱える根本的な問題と深く関係しています。
生成AIの仕組み──「次の単語を予測するマシン」
ChatGPTに代表されるLLM(大規模言語モデル)は、一言で言えば「次に来る単語を確率的に予測するシステム」です。膨大なテキストデータを学習し、「この文脈の次にはどの単語が来やすいか」を統計的に計算しながら文章を生成しています。
ここでシャノンのエントロピー概念が活きてきます。AIは常に「確率が最も高い選択肢」を選んでいるわけではなく、文章の自然さや多様性を保つために、ある程度の「ランダム性(温度パラメータ)」を持って単語を選択しています。これはシャノンが定義した情報エントロピー、つまり「不確かさ」そのものとも言えます。
ハルシネーションが起きる「本当の理由」
生成AIが事実とは異なる情報を自信満々に出力してしまう現象を「ハルシネーション(Hallucination:幻覚)」と呼びます。なぜこれが起きるのか、主な原因を整理しましょう。
- AIは「正確な情報」ではなく「それらしい文章」を生成している:LLMの目的は事実の検索ではなく、自然な文章の生成です。統計的に「続きそう」な言葉を選ぶため、事実確認のプロセスが本質的に組み込まれていません。
- 学習データの偏りや欠落:インターネット上のテキストには誤情報・古い情報・バイアスが含まれており、それをそのまま学習しているため、誤った「確率パターン」が形成されることがあります。
- 知識のカットオフ問題:LLMには学習データの締め切り日(カットオフ)が存在し、それ以降の最新情報は持っていません。しかし「答えを出そうとする」性質上、古い情報や推測で補完しようとします。
- 自信スコアと正確性の乖離:モデルが高い確率で選んだ回答=正しい回答ではありません。シャノンが示したように、確率的な選択には常に不確かさが伴います。
つまりハルシネーションは、AIが「悪意を持って嘘をついている」のではなく、「確率的な文章生成」という仕組みの構造的な副産物なのです。
ハルシネーション対策と今後のAI進化
この問題を軽減するために、現在さまざまなアプローチが研究・実装されています。
- RAG(Retrieval-Augmented Generation):外部の信頼できるデータベースをリアルタイムで参照しながら回答を生成する手法。最新情報への対応やファクトチェックに有効です。
- RLHF(人間のフィードバックによる強化学習):人間の評価者が「良い回答」「悪い回答」を教え込むことで、より正確で有益な出力を促します。
- Chain-of-Thought(思考の連鎖)プロンプティング:AIに「ステップバイステップで考えさせる」ことで、論理的な誤りを減らす手法です。
まとめ──シャノンの遺産が問いかけるAIとの付き合い方
クロード・シャノンが100年近く前に定式化した「情報エントロピー」の概念は、現代の生成AIが持つ根本的な特性──すなわち確率的であること、不確かさを内包すること──を説明する鍵になっています。AIは「間違えることがある確率的なエンジン」であると理解した上で活用することが、私たちユーザーにとって最も重要なリテラシーと言えるでしょう。
今後、RAGやエージェント型AIの普及により、ハルシネーションは徐々に減少していくと期待されています。しかし完全にゼロにはなりません。シャノンが教えてくれたように、情報には常に不確かさが伴います。AIを「万能の答えマシン」としてではなく、「優秀だが間違いもある協力者」として賢く使いこなすことが、これからのテクノロジー活用の第一歩です。
コメントを送信