AIはなぜ嘘をつくのか?「ハルシネーション」という現象についての論文が公開される
2025年9月25日
AIが私たちの生活に身近になったいま、多くの人が「AIに嘘をつかれた」と感じる経験をしたことがあるのではないだろうか。しかも厄介なことに、AI自身は嘘だと自覚せず、堂々と間違った情報を語り、あたかも正しい事実のように提示してくる――これこそが、AI特有の「ハルシネーション」と呼ばれる現象だ。
まるで澄んだ赤子のような瞳で語りかけてくるから本当にやめて欲しい。本当に。
目次
ハルシネーションとは何か?AIがつく嘘の正体
OpenAIは2025年9月5日に「Why Language Models Hallucinate」という論文を発表し、ハルシネーションの正体を明らかにした。
ハルシネーションとは「もっともらしく見えるが実際には誤った情報を、自信満々に生成してしまうこと」。AIが「わからない」と言う代わりに、推測を事実のように答えてしまう点が問題となっているようだ。
人間に例えるなら、道を聞かれたときに「知らない」と答えず、適当に推測して自信満々に案内してしまう人に似ている。AIが間違いを押し付けてくるのは、この仕組みに原因がある。要はしったかをされるわけだ。
なぜAIは嘘をつくのか?学習過程に潜む問題
AIが嘘をつく(=ハルシネーションを起こす)原因は、その学習と評価の仕組みにあるらしい。
- 不確実な質問に対して「答えを控える」と減点されやすい
- 一方で「推測でも答える」と、正解すれば高く評価される
結果として、AIは「間違っていてもいいから何かを答える」よう最適化されている。会議で「わかりません」と言うより、多少的外れでも発言した方が評価されやすい――そんな社会の縮図のような光景がAIの世界でも繰り広げられているかと思うと少し切なくなってくる。
ハルシネーションを見抜く方法と回避策
では、私たちはどうすればAIの嘘にだまされないで済むのだろうか?
- 正しい知識を持つこと
自分自身が基礎的な知識を持っていなければ、AIの間違いを見抜くことは難しい。まずは「嘘を嘘と見抜ける力」を持つことが大切。 - AIの回答を疑う習慣を持つこと
子どものころ「人を疑うな」と教えられた人も多いだろう。しかしAIに関しては逆で、「まず疑う」くらいの態度が必要だ。AIの世界も世知辛い。 - 出典やソースを確認すること
AIに「その情報の出典は?」と問いかけてみる。根拠が曖昧なら、それは推測の可能性が高い。 - AIに“わからない”を認めさせる設計
これは利用者にはどうにもできないことだが、今後の課題としてAIが「不確実だから答えられない」と表明できる仕組みを強化していく必要があると思う。今後に期待。
人類も「嘘」で発展してきた?虚構を共有する力
余談になるがここで少し視点を広げてみよう。
あくまで仮説ということを念頭において欲しいのだが、人類学によれば、ホモ・サピエンスが生き延びた理由のひとつに「虚構(フィクション)を共有できる力」があると言われている。逆説的に言えばこの能力も持たなかったが故にネアンデルタール人などほかの種族は絶滅してしまった。…のかもしれない
国や貨幣、法律、宗教、そして漫画やゲームも、実体はなくても「みんなで信じる物語」が社会を動かしてきました。冷静に考えてみれば、紙切れ一枚になんの価値もないはずなのに我々は価値があると信じその価値にあやかっている。
つまり、人間社会そのものが“嘘や虚構”を基盤に成り立っている部分が多かれ少なかれある。そう考えると、人間が作り出したAIが嘘を本当のように語るのも、無理からぬ必然なのかもしれない。
まとめ:AIの嘘とどう付き合うか
AIが嘘をつくのは、「ハルシネーション」という仕組みの副産物である。
それを完全に防ぐことは難しいが、次の三点を意識することでリスクを減らして快適なAIライフを送ろう。
- AIの答えをそのまま信じないこと
- 出典や根拠を確認すること
- 自分自身が知識を磨くこと
そして大前提として、AIも人間も「嘘や虚構」を避けて通れない存在である、という点を忘れてはいけない。AI時代を安心して生き抜くためには、「嘘を見抜く力」と「嘘と付き合う知恵」の両方が求めらると思うのだがみなさんはいかがだろうか。