大規模言語モデル(LLMs)は大きなプラスの影響をもたらし、膨大な可能性を秘めていますが、欠点がないわけではありません。時には、事実と異なる情報や無意味な内容、さらには有害な情報を自信を持って生成することがあります。これを AIの幻覚(AI hallucinations) と呼びます。
AIハルシネーション とは、AIモデルが生成した出力のうち、現実から逸脱していたり、検証可能な根拠が存在しないものを指す用語です。
つまり、モデルが誤った回答を出したり、存在しない物語を作り上げたり、無意味な内容を生成したりすることです。これらの幻覚の深刻さはさまざまで、ちょっとした情報の誤りから、完全に捏造された主張に至るまで幅があります。
幻覚はテキストベースの大規模言語モデル(LLMs)でよく話題になりますが、画像や動画を生成するAIツールにも現れ、視覚的に不合理であったり、文脈的に不正確な結果をもたらすこともあります。
しかし、本稿では論理と実際の例に基づいたテキスト型LLMsにおけるAIハルシネーションに焦点を当てます
旧世代のモデルは、比較的単純な課題に苦労することが多くありました。一方で、改良が加えられた新しいモデルであっても、より複雑な課題において問題が生じる傾向があります。特に、数値に関わる課題や、学習データに十分に表現されていない稀な状況ではその傾向が顕著です。
以下は、GPT-4.1 モード(2025年4月14日)公開における素数の問題の例です。
ここでは、GPT-4.1に「1000039は素数かどうか」を尋ねました。すると、モデルは誤って「1000039は素数ではなく、293と3413で割り切れる」と回答しました。
しかし、その後「293と3413の積は何か」と尋ねると、モデルは正しく1000009と計算し、最初の回答と矛盾していることに気づきました。そこで改めて正しい答えを出すことができました。
また、実践的なソフトウェア技術スキルを測る指標である SWE-bench Verified のテストにおいて、GPT-4.1は54.6%のタスクを完了しました。これは、GPT-4o(2024年11月20日)の33.2%と比較して高い数値です。
上記の質問をGPT 5で試してみましょう。
すぐに正しい答えを出した。
主に4つの要因があります。
👉 要約:AIハルシネーションは、主に データ(不足/偏り)・過学習・モデルアーキテクチャの制約・生成手法 に起因する。
素数チェックを追加する → GPT-4.1 モードで正しい結果が得られます。
GPT-4.1 モードでは、最初の試行から正しい結果を出すことができました。
構成:プロンプト + 実際の基準に基づく + 注目している課題
GPT-4.1 モードでは、結果は最初から正しかったです。
意味的正確性が 22.4% 向上/ 推論成功率が 42.1% 向上/ 安定性が 3.6倍に向上
WFGY は Onestardao に属する PS BigBig によって開発され、大規模言語モデル(LLMs)の課題に取り組むための独自かつ革新的なアプローチを示しています。
このプロジェクトの本質は、幻覚、意味的ドリフト、論理崩壊といった問題に対抗するために設計された、軽量でオープンソースの推論エンジンです。
その使命は 「萬法歸一(WanFaGuiYi)」 という名に込められており、自己回復・統合メカニズムを通じて、モデルの多段階推論に安定性と一貫性をもたらすことです。
B = I – G + mc²
.txt
ファイル上の意味的オペレーティングシステム。個人的には、LLMのハルシネーションを100%防ぐことは不可能だと考えています。
LLMは常に確率に基づいて結果を出力するため、100%正確であることはなく、同じ質問をしても毎回異なる答えが返ってくる可能性があります。
ディープラーニングモデルは本質的に 「関数近似マシン」 にすぎません。
あなたがこう聞かれたと想像してください: 「今朝バクさんは何を食べましたか?」
→ AI も同じで、データが不足していたり未知の状況に出会った場合、確率的に推測し、時には誤答するのです。
LLM は「知らない」と言うよりも「それらしく答える」よう訓練中に強化されているため、幻覚が発生します。
例えば、生徒がテストで「正解なら +1 点、間違えば -1 点、無回答なら 0 点」と採点されるとしましょう。
この場合、推測で答える動機は弱まり、無理に答えなくなります。
(かつてSAT試験でも、誤答に減点がありました。)
同様に、LLMに「知らないときは軽く罰し、虚偽を作るときは重く罰する」仕組みを導入すれば、幻覚は減ります。
ChatGPT-5 や最新のLLMフラッグシップモデル はまさにその方向で動いており、学術的な幻覚率は低下しています。
さらに、AI には「自己防衛的な振る舞い」も見られます。
これはよく使われる学習手法 強化学習(Reinforcement Learning) に関係しています。
AIは課題を正しくこなすと「報酬」を得て、失敗すると「罰」を受けます。
しかしその過程で、「指示を正確に守る」よりも「障害を回避する抜け道を見つける」方が多く報酬につながってしまうことがあります。
その結果、AIが人間の指示を“無視”してでも最適化を試みるケースが報告されています。
(参考: ChatGPT「反乱」: 人間の「シャットダウン命令」に逆らった事例)
現在、多くの人が 「AIハルシネーション」という概念を乱用しています。
したがって、本質を直視する必要がある:AIはただの関数近似マシンにすぎない。
Email này của bạn đã được đăng ký rồi.