<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=445779107733115&amp;ev=PageView&amp;noscript=1">

生成AIにおけるハルシネーションとは?
発生する原因やリスク、対策方法を解説

 2025.04.21  株式会社電算システム

生成AI技術を活用すれば、資料の作成や文章の要約、オリジナルコンテンツの制作などが可能なことから、クリエイティブ業務や問い合わせ対応で利用しているケースも多いのではないでしょうか。しかし、生成AIは利用するうえでさまざまな懸念点が存在します。今回紹介するハルシネーションも、生成AIの数あるリスクのうちの一つです。

ハルシネーションとは、AIが誤った情報やコンテンツを生成してしまう現象を指します。そのため、ハルシネーションのリスクを十分に理解したまま生成AIを利用すると、誤った意思決定や信用問題に発展する恐れがあります。

本記事では、ハルシネーションの仕組みやリスク、対策方法などについて詳しく解説します。そのリスクと適切な対策方法を押さえたうえで、生成AIを正しく運用しましょう。

what-is-hallucination-in-generative-AI-1

 

ハルシネーションとはAIが誤った情報を生成してしまう現象

まずは、生成AIにおけるハルシネーションの意味や発生する原因について解説します。

そもそも生成AI技術とは

ハルシネーションは、生成AI技術を活用する際に起こり得る現象の一つです。そもそも生成AI技術とは、学習済みのAIに指示を与えて、オリジナルのテキストデータや画像、動画などを生み出す技術を指します。

これまでのAIはデータの抽出や分類といった、人間が指示を与えて機械がその通りに処理を行う定型的な作業を得意としてきました。しかし、生成AIは、これまで世に出ていないまったく新しいコンテンツや情報を作り出せるため、定型作業の自動化やデータの整理だけでなく、クリエイティブ業務でもAI技術を活用できるようになりました。

一方で生成AIには注意すべき点もあり、その一つがハルシネーションとされています。ハルシネーションに注意を払わず、むやみに生成されたコンテンツや情報を利用すると、ブランドイメージや信用の失墜といった大きなトラブルに発展しかねないので注意が必要です。

ハルシネーションの仕組みと原因

生成AIにおけるハルシネーションとは、AIが誤った情報を生成してしまう現象です。ハルシネーションには「幻覚」という意味があり、まるで幻覚を見ているような、もっともらしい回答を誤って生成することから名付けられました。

生成AIは事前に大量のデータをインプットし、その特徴量からデータ同士の関連性や法則性を見つけます。このような仕組みは機械学習と呼ばれています。大容量のデータをもとに特定の言葉に続く言葉や、同じジャンルの画像に含まれる似たような画像を予測し、新たなコンテンツや情報を生み出しています。

ただし、現段階のAIは、たとえ繰り返し学習を行ったとしても、文脈を正確に把握したり、出力するデータの正誤を完璧に判別したりできるわけではありません。そのため、ときとしてAIが事実にもとづかない誤ったコンテンツや情報を生成することもあります。これがハルシネーションの仕組みです。そのほか、学習データの情報が古い、そもそものソースに誤りがあるといった原因でも、ハルシネーションが起こる可能性があります。

ハルシネーションの種類

ハルシネーションは、「内在的ハルシネーション」と「外在的ハルシネーション」の2種類に分かれています。それぞれの特徴や違いについて解説します。

内在的ハルシネーション(Intrinsic Hallucinations)

内在的ハルシネーション(Intrinsic Hallucinations)とは、学習データに正しい情報が存在するにもかかわらず、誤った情報を生成してしまう現象です。

例えば、富士山の標高に関する学習データを与え、AIが「3,776メートル」という正しい回答を知っているとします。しかし、AIは必ずしも正しい回答を行うとは限らず、ときとして「3,000メートル」といった誤回答や、ほかの山の標高を答えるケースもあります。これが内在的ハルシネーションです。

外在的ハルシネーション(Extrinsic Hallucinations)

外在的ハルシネーション(Extrinsic Hallucinations)とは、学習データに含まれない誤った情報をAIが生成してしまう現象です。

先ほどの富士山の例で考えてみましょう。このAIには富士山の標高に関する学習データしか与えていないとします。しかし、実際に「富士山の高さは」と指示を与えると、「富士山はアメリカに位置しており、標高は3,776メートルです」と、学習データには存在しない誤った情報が付け加えられることがあります。

外在的ハルシネーションが起こるのは、生成AIの学習時にRAG(Retrieval-Augmented Generation)の仕組みを活用しているためです。RAGとは、学習時の内部データのみで適切な情報を生成するのが難しい場合、外部情報を検索して情報を補完する技術です。外部のデータベースや文書、Webサイトなどの情報が参照された結果、そのなかに誤った情報があれば、生成される情報にも誤差や齟齬が生まれやすくなります。

ハルシネーションが起こりやすいシーン

ハルシネーションは、生成AIを活用するあらゆるシーンで起こり得る問題です。ビジネスで生成AI技術を活用する場合、特に次のようなシーンでハルシネーションが発生しやすいといえます。

情報収集

生成AIに質問を投げかけることで、その内容に沿った回答を即座に提示してくれます。この利点を活かすことで、業務に関するノウハウやツールの使い方といった不明点を即座に解消できるため、情報収集の効率性が高まります。しかし、回答の内容が必ずしも正しいわけではなく、ハルシネーションが起こる可能性も否定できません。

現状では特に、特定の人物の経歴やある出来事が発生したタイミング、GDPや地域別生産量といったランキング要素などにおいて、ハルシネーションが発生しやすいといえます。仮にAIがその情報に関して未学習だったとしても、「学習していないのでわかりません」といった回答ではなく、誤情報をさも正解のように回答してしまうのが難点です。

問い合わせ対応

生成AIは人間との間でテキストによるコミュニケーションを取れるため、チャットボットなどに搭載して問い合わせ対応に活用するケースも珍しくありません。これにより問い合わせ対応を自動化できるだけでなく、問い合わせ件数の削減につながるのがメリットです。

問い合わせ対応に生成AIを活用する際は、FAQや業務マニュアル、製品の仕様書などを学習データとして使用するのが一般的です。しかし、データが古い、変更した内容が反映されていないといった状態で学習すると、ユーザーの質問に対して誤った回答を返してしまうこともあります。問い合わせ対応での回答ミスは顧客満足度の低下につながる恐れがあるため、ハルシネーションの対策は不可欠だといえます。

資料の要約

資料の要約も生成AIの得意分野です。参考となる資料を提供することで、AIが独自の文章にリライトし、より簡略で読みやすい資料へと作り直してくれます。

しかし、文章をリライトする過程でハルシネーションが発生する可能性があります。例えば、誤った情報を補足として付け加えたり、固有名詞を別の言葉に置き換えたりと、オリジナルの文章を無理に作ろうとして、かえって不自然な文章に仕上がることもあります。

特に外部に提出する資料でハルシネーションが起きると、資料としての信ぴょう性が下がり、取引先との信用問題に発展することも考えられるでしょう。そのため、単なる要約だからといって安心せず、適切なハルシネーション対策を行うことが重要です。

画像や動画の生成

AIを使って画像や動画、音声などを生成する際でも、ハルシネーションが起きる可能性があります。

例えば、「特定の文字を含めた画像を作成して」と指示を与えたにもかかわらず、世の中には存在しない文字を独自に作成するケースが想定されます。また、動画の場合は物体の構造が不自然だったり、逆再生のような動きをしたりといった現象がハルシネーションにあたります。

ハルシネーションがビジネスに与える2つのリスク

生成AIのハルシネーションは、ビジネスにさまざまな影響を与える可能性があります。ハルシネーションによって引き起こされるリスクを理解し、生成AIの適切な運用環境を考えることが重要です。

誤った意思決定につながる恐れがある

ハルシネーションが発生すると、その情報にもとづいた意思決定がビジネスに深刻な損害をもたらす可能性があります。

例えば、生成AIが不正確な市場データを提示し、それをもとに事業戦略を立てた場合、競争力の低下や市場での失敗につながりかねません。存在しないトレンドをもとに新商品を投入し、売上が伸び悩むといったリスクも考えられるでしょう。また、誤った財務データや統計情報をもとに予算計画を立てた場合、予期せぬコスト超過や利益率の低下を招く可能性があります。

法令違反や社会的信用の低下につながる可能性がある

生成AIが出力した情報が法令違反を誘発する場合、企業が法的責任を問われるリスクも考えられます。例えば、AIが違法性のある契約条項を生成し、それが原因で取引先とのトラブルに発展するケースも想定されます。

また、生成AIによって生み出された誤情報や虚偽のニュースが、SNSや口コミを通じて広まると、社会に深刻な影響を与える可能性があります。その情報が著作権を侵害していたり、個人を特定できる内容を含んでいたりと、差別や侮辱的な表現を含んでいる場合は法的なトラブルにも発展しかねません。最悪の場合、情報の発信元が社会的信用を失う結果につながることも考えられます。

ハルシネーションを防ぐための5つの方法

ハルシネーションは完全に防ぐことはできませんが、次の方法を採り入れることでリスクを緩和することができます。

  • プロンプトを工夫する
  • プロンプトエンジニアを起用する
  • ファクトチェックを徹底する
  • ガイドラインやマニュアルを策定する
  • ファインチューニングを実施する

ハルシネーションの対策方法について詳しく解説します。

プロンプトを工夫する

プロンプトとは、AIに対して与えるテキスト形式の指示文のことです。指示があいまいかつ不明瞭な状態では、想定したような回答が生成されず、ハルシネーションが起きるリスクも高まります。そのため、次の4つの要素を意識して適切なプロンプトを与えることが大切です。

  • 命令の種類を明確にする:
    回答や要約、分類など、AIに何をしてほしいかを明文化
  • 命令文に具体性を持たせる:
    「何を、どのように生成したいのか」がわかるよう、例文や数字などの具体的な指示を与える
  • 文脈を加える:
    AIは文章の前後関係から言葉の意味を読み取ろうとするため、話題や事例などを提示して自然な文脈のプロンプトを意識する
  • 出力形式を指定する:
    文章の長さや箇条書きの個数など、情報を出力する際の条件を設定

文章の要約やリライトといった定型的なプロンプトに関しては、インターネット上で検索すると参考となる雛形を取得できることもあります。

プロンプトエンジニアを起用する

資料の作成やプログラミングといった複雑な作業が求められる場合は、新たにプロンプトエンジニアを採用するのも一つの方法です。プロンプトエンジニアは、生成AIに対して適切な指示を与えられるスペシャリストで、プロンプトの使い方や生成時の注意点に精通しています。専門的な知見をもとに指示を与えることで、ハルシネーションのリスクを緩和できます。

最近では、求人サイトや転職サイトでプロンプトエンジニアを募集する企業も増えています。そのため、生成AI技術を活用する機会が多い場合は、専門人材を起用して独自のチームを形成するのも良いでしょう。

ファクトチェックを徹底する

生成AIを活用する際に欠かせないのが、データを出力した後のファクトチェックです。生成AIを運用する際は、「出力された情報は必ず正しい」と考えるのではなく、「どこかに何らかの誤りがある」という認識を持つことが重要です。そのうえで、出力されたデータに対しては人間による目視チェックを行いましょう。

ファクトチェックを行う際は、一人ではなく複数人でダブルチェックを行うのが理想です。単なる表現の良し悪しや表記揺れを確認するだけでなく、情報のソースを確認して信ぴょう性を確かめることも忘れてはなりません。生成AIのサービスによっては、「情報の出所を教えてください」といったプロンプトによってソースを明らかにできることもあります。

ガイドラインやマニュアルを策定する

企業で生成AIを導入する際は、利用目的や使用範囲、責任の所在を明確にしたガイドラインを策定するのがおすすめです。特に使用範囲については、情報収集の目的で生成AIを活用することは極力避け、プロンプトに含まれる既存の文章をもとにした文書作成・要約・翻訳などの作業や、アイデア創出の支援といった用途に限定することで、ハルシネーションの発生を抑えられます。ガイドラインの周知や情報共有を行うことも重要です。

また、企業が業務で生成AIを活用する際には、マニュアルを通じてハルシネーションのリスクを周知し、誤った情報が出力される可能性があることを従業員に十分理解してもらう必要があります。マニュアルには、ハルシネーションへの対策として、適切なプロンプトの作成方法やファクトチェックの手順などを明記し、従業員が自ら注意を払いながらAIを活用できる環境を整えましょう。

ファインチューニングを実施する

ファインチューニングとは、学習後のAIに別の学習モデルを組み込んで再トレーニングを行う手法です。これまでにAIが習得した学習データを見直し、新たな目的に合わせてシステムを再構築できるメリットがあります。

例えば、ハルシネーションが起こる場合、学習データに何らかの誤りがあるか、習得した情報が古い可能性があります。そこで、現在のビジネスモデルに即した学習データをインプットし再学習することで、回答の精度が高まり、ハルシネーションのリスクを和らげることが可能です。

ハルシネーションのリスクを理解したうえで生成AIを正しく活用しよう

ビジネスシーンで生成AIを活用する場合、ハルシネーションの問題を避けて通ることはできません。AIが生成する情報やコンテンツは必ず正しいものではなく、何らかの誤りやミスが含まれていることもあります。そのため、ハルシネーションのリスクを正しく認識したうえで、適切な対応方法を検討することが大切です。

生成AI技術を活用する際は、Google Cloudの導入を検討するのも一案です。Google Cloudには、Vertex AIやAutoML、Speech-to-Textなど、さまざまな生成AI関連のサービスが搭載されており、それぞれを組み合わせて活用できます。AIモデルの開発や分析データ基盤の構築など、方法次第で幅広いビジネスシーンに対応できるのが魅力です。

電算システムでは、環境構築やコンサルティングなど、Googleサービスの導入支援サービスを提供しています。GmailやGoogleドライブ、Google Workspaceのサポートにも対応しています。専門領域に精通した数多くのエンジニアが在籍しているので、スピーディかつ質の高いサポートを行えるのが強みです。「Googleサービスを活用したいが具体的なイメージが湧かない」といったお悩みを抱える方は、ぜひ電算システムへと気軽にお問い合わせください。

お問い合わせ