テクノロジー
ハルシネーションとは? 生成AIと誤情報リスク

生成AIは、いまや誰もが活用するツールになりつつありますが、利用する上で避けて通れない課題の一つが「ハルシネーション」です。もっともらしい回答の中に紛れ込む誤った情報は、企業の意思決定や社会的信用に重大な影響を及ぼしかねません。
この記事では、生成AIのハルシネーションとは何か、なぜ発生するのか、そしてどのように対策すべきかについて解説します。
ハルシネーションとは
ハルシネーションとは、生成AIがまるで真実かのような偽りの情報を生成する現象のことです。「幻覚・幻影」という意味を持つこの言葉は、現実とは異なる情報でありながら真実のように見える内容を生成することから、このような名称で呼ばれるようになりました。
ハルシネーションは「内在的ハルシネーション」と「外在的ハルシネーション」の2つのタイプに分類されることがあります。内在的ハルシネーションは学習済みのデータから得られた統計的関連性に基づいて、事実と異なる情報を生成する現象とされています。対して、外在的ハルシネーションは生成AIの学習データベースに含まれていない新しい情報を創作して提示する現象を指します。
どちらのタイプでも、生成AIが質問に対して事実とは異なる情報を利用して回答を生成するという点では同じです。
なぜハルシネーションが起こるのか?
生成AIでハルシネーションが発生する原因はいくつか考えられます。その主な原因について見ていきましょう。
生成AIの仕組みと限界
生成AIによるテキストの作成プロセスは、次に続く単語の確率分布に基づいて選択を行うため、事実関係の正確さよりも文章の流れや文脈の整合性が優先されがちです。自然な回答をめざして情報が生成されることで、誤った情報の生成が引き起こされてしまうのです。また、生成AIは理解できない質問を受けると、根拠のない推測に基づいて情報を作り出すことがあり、これも要因となります。
学習データのバイアスとアルゴリズムの影響
生成AIの学習データが古い場合や偏りがある場合、それに基づいて生成される情報にもバイアスや誤りが含まれることがあります。また、学習データに含まれる情報の質や量によっても、生成される情報の正確性は大きく左右されます。例えば、特定のトピックに関する学習データが少ない場合、AIはその不足を補おうとして事実とは異なる情報を生成してしまうことがあります。
事実確認が困難な出力の特徴
対話型の生成AIではユーザーからの問いかけに対してAIが回答を生成しますが、その回答がどのような情報源に基づいているのか明示されていない場合、ユーザーは回答の真偽を判断することが難しいといえます。生成AIの中には回答に出典が明示されないものも多く、これがハルシネーションの検証を困難にしています。ただし、情報源を表示する機能を持つ生成AIもあります。
企業が把握すべきハルシネーションのリスク
個人と企業ではハルシネーションのリスクも大きく異なります。ここでは、企業が知っておくべきリスクについて解説します。
情報の誤用による信用失墜リスク
ハルシネーションによる誤った情報が真実として受け取られてしまうと、社会的な混乱を招く恐れがあります。また、このような不正確な情報を、事実確認を行わないまま自社の判断材料や発信内容として利用してしまった場合、企業としての信頼性が問われる結果にもなりかねません。さらに、特定の個人や組織に対する誤解を招く情報や不適切な表現を含む場合には、関係各所にまで波及する大規模な問題に発展するリスクもあります。
社内業務への誤影響と意思決定ミス
誤って生み出された不正確な情報は、企業の重要な決断プロセスを混乱させる恐れがあります。その結果、誤った戦略立案や社内業務への悪影響が懸念され、最終的には企業の競争力低下や、財政面での悪影響を引き起こしかねません。
セキュリティ面から見る情報誤認の危険性
セキュリティに関するアドバイスが不正確であった場合、それを利用したユーザーの個人情報の漏えいや悪意のある攻撃によってセキュリティ事故につながるリスクがあります。また、生成AIに機密情報を入力すると、利用するサービスや設定によっては、その情報が学習に使用される場合があります。
生成AIを活用するためのハルシネーション対策
特に企業で生成AIを活用する場合に、ハルシネーションのリスクを軽減するための対策について解説します。
社内ルールとプロンプト設計の工夫
生成AIを活用するためには、明確な社内ルールの策定が重要です。利用可能な業務範囲の明確化、機密情報入力の禁止、著作権侵害への注意、ハルシネーションや倫理的な問題への配慮、トラブル発生時の対処法などを含めたルールを整備しましょう。また、プロンプト設計では、AIに明確な指示とルールを設定することが効果的です。例えば『出典を明記してください』『信頼性の高い情報のみを挙げてください』といった明確な指示を加えることで、誤情報のリスクを軽減できます。
ファクトチェックツールや外部情報との併用
生成AIが生成した回答に対しては、必ずファクトチェックを行いましょう。ファクトチェックを異なる生成AIや検索AIで実施すると効果的です。また、複雑なプロンプトを分割して各ステップでAIに回答の確認をさせる「プロンプト・チェイニング」という手法も効果的です。
誤情報対策としての教育とガイドライン整備
ハルシネーション対策は技術的なアプローチだけでなく、ユーザーのリテラシー教育、ガイドラインの作成・教育、体制面の整備も重要です。生成AIの仕組みやそのメリット・デメリットの理解と、リテラシー向上に向けた教育を行います。併せて、回答結果が誤った情報や不正確な内容でないか確認・検証するファクトチェックのプロセスと体制を構築することも重要です。
ハルシネーション対策をしましょう
生成AIのハルシネーションは、企業活動にも影響を及ぼす可能性がある重要な課題です。しかし、適切な対策を講じることで、そのリスクを大幅に軽減できます。完全な対策は難しいですが、技術的な対策に加えて、体制構築や教育を徹底することが重要です。ハルシネーション対策を講じて生成AIが持つ可能性を最大限に引き出し、効果的に活用していきましょう。
日立ソリューション・クリエイトでは、セキュアな環境で利用できるAIプラス 生成AIソリューションをご用意しています。ハルシネーション対策として有効なRAGが使用できます。
RAGについて以下記事で詳しく解説しています。ぜひご一読ください。
「RAG(検索拡張生成)とは? 生成AIとの関係や仕組みなど」