Now Loading...

Now Loading...

ハルシネーション(Hallucination)

生成AIのリスク 特徴 ハルシネーション(Hallucination)

 ハルシネーション(Hallucination)とはAIが事実に基づかない誤った情報をあたかも正しいかのように出力する現象を指します。AIが幻覚(Hallucination)を見ているかのような挙動であることからこのように呼ばれています。

 ハルシネーションはユーザーが知識がない場合や、どのデータを用いたものかという情報がわからないと嘘だと見抜くことが難しいことから問題となっています。ハルシネーションが起こる理由はデータの不足や偏り、モデルの過学習により特定の領域に過剰に適合していること、LLMのアーキテクチャ、ドメインの違いなどが挙げられます。そのため、学習に使うデータの質を上げることや学習のプロセスを改善することで解決を試みますが、完全に取り除くのは難しいです。

👉より体系的に学びたい方は「人工知能基礎」(東京大学松尾豊先生監修)へ

ハルシネーションの説明について正しいものを選べ

  • 正解を見る
  • 解説を見る
    ハルシネーションはAIが事実に基づかない情報を出力する現象で、データの不足や偏りが原因となります。利用者は間違いに気づかない可能性があり、問題となります。データの処理能力に関係なくハルシネーションは発生し、モデルのアーキテクチャや学習に使ったデータに問題がある可能性があります。

    👉G検定の受験対策は約1,000問収録の「G検定実践トレーニング」へ

人工知能基礎講座を提供中

人工知能の第一人者である東京大学の松尾豊教授が監修した人工知能基礎講座を受講してみませんか? 人工知能の歴史から自然言語処理、機械学習、深層学習といった最先端のトピックやAIに関わる法律問題まで網羅しているので全てのビジネスパーソン・AIの初学者におすすめです。

サンプル動画

人工知能基礎講座はこちら↓ zero to one G検定 人工知能基礎 jdla

AI初学者・ビジネスパーソン向けのG検定対策講座

G検定受験前にトレーニングしたい方向けの問題集「G検定実践トレーニング」も提供中です。 zero to one E資格 jdla

zero to oneの「E資格」向け認定プログラム

日本ディープラーニング協会の実施するE資格の受験ならzero to oneの「E資格」向け認定プログラム (税込165,000円) をおすすめします。当講座は、東京大学大学院工学系研究科の松尾豊教授と東北大学大学院情報科学研究科の岡谷貴之教授が監修する実践的なプログラムとなっています。 厚生労働省の教育訓練給付制度対象のE資格認定プログラムの中では最安値※となり、実質負担額49,500円~(支給割合70%の場合)で受講可能です。※2023年弊社調べ zero to one E資格 jdla