
【問題】
AIを使いこなしている人ほど、この現象に一度は騙された経験があります。知らずに使い続けると、大事な場面で大恥をかくかもしれません。
★ ヒント
AIが出した回答を鵜呑みにして、あとで「全然違うじゃん!」となった経験はありませんか?この現象は人間の脳科学用語から借りてきた言葉です。
【解説】

ハルシネーションとは、AIが実在しない情報や事実と異なる内容を、あたかも正しいかのように自然な文章で生成してしまう現象です。例えば、存在しない論文のタイトルや著者名をでっち上げたり、架空の法律条文を引用したりすることがあります。これはAIが「もっともらしい次の単語」を予測して文章を作る仕組みに起因しており、AIが本当に内容を理解しているわけではないために起こります。ビジネス文書の作成やリサーチにAIを使う際は、必ずファクトチェックを行うことが重要です。最近ではRAG(外部データベースとの連携)などの技術で、ハルシネーションを減らす取り組みも進んでいます。AIを「優秀だけどたまにウソをつくアシスタント」と捉えて付き合うのが、現時点でのベストな使い方です。
AI用語を知っているだけで、使いこなし度が一気に上がります。次回もサクッと学べるAIクイズをお届けするのでお楽しみに!
さらにもう一問!
▶ 【AIクイズ】これ知らずにプロンプト書いてるの?精度が激変する基本テクニック



