
【問題】
ChatGPTの回答を丸ごとコピペしていませんか?AIを使ううえで絶対に知っておくべき「落とし穴」に関する問題です。
★ ヒント
AIは学習データのパターンから文章を生成しているだけで、事実かどうかを確認する仕組みを持っていません。医学や法律など専門的な質問で特に起こりやすいと言われています。
【解説】

ハルシネーションとは、AIが存在しない情報や誤った内容をあたかも事実のように自然な文章で出力してしまう現象です。AIは「次に来る確率の高い単語」を予測して文章を組み立てているため、内容の真偽を判断する能力を本質的に持っていません。たとえば、実在しない論文のタイトルや著者名をでっち上げたり、架空の法律条文を引用したりするケースが報告されています。対策としては、AIの出力を鵜呑みにせず、必ず一次情報で事実確認(ファクトチェック)を行うことが重要です。最近ではRAG(検索拡張生成)という技術を組み合わせることで、ハルシネーションを減らす取り組みも進んでいます。AIを「優秀だけどウソもつくアシスタント」と捉えて付き合うのが、賢い使い方です。
AIの弱点を知っている人ほど、AIをうまく使いこなせます。次回もAIリテラシーが上がるクイズを出題するのでお楽しみに!
