Hallucination

カテゴリ: AI・技術関連

大規模言語モデルが事実と異なる情報をもっともらしく生成してしまう現象。日本語では「幻覚」とも訳される。教育現場では誤った知識を学習者に伝えるリスクがあるため、出典提示機能の実装、専用ツールによる計算検証、人手レビューの組み込みなど多層的な対策が求められる。プロンプト設計で「分からない場合は明示する」よう指示することや、回答の根拠を常に要求する運用も有効。

関連キーワード

Hallucination