生成AIが堂々と嘘をつくのは「ハルシネーション」のせいなの? – 週刊アスキー 2025年7月6日2025年7月19日ai 「幻覚」「錯覚」を意味する英語「hallucination」より、生成AI、特に大規模言語モデル(LLM)において、事実と異なる情報や存在しない内容をもっともらしく出力してしまう現象を指す。