立教大学大学院人工知能科学研究科と豆蔵の研究グループは11月11日、大規模言語モデル(LLM)が与えられた情報に対し、実際には存在しない誤った規則性を見出すことがあると発表した。本研究成果は、計算言語学会(ACL)主催の国際会議「EMNLP 2025」で公表された。
LLMはさまざまなタスクを実現する技術として利用が進んでいるが、「ハルシネーション」と呼ばれる誤情報の出力が課題となっている。今回の研究では、「適切な情報を参照している場合には誤った出力は起こらない」とする前提が正しいかどうかについて検証。知識の有無に関わらず、LLMに数列の規則性を説明させる実験を行った。
複数カテゴリの数列(規則性のあるもの、完全にランダムなもの等)を用い、OpenAIやMeta、Google製の5種類のLLMを対象に実験を行ったところ、すべてのモデルで存在しない規則性について説明する事例が確認された。これにより、LLMが人間と同様に「実際には存在しない秩序」を見出す傾向があることが明らかになった。
研究グループはこの現象がベーコンの「種族のイドラ」と類似すると指摘し、AIにも人間同様の認知的バイアスがあると考察している。今後は、LLMの信頼性リスクの認識と、その低減策の検討が重要となる。
この記事は参考になりましたか?
- この記事の著者
-
CodeZine編集部(コードジンヘンシュウブ)
CodeZineは、株式会社翔泳社が運営するソフトウェア開発者向けのWebメディアです。「デベロッパーの成長と課題解決に貢献するメディア」をコンセプトに、現場で役立つ最新情報を日々お届けします。
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
