AI・自動化技術をめぐり、大規模言語モデル(Large Language Model)であるChatGPTが科学的な問題に対して予想以上の高い頻度で誤った回答を提供することが注目されています。
研究が明らかにした問題点
2026年04月25日に公開された研究によると、ChatGPTは科学分野の質問に対して、ユーザーが想定するよりも頻繁に不正確な情報を生成してしまうことが判明しました。この調査は複数の科学領域にわたる問題セットを使用してChatGPTの回答精度を検証したもので、特に化学や物理学、生物学などの専門的な質問において誤答率が高かったと報じられています。研究者たちは、生成型AI(Generative AI)モデルが学習データから統計的パターンを抽出する性質上、事実ではなく「もっともらしい」回答を生成する傾向があることを指摘しています。このような問題は「ハルシネーション」(Hallucination)と呼ばれており、AIが信頼度をもって誤った情報を述べる現象として知られています。
実用化への影響と今後の課題
この研究成果は、教育現場や専門家による意思決定支援など、ChatGPTを含む生成型AIが活用される領域における信頼性の問題を改めて浮き彫りにしています。特に科学研究や医療分野などの高い精度が要求される領域では、AIの出力結果を鵜呑みにすることの危険性が強調されています。今後、こうした問題に対処するため、AIシステムの検証メカニズムの強化や、ユーザー向けの利用ガイドラインの策定が急務とされています。また、より正確な回答を生成できるAIモデルの開発と改善が、複数の企業や研究機関で進められているとされています。生成型AIの信頼性向上に向けた技術開発と運用上の工夫が、今後の実用化に向けた重要な課題として認識されています。
関連動画