2026年04月26日、AI・自動化技術をめぐり、会話型AI「ChatGPT」などの大規模言語モデル(LLM)をセラピスト(心理療法士)として利用することの深刻な倫理的リスクが指摘されています。

AIセラピストの現状と問題点

近年、ChatGPTなどの会話型AIが精神的なサポートを求める利用者から注目を集めています。手軽にアクセスでき、24時間対応が可能という利点がある一方で、新しい研究によると、AIが人間の心理療法士の代替として機能することには重大な課題があると報じられています。問題として指摘されているのは、AIが個人の複雑な心理状態を十分に理解できないこと、誤った診断や不適切なアドバイスを提供する可能性、そして倫理的訓練を受けていないという点とされています。また、機密性や個人情報保護の観点からも、利用者データの扱いについて懸念が示されています。

医療・心理分野での規制の必要性

研究者らは、セラピストとしてのAI活用を規制する必要性を強調しています。特に自殺念慮や深刻な精神疾患を抱える利用者にとって、AIの不正確な対応が危険な結果につながる可能性があると指摘されています。医療現場では患者とセラピストの信頼関係が治療の基本であり、これをAIで代替することの限界が明確になりつつあると報じられています。一方で、AIが補助的なツールとして、専門家の診断や治療を支援する役割は有望とされています。

AI技術の急速な発展に伴い、医療・心理分野における適切な規制枠組みの構築が急務となっています。

関連動画