2026年04月26日、AI・自動化技術をめぐり、ChatGPT(チャットジーピーティー)などの生成AIが心理療法士の役割を担うことの倫理的リスクが指摘されています。新たな研究により、AIが精神保健支援ツールとして利用される際の深刻な課題が明らかになりました。

生成AIを治療ツールとして活用する動き

近年、ChatGPTなどの大規模言語モデル(LLM:Large Language Model)は、精神的な悩みを持つ利用者からの相談に応じるチャットボット(会話型AI)として活用されています。低コストで24時間アクセス可能であり、心理療法へのアクセスが困難な地域での支援ツールとして期待されていました。しかし実際には、AIが複雑な精神疾患を適切に診断・治療することは極めて困難であり、医学的知識や患者の心理状態を深く理解する能力の限界が露呈しています。

明らかになった倫理的リスク

研究チームが実施した分析によると、AIセラピスト(AI心理療法士)は患者の重要な信号を見落とし、危険な状況に対して不適切な助言を与える可能性が高いとされています。特に自殺念慮(じさつねんりょ)や精神病性障害といった緊急性の高い症状に対応する場合、AIは医学的な深さと責任感を持つ実在する専門家の代替にはなり得ないことが示唆されました。さらに、利用者がAIとの会話を本物の治療と誤認し、必要な医療を受けるタイミングを逃すリスクも指摘されています。

今後の課題と展望

この研究結果は、生成AIの医療応用における規制強化と透明性確保の必要性を浮き彫りにしています。AIと人間の専門家の役割分担をどのように設計するか、またAIを用いた支援システムにどのような制限と警告表示を設けるかが、業界全体の重要な課題となっています。今後、倫理的ガイドラインの整備と法的枠組みの構築に向けた動向に注目が集まっています。

関連動画