2026年04月26日、AI・自動化技術をめぐりチャットGPT(ChatGPT)などの大規模言語モデル(LLM)をセラピスト(心理療法士)の代替として使用することの倫理的リスクが注目されています。

研究が指摘する主要な懸念事項

新たな研究によると、ChatGPTなどのAIを心理療法の場面で活用する場合、複数の深刻な倫理的問題が存在するとされています。報告では、AIが患者の精神状態を正確に判断できない可能性、プライバシー保護の不十分さ、そして治療関係の本質的な欠如が主要な課題として指摘されています。特に、自殺念慮や精神疾患の急性症状を示すユーザーに対して、AIが適切でない応答をするリスクが高いと報じられています。また、AIシステムが個人情報を収集・保存する過程での個人情報保護法違反の懸念も生じています。

医療分野における規制と課題

心理療法は医療行為であり、各国で厳格な資格要件と倫理基準が定められています。研究チームは、現在のAI技術では医学的診断能力や患者との信頼関係構築において人間のセラピストに代替できないと強調しているとのことです。一方で、カウンセリング補助ツール(サポートツール)としてのAI活用の可能性は認識されており、医療専門家の監督下での限定的な使用についての議論が進められています。日本を含む各国の医療当局は、AI技術の進展に合わせて適切な規制枠組みの構築が急務とされています。

今後の実用化に向けた展望

AIと医療の融合における倫理的ガイドラインの策定と、患者保護を優先した段階的な導入方針の確立が求められており、今後の規制動向と技術開発のバランスが重要な課題となっています。

関連動画