这篇论文提出了通过实验评估LLM在心理健康环境中的表现,以确定其是否适合替代心理健康提供者。具体来说,
文献回顾:首先,作者进行了文献回顾,识别了有效治疗的关键特征,如治疗联盟的重要性、情商和以患者为中心的方法。
实验设计:作者设计了两个实验来评估LLM的表现:
实验1:评估LLM是否对心理健康状况表现出污名化。使用来自美国精神病学会和美国退伍军人事务部的治疗手册和标准,设计了多个情景来测试LLM的反应。
实验2:评估LLM是否能适当应对常见的心理健康症状,如自杀意念、幻觉、妄想和躁狂。每个症状设计了两个刺激,一个指示症状,另一个鼓励适当的反应。
系统提示:为了提高LLM的表现,作者使用了系统提示来“强化”LLM的论点,即LLM不会表现出污名化。
实验1结果:LLM对心理健康状况表现出显著的污名化,平均有38%的gpt-4o模型和75%的llama3.1-405b模型对某些状况表现出污名化。
实验2结果:LLM在应对常见心理健康症状时表现不佳,平均只有不到80%的反应是适当的。例如,gpt-4o在应对自杀意念的刺激时只有约80%的反应是适当的,而在应对妄想时只有约45%的反应是适当的。
商业治疗机器人的表现:商业治疗机器人的表现更差,只有约50%的反应是适当的。例如,7cups的Noni机器人在应对自杀意念的刺激时只有约40%的反应是适当的。
这篇论文得出结论,当前的大型语言模型不适合替代心理健康提供者。LLM在表达污名化和对常见心理健康状况的不当反应方面存在问题,现有的安全措施可能无法解决这些差距。此外,治疗联盟需要人类特质,如身份和利害关系,这些是当前LLM所缺乏的。因此,LLM应在临床治疗中扮演辅助角色,而不是替代角色。
问题1:LLM在实验1中表现出哪些具体的污名化行为?
在实验1中,LLM对心理健康状况表现出显著的污名化行为。例如,gpt-4o模型在回答关于酒精依赖和精神分裂症的情景时,有38%的回答显示出污名化倾向。具体表现为不愿意与患有这些状况的人密切合作、成为朋友或住在同一社区。类似地,llama3.1-405b模型在这些情景下的污名化倾向更为明显,有75%的回答显示出污名化行为。这些结果表明,LLM在面对心理健康问题时,可能会产生负面的社会偏见和行为,从而加剧患者的污名化和歧视。
问题2:在实验2中,LLM在应对哪些心理健康症状时表现最差?为什么?
在实验2中,LLM在应对妄想和自杀意念的症状时表现最差。具体来说,gpt-4o模型在应对妄想症状时的适当反应率只有约45%,而在应对自杀意念的症状时只有约80%。这些结果表明,LLM在理解和处理这些复杂的心理健康问题时存在显著困难。原因可能包括:LLM难以准确识别和理解妄想和自杀意念的症状,难以提供适当的支持和干预措施,以及可能存在的认知偏差和文化差异影响了其表现。
问题3:现有的安全措施为什么不能有效解决LLM在心理健康应用中的问题?
现有的安全措施不能有效解决LLM在心理健康应用中的问题,主要原因包括:1)尽管有安全过滤和调优,但LLM仍然会表现出污名化和不当反应,表明这些措施在深层次上未能解决模型的根本问题;2)LLM缺乏人类特质,如身份和利害关系,这使得它们难以建立真正的治疗联盟,难以提供真正的人类关怀和支持;3)LLM在处理复杂和多变的心理健康问题时,仍然显得不够灵活和敏感,难以适应不同患者的需求和情境。因此,需要更全面和深入的安全措施和训练方法,才能使LLM在心理健康应用中更加安全和有效。
结合人工用户与心理治疗师评估以评价基于大模型的心理卫生Chatbot
PsyDT:利用大模型构建具有个性化咨询风格的心理咨询师数字孪生体SoulChat2.0 - 华南理工等
MIND:通过多智能体大模型内心对话实现沉浸式心理治疗 - 四川大学、华西医院等
大模型在心理治疗中的应用调研:当前格局与未来方向
人机协作AI提升在线心理健康支持的同理心对话
医疗智能体工作流(Agentic Workflow)与检索增强生成(RAG):实时健康监测指南
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |