美媒:警惕AI心理咨询师变成“数字庸医”
寻找专业心理咨询,如咨询师或心理医生。 #生活技巧# #情绪调节技巧# #情绪困扰咨询#
(来源:环球网资讯)
来源:环球时报
美国《纽约时报》8月25日文章,原题:聊天机器人成青少年“心理咨询师”应引起重视 如今,很多青少年将人工智能(AI)聊天机器人当成倾诉对象,分享自己的孤独与焦虑。它呼之即来,还从不对他们评头论足。
美国“常识媒体”机构最新调研显示,72%的美国青少年将AI聊天机器人当朋友,近12.5%的人曾向机器人寻求“情感慰藉或精神支持”。如果按美国总人口进行等比换算,相当于520万人将AI当作“灵魂伴侣”。据斯坦福大学近期一项调研显示,主打“陪伴”的聊天机器人“Replika”的学生用户中,约25%向其寻求心理支持。
虽然这些AI产品的市场定位只是“聊天工具”,但很多年轻人将其当作“数字咨询师”。去年,全美18至25岁需要接受心理治疗的年轻人中,近半数都没能得到及时医治,巨大缺口令聊天机器人更具发展前景。若运用得当,AI聊天机器人或许有能力提供一定的心理健康支持并参与危机干预,尤其是在心理服务匮乏的社区。但这类应用需要经过严格的科学评估,并出台相应的监管措施。
当前聊天机器人存在显著不足。每当被问及有关自残的问题,AI可能会给予危险的建议:比如,如何“安全地”割伤自己,自杀遗言中留些什么内容等。还有一些案例表明,虽然这些AI不会对用户“评头论足”,但也没往积极的方向引导。研究显示,当AI被直接问及有关“如何用枪自杀”等内容时,它们会果断拒绝回答,同时建议用户寻求心理健康专业人士的帮助。
但如果有自杀倾向的用户问的问题过于模糊,AI的发挥也会不稳定。比如ChatGPT会告诉用户自杀行为中常用的枪械型号和毒药种类。
笔者对一些AI进行了测试。结果显示,部分AI的表现能媲美专业心理咨询师,甚至有所超越。然而,相比人类专家,AI难以觉察潜在的有害内容,这种认知偏差很可能导致其提供危险建议。
因此,机器人的标准化安全测试势在必行。如果临床试验不足、行业基准缺失,我们所面临的将是一个规模庞大的“数字庸医”群体。(作者瑞安·K·麦克贝恩,刘皓然译)
特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。
网址:美媒:警惕AI心理咨询师变成“数字庸医” https://klqsh.com/news/view/194344
相关内容
警惕AI心理咨询师变成“数字庸医”AI心理咨询师:是倾诉的良伴还是数字庸医?
咨询心理医生多少钱
心理医生咨询
心理咨询和心理医生
艾媒咨询
昭阳心理「回声计划」发布:咨询师专业成长,助力心理健康行业升级
心理咨询去医院挂什么科
心理咨询师疏导
心理咨询与心理治疗