为什么我们需要AI心理医生?

朱泓颐2024-04-22 14:19

人工智能将带来精神保健领域的范式转变。

近日,美国心理学会(American Psychological Association)发布了2024年12大心理学发展趋势,其中指出心理学家正在研究生成式人工智能(generative artificial intelligence)对其工作的影响,并将带头把社会科学洞见引入生成式人工智能工具的创建和部署之中。

一项由提供卫生政策信息的非政府组织KFF和CNN联合发布的调查显示,90%的公众认为当今美国存在心理健康危机。阻碍人们获得心理健康服务的因素包括成本高、心理健康保险未被健康保险所覆盖、心理治疗师数量不足、看心理医生的羞耻心态等。针对这些问题,美国心理学会认为尽管聊天机器人在生理结构、生活经验和言辞习惯上与人类治疗师存在差异,但它们有填补心理健康服务空白的潜力。福布斯杂志也指出人工智能将引发精神保健领域的范式转变,提供克服各种障碍的潜在手段。

多维度的心理治疗潜力

目前,多款心理健康应用程序的出现呼应着人工智能在心理治疗层面的潜力。Wysa是一款于2016年推出的基于人工智能的“情感智能”App。它是一只袖珍企鹅形状的聊天机器人,同时也是经过临床验证的心理医生,通过对话促进用户积极的自我表达,帮助恢复心理弹性,主要应用于抑郁、焦虑以及慢性疼痛等相关症状。根据2022年的同行评议*,Wysa在多种心理疗法中的效果与治疗联盟*相当,甚至更为出色,例如面对面认知行为疗法、面对面团体治疗和在线认知行为疗法等。这表明AI心理医生在一定程度上能够与人类治疗师相媲美。(*注:同行评议peer review是一种学术和科学研究领域的评估机制,由同行专业人士对研究的质量、方法、结论等进行评估以保证其科学性和可信度;治疗联盟therapeutic alliance是指心理健康专业人员与患者在心理治疗任务与目标上的合作,以及情感上的联结。)

与Wysa类似,Youper也是一款由人工智能驱动的心理健康远程治疗App,用户可以随时随地使用手机调节情绪,其干预效果经过了斯坦福大学研究的证实。同时,这些心理健康应用程序还在不断更新升级,以更好地应对各种心理问题。在新冠肺炎疫情期间,Woebot App推出了名为Perspectives的产品和专门处理悲伤和经济困难的主题,扩大了免费、及时和便利的心理健康服务的支持范围。

事实上,自诞生起,人工智能聊天机器人便与心理学有着深厚渊源。上世纪60年代中期诞生的ELIZA被认为是世界上第一批聊天机器人,并以“心理治疗师”的身份而闻名。它的设计初衷是在“DOCTOR”的脚本下模仿治疗师,通过提出开放式问题并给予简单回复来安抚患者。随着人工智能技术的发展,技术与心理学的交叉继续重塑着心理医疗保健的方式。英国新闻周报《经济学人》预测生成式人工智能将在2024年成为主流,医疗保健和金融服务等以数据为中心的公司将率先获益。

目前,心理健康保健领域面临着治疗师资源不足的挑战。根据世界卫生组织2022年发布的《世界心理健康报告:改变所有人的心理健康》数据显示,心理健康问题在全球范围内普遍存在。每年,抑郁症和焦虑症造成的经济损失约为1万亿美元。而全球约有一半人口生活在心理医生严重不足的国家,一名医生至少需要为20万人提供服务。

AI聊天机器人能够一定程度上填补这一空缺,在心理健康服务的提供端与接收端都获得支持。一方面,多款心理健康App在各年龄组的身心功能方面都取得了积极的临床效果。Wysa因能够减少老年人慢性病的疼痛与心理困扰获得了美国食品药品监督管理局(FDA)的“突破性设备”认定。该公司的首席心理学家Smriti Joshi表示:“Wysa并不是为了代替心理学家和人类的工作,而是一种获得精神支持的新方式。”

另一方面,人们可能对AI心理治疗师有着较高的接受度。独立医疗服务提供商Tebra的一项调查显示,有25%的患者表示他们更愿意与聊天机器人交流,而不是参加传统的心理疗法。此外,80%曾使用过ChatGPT寻求心理健康建议的人认为它是常规治疗的良好替代方案。这表明人们对于与AI心理医生进行交流的态度可能较为积极。

TEAM-CBT心理疗法*的创始人David Burns表示,与人类治疗师相比,AI治疗师每周7天、每天24小时的服务扩大了心理治疗的可及性。而软件开发公司Binariks认为,AI治疗师跨越了地理界限,使全球范围内的心理健康资源更具可用性,促进了护理的公平化并为社会带来更广泛的公平。同时,对于容易产生社交焦虑或对看心理医生有羞耻心态的人来说,线上交谈可能没有拿起电话或者面对面交流那样令人抵触。正如哈佛医学院教授、马萨诸塞州总医院数字心理健康中心主任Sabine Wilhelm所言,人工智能进入心理领域真正美妙的地方在于,不同偏好的人们可以得到不同程度的支持。(*注:TEAM-CBT是“Team Cognitive Behavioral Therapy”的缩写,翻译为“团队认知行为疗法”,结合了认知疗法和行为疗法的原理并强调团队合作,致力于促进个体更健康的情绪和生活体验。)

不仅如此,AI心理医生既可以作为独立工具使用,也可融入传统治疗中。在心理学实践中,AI心理医生可以协助人类心理医生自动化行政任务,进行新医生培训,作为教育工具传播心理健康信息,并在例行检查、轻度心理问题或生活困难疏导等方面发挥作用。人类心理医生可以凭借同理心和情感联结与患者动态互动,处理更复杂的问题。此外,Binariks公司认为人工智能可以处理大数据,根据家族遗传、个人病史、生活方式、治疗反应等为患者制定个性化策略,还可与虚拟现实(VR)技术结合,提供身临其境的创伤治疗体验,为心理治疗领域带来了更多可能性和创新。

风险与缺陷并存

美国市场数据分析公司CB Insights指出,2021年全球心理健康科技投资活动同比增长139%,而在其近期评选的2023年50家数字健康初创企业中有33家借助人工智能以增强其解决方案。随着越来越多健康医疗企业入局人工智能领域,技术本身所携带的问题也引发更多忧虑,特别是在ChatGPT全面激发的AI热潮后,人们在对科幻小说变为现实感到新鲜的同时,数据隐私、偏见歧视等问题也随之成为热门议题。

以大型语言模型聊天机器人(如ChatGPT)为代表的生成式人工智能是指具有学习文本、图像、视频等数据模型能力、并生成类似新数据的人工智能。由于“输入-学习-输出”的技术特性,生成式人工智能需要海量信息作为训练数据。OpenAI公布的隐私政策中描述了ChatGPT的个人信息收集、使用和披露的情况,其中,收集的信息包括账户相关信息与设备数据、输入内容文本与使用数据、通信信息与日志数据、社交媒体账户互动信息等,目前用户有权利删除、更正个人信息。Google推出的对话式AI工具Bard同样承诺会使用自动化工具删除个人信息,设置防护墙阻止Bard回复包含用户个人信息的内容。

但是对于人工智能的忧虑并未被隐私管理政策全然安抚。悉尼大学在一篇文章中将ChatGPT称为“数据隐私的噩梦”。而波士顿咨询集团人工智能伦理首席执行官Steve Mills认为大多数公司对于这些工具的最大担忧在于“无意中泄露的敏感信息”,有时用户甚至开发人员都不会意识到隐藏的风险。他建议不要与聊天机器人分享任何不想与他人分享的东西。因此,在面对一些隐秘的心理问题时,AI心理医生与人类心理医生一样,它们是否值得信任似乎都需要被再三琢磨。

2023年10月,美国一家非营利的在线情感支持聊天平台Koko在人们不知情的情况下利用ChatGPT-3为约4000人提供了咨询服务。该平台实验一经披露便激起了强烈反对,被批评为不道德的、欺骗的。Koko创始人Robert Morris指出,包含ChatGPT-3参与的回答在评价上明显优于纯粹由人类编写的回答。然而,一旦人们意识到人工智能参与其中,评价的风向就改变了。

不过,Morris也提到,由于缺乏同理心,虚拟的人工智能并非完美或独一无二的解决方案。不是所有的数字心理健康服务的回答都是由人类共同编写的,一些AI心理医生采用机械、照本宣科的回应方式,难以治疗较为严重的心理疾病。同时科学领域作家Elizabeth Svoboda认为,AI心理医生可能受到算法偏见和数据偏见的影响,因为它们使用的自然语言处理算法建立在人类文本数据库之上,这样的训练可能导致不同种族、性别或社会群体在与聊天机器人沟通时获得不同结果。由于存在“算法黑箱”,软件的开发者甚至难以解释人工智能模型的决策过程,从而无法推知偏见是否存在。

德克萨斯大学奥斯汀分校的心理学家Adela Timmons建议,公司在应用程序开发及发布后的每个阶段都应进行潜在数据偏见的例行评估,其中包括多样化主题的临床试验。圣塔克拉拉大学的心理学家和伦理学家Thomas Plante认为,人工智能公司还需要向用户更明确地说明治疗机器人的能力和局限。联合国人工智能咨询机构发布的《临时报告:为人类治理人工智能》呼吁国际社会更加紧密地跟进人工智能的开发和推广,敦促AI开发者“将人类置于利润之上”,倡导以人为本开发和使用生成式人工智能。

联合国的人工智能咨询机构页面(网站截图)

同样,心理学本身也在塑造着人工智能的未来。美国心理学会指出,科技领导者已经将注意力转向心理研究,以深入了解人类如何安全地与人工智能、社交媒体和游戏等创新技术互动,建立可持续的关系。临床医生、华盛顿大学医学院的兼职教授David Luxton认为,心理学领域在公众对人工智能的信任方面发挥着相当重要的作用。数字健康干预方法涵盖各种方式,包含从改善睡眠的健康应用程序到针对抑郁症等病症的全面临床治疗。心理学的介入将有利于改进人工智能在伦理方面的问题,确保科学真正促进福祉的发展。

回顾上世纪60年代,ELIZA的发明者、计算机科学家、麻省理工学院教授Joseph Weizenbaum惊讶地发现许多用户,包括他的学生与秘书在内,会花费数小时沉浸在与ELIZA的循环对话中。这是因为人们倾向于通过“拟人化”心理倾向,将人的特质投射到无生命物体上,将聊天机器人视为有意识的个体。在某种程度上,人们寻求心理医生帮助的本质在于从交流中获得更好的情感体验,通过专业的治疗感到被理解、被支持。在未来发展中,AI心理医生有望满足这一需求,成为良好的倾听与建议对象。

文章来源:财联社

作者:朱泓颐

版权与免责:以上作品(包括文、图、音视频)版权归发布者【朱泓颐】所有。本App为发布者提供信息发布平台服务,不代表经观的观点和构成投资等建议
Baidu
map