出品:放牛班的秘密花园 来源:麻省理工科技评论 编译:Sail2008 责任编辑:Sunnisky 美国LGBT青少年心理危机干预热线"特雷弗项目"(Trevor Project)借助基于人工智能算法模型GPT-2的聊天机器人来培训心理咨询师,为陷入心理困境的青少年提供帮助。 在与遭遇心理危机的青少年进行首次谈话之前,"特雷弗项目"的心理咨询师志愿者需要做好准备,所以他们首先要进行练习。其中一种方式是与虚构的人物角色交谈,比如"莱利",一位来自北卡罗来纳州的16岁女孩,她感到有些情绪低落。 莱利的角色由一名团队成员扮演,受训者们可以深入探查发生了什么事情:他们会发现这个孩子正在为如何向家人出柜(承认同性恋身份)感到焦虑,她最近跟朋友讲了,但并不顺利,以前她还有过轻生的念头。 为什么借助AI? 不过,现在莱利不再由"特雷弗项目"的员工来扮演,而是由人工智能提供技术支持。 和最初的人物角色一样,AI版的莱利仍需要哄一哄才会敞开心扉,因为它进行算法训练的依据,是数千份心理咨询师和项目员工之间角色扮演的文字记录,这能够考查受训者了解了哪些帮助青少年同性恋群体的最佳方法。 心理咨询师不应该强迫莱利出柜,相反,我们的目标是确认莱利的感觉,并且,如果有必要,帮助她制定一个保持安全心理的计划。 心理危机干预热线和聊天服务能给他们一个基本承诺:伸出手吧,我们会为你联系到真正能帮助你的人。但即便是最成功的服务有时也无法满足需求。 "特雷弗项目"指出,美国每年有180万LGBTQ青少年产生过严重的轻生念头,现有的600名以聊天为基础的心理咨询师无法满足这一需求。 这就是为什么这个组织和越来越多的心理健康组织一样,借助AI工具来帮助它们满足需求。这是个很有意义的进展,同时也引发了一些问题,即当前的AI技术在弱势群体生命陷入危险的情况下能发挥多大作用。 AI与人类心理咨询师:辅助还是替代? 该组织的AI与工程主管丹·费希特(Dan Fichter)表示:"我们过去没有、现在也没有打算设计一个AI系统来取代心理咨询师,或直接与可能处于心理危机中的人互动。" 这种人际互动关系在所有的心理健康服务中都很重要,但它可能对"特雷弗项目"的服务对象尤其重要。根据该组织2019年的研究,LGBTQ青少年如果在生活中至少有一位成年人接纳自己,那么他们在前一年试图轻生的概率要低40%。 这种基于AI的角色扮演训练叫做"危机联络模拟器"(crisis contact simulator),得到了谷歌资金和工程上的帮助。关于以这种方式使用人工智能的有效性、准确性和风险,各方意见不一。 佛罗里达州立大学研究轻生行为的心理学教授托马斯·乔伊纳(Thomas Joiner)认为,在特定环境下,AI或许比人类能更准确地评估人们的轻生风险。在现实世界中,由于有更多的变量,AI的表现似乎和真人差不多。然而,它的能耐是以更快的速度对更多的人进行评估。 因此,最好是用它来辅助人类心理咨询师,而不是取代他们。 "特雷弗项目"仍然要靠人类心理咨询师对接受该服务的青少年进行全面的风险评估。当心理咨询师完成了与莱利的互动角色扮演后,会有人对这些文字记录进行复查。 GPT-2: "莱利"背后的AI算法模型 开发危机联络模拟器的原因是,角色扮演占用了工作人员大量的时间,而且限制在正常工作时间内,尽管大多数心理咨询师计划在夜间和周末轮班时开展志愿者活动。 但是,效率并不是唯一的追求,开发者还希望角色扮演让人感觉更自然,聊天机器人对心理咨询师志愿者的错误能随机应变。 自然语言处理算法似乎很适合这项挑战,近来它在模仿人类对话方面做得非常出色。在测试了两个选项后,"特雷弗项目"决定采用OpenAI的GPT-2算法。 聊天机器人使用GPT-2算法模型作为其基本的会话能力。该模型接受了4500万个互联网网页的算法训练,掌握了英语的基本结构和语法。"特雷弗项目"随后用莱利互动角色扮演的所有文字记录进一步训练该模型,以便为机器人提供模仿人物角色所需的材料。 在整个开发过程中,团队都惊讶于聊天机器人的出色表现。没有任何数据库存储了莱利的详细信息,但聊天机器人的表现始终如一。 但使用AI也需要权衡利弊,尤其是在弱势群体的敏感环境中。 GPT-2和其他类似的自然语言算法都曾被种族主义、性别歧视和恐同思想带偏过。最近一个例子是韩国的聊天机器人Lee Luda,它的人物角色是个20岁的大学生。在迅速走红并与越来越多的用户进行互动后,它开始使用侮辱性语言来描述同性恋和残疾人群体。 "特雷弗项目"深知这一点,并设计了一些方法来限制出现问题的可能性。 "特雷弗项目"中莱利的关注范围非常聚焦,心理咨询师志愿者不会偏离经过算法训练的对话内容太远,这就把出现不可预测行为的可能性降到了最低。 AI能取代心理咨询中的人际互动吗? 这并非心理健康领域首次尝试利用人工智能的潜力,在不伤害帮助对象的情况下提供广泛的道德援助。 研究人员已开发出很有前景的方法,结合视觉和听觉信号来检测抑郁症。治疗"机器人"尽管不等同于人类专家,但对那些无法找到心理治疗师或不愿向他人倾诉的人来说,这也不失为一种替代选择。 每一个类似进展,都需要考虑AI工具在治疗弱势群体时应该发挥多大的作用。目前的共识似乎是,眼下这项技术其实并不适合取代人工帮助。 不过,心理学教授乔伊纳表示,这种情况可能会随着时间的推移而改变。虽然目前来说用AI心理咨询师取代人类心理咨询师是个坏主意,但"这并不意味着这种局限性是永久的。"人们已经与AI服务"建立起人为的友谊和关系"。 他表示,只要人们在与AI交谈时不被它骗到,以为自己在和真人交谈,那么未来AI取代人类心理咨询师的情况就可能会出现。 与此同时,莱利将只会作为心理咨询师志愿者的培训工具。该项目的数据和AI产品主管Kendra Gaunt表示:"心理咨询师与帮助对象之间的人际关系对我们做的每一件事都至关重要。我认为这是我们真正与众不同的地方。" 声明:著作权所有,转载需授权 Come on,给你的灵魂充充电