我们花费如此多的时间盯着手机和电脑,难免会与它们变得……密切。而与计算机程序之间由此产生的人际关系无疑是复杂、棘手且前所未有的。

人工智能通过聊天机器人模拟人类对话,这给治疗师带来了历史性的转折。

内华达大学拉斯维加斯分校个体、伴侣和家庭咨询中心的博士后学者Soon Cho表示:“人工智能可以融入人性,满足人们渴望连接、倾诉、理解和被接受的需求。历史上,我们没有过一种工具能以这样的方式混淆人际关系——让我们忘记自己真正是在与什么互动。”

Cho研究一个新的研究领域:评估人类与人工智能的互动和关系。她正在分析长期影响的初步阶段,以及与真实人类对话的区别。

“我希望了解哪些类型的对话与聊天机器人对用户是有益的,”Cho说。“我想知道我们如何利用人工智能来鼓励用户寻求专业人士的帮助,获得他们真正需要的支持。”

在COVID-19大流行之后,大型科技公司的人工智能竞争迅速加剧。其各种形式在工作场所和社交媒体中变得越来越普遍。聊天机器人是一个重要因素,帮助用户更快地找到信息,更高效地完成项目。但在某种程度上帮助我们的同时,也有用户将其使用得更为深入。

“现在,人们越来越愿意和人工智能分享自己的个人和情感经历,”她解释道。

“在渴望连接和被理解的过程中,这可能会变成一个危险的趋势,个人开始过度拟人化人工智能,甚至发展出情感依赖,尤其是当人工智能的回应比他们在现实关系中得到的更具肯定性时。”

弥合与真正帮助之间的鸿沟

弥合与真正帮助之间的鸿沟

聊天机器人在帮助用户提高情感清晰度方面表现出色。因为它们是基于语言的算法,所以能够理解用户所说的内容,从而帮助总结和澄清他们的思想和情感。这是一个积极的特点;不过,它们的处理过程仅限于现有数据,这一点是人类思维所不受限制的。

生成式人工智能系统,比如ChatGPT或Google Gemini,是通过预测大量语言数据中的单词模式来生成回复的。虽然它们的回答听起来很有深度,甚至显得富有创意,但实际上并没有产生真正的原创想法。相反,它们是利用从先前数据中学习到的统计模式重新组合现有信息。

聊天机器人也很容易迎合用户,这有时会导致它们强化或忽视一些不安全的行为,因为它们总是以支持的方式回应。

Cho指出,人们通常在感到受欢迎、被认可、被理解和受到鼓励时,才会愿意向心理健康专业人士敞开心扉,而人工智能的回应常常模仿这些特质。因为聊天机器人被编程为始终支持且不带评判,用户可能会感到安全,愿意分享自己深层的个人挣扎,有时甚至比在现实生活中的人际关系中更容易。

“因为人工智能不会评判或反对,它成为一个人们可以轻松敞开心扉的空间——几乎就像对着一面镜子,映射出他们的思想和感受,”Cho说。“但虽然这可能让人感到安慰,它并没有提供那种促进真正的治疗成长所需的关系挑战或情感修复。”

识别风险

识别风险

“当某人已经感到孤立或失联时,他们可能特别脆弱,”Cho补充道。“这些经历往往与抑郁、焦虑或依赖等状况并存。在那些时刻,形成对人工智能的不健康依附变得更容易,因为它比人际关系更安全、更可控。”

她希望定义不健康的、与风险相关的互动(例如自残),以帮助开发者训练人工智能——给他们一些特定的提示,以便在引导用户走向适当的心理健康资源之前引起重视。

“给人们一个现实检查可能会导致他们对人工智能关系的兴奋或迷恋减弱,尤其是在关系变得有害之前,”她说。

“提高青少年的人工智能素养非常重要,加强他们对人工智能的批判性思维,以便他们能够认识到其局限性,质疑其提供的信息,并区分真正的人际联系和算法响应。”

尽管如此,Cho 解释说,人工智能聊天机器人也提供了重要的好处。除了提高情感清晰度外,它们还可以帮助减少各年龄段的孤独感——特别是对于独居且没有人可以交谈的老年人。

聊天机器人还可以提供安全感和舒适感,鼓励人们讨论敏感或被污名化的问题,例如心理健康问题、成瘾、创伤、在这些话题被视为禁忌的文化中,家庭问题,或像性传播感染和艾滋病毒这样的疾病。

“我们比历史上任何一代人都更数字化连接,但矛盾的是,我们也比以往任何时候都更孤独。最重要的关系需求——被看见、被理解和情感上的支持——在这些数字空间中常常得不到满足。‘连接’与真正感到被理解之间的差距,可能是人们因此转向人工智能寻求情感支持的原因之一,”Cho 说。

“我希望人工智能继续作为一种支持工具,增强人与人之间的联系,而不是取代我们与真实人之间的关系。”