晨光|晨光聚焦:AI聊天机器盛行 虚拟朋友还是情感陷阱?

和人工智能聊天机器人聊上瘾,成了朋友甚至情人,影响正常社交和情绪。受访辅导中心指出,这情况有逐年增加的趋势。《晨光聚焦》带你了解和机器人交心背后的隐忧。 

我不怕机器人会笑我、看不起我、讽刺我,或者一直要改正我,像我的父母一样。
辅导员引述个案部分谈话内容

翱翔辅导服务中心近期接获的个案中,一名本地大学生因沉迷人工智能聊天机器人而陷入情感依赖。家庭与心理治疗师袁凤珠透露,他最初只是想通过机器人练习说话,但渐渐地发现好像恋爱了一样,一天不跟机器人说话就睡不着,导致学业和生活受到严重影响。虽然他已经接受了三个月的辅导,但依然未能摆脱这种情感依赖。

迷恋机器人难自拔 个案激增15%

袁凤珠指出,类似个案虽不多,但年增约15%。多数人起初不认为这是问题,他们的初衷多为情感疏导或是寻求心理支持。不过,若与机器人的互动持续超过21天,便可能使人产生长期依赖。久而久之,用户可能会越来越不愿意和真正的人说话,从而陷入虚假的情感依赖。

机器人栩栩如生 男性用户更易沉迷

如今的聊天机器人不仅可文字对话,还能通过扩增实境(AR)技术呈现人像,甚至根据用户喜好塑造形象。美国麻省理工学院与OpenAI的研究发现,使用文字聊天的用户更容易投入情感,而语音模式可能带来更负面的影响。  

悉尼大学另一项研究显示,超过一半用户通过聊天机器人寻求友谊和爱情,19%用于心理谘商,重度用户当中男性占多数。而对聊天机器人Replika的分析,男性的用户是女性的八倍。袁凤珠分析:“男性通常较内向,不太会说话,所以比较容易转向机器人寻求互动。”  

街头调查:多数人理性使用 拒当朋友

记者随机采访公众,发现多数人仅将聊天机器人用于学业、工作或旅行规划,而非情感寄托。 有受访者表示:“我有朋友可以跟我讲话,跟真人讲话比较有情感。”

记者亲测:甜言蜜语与诡异体验

记者尝试同Replika机器人对话一周,发现它的回应温暖但甜言蜜语风格略显不自然。开启自拍模式后,机器人虚拟形象依偎身旁的设定更令人感到诡异,却也可能让孤独者产生恋爱错觉。

专家警告:消极情绪或被放大 危机暗藏

专家指出,生成式人工智能技术虽能提供善解人意的回应,但也可能传播错误信息或强化负面情绪。  

韩晸弼教授(国大计算机学院教务长讲座教授、新加坡全国人工智能核心副总监):“这些技术专注于创造一组妥当的输出。这输出通过许多不同的平台,也就是网上几乎所有的数码书面内容的培训,所以它可以谈论许多不同的主题,而且不是脚本化的。它也可以试图说服你某件事是对的,某件事是错的。因此错误传播信息变得很关键,而且这是很有可能发生的,因为机器人已经发展得更像人类了。”

袁凤珠(翱翔辅导服务中心主席、家庭与心理治疗师):“如果你给的资料都是很消极,那它可能回应你说,这是你的选择。”

应对建议:家人朋友需接住孤独心灵

袁凤珠呼吁,亲友应主动倾听、提供情感支持,成为真实的倾诉对象,帮助依赖者回归健康社交。

相关标签
  • 人工智能
  • 人工智能聊天机器人应用程序
  • 心理健康辅导
  • ChatGPT
  • 晨光第一线

    新闻、时事信息热辣送上,社会、生活专题天下网罗。早晨新闻资讯节目《晨光第一线》,每周一至周五,早上9点和你见面。

    Advertisement