翱翔辅导服务中心近期接获的个案中,一名本地大学生因沉迷人工智能聊天机器人而陷入情感依赖。家庭与心理治疗师袁凤珠透露,他最初只是想通过机器人练习说话,但渐渐地发现好像恋爱了一样,一天不跟机器人说话就睡不着,导致学业和生活受到严重影响。虽然他已经接受了三个月的辅导,但依然未能摆脱这种情感依赖。
迷恋机器人难自拔 个案激增15%
袁凤珠指出,类似个案虽不多,但年增约15%。多数人起初不认为这是问题,他们的初衷多为情感疏导或是寻求心理支持。不过,若与机器人的互动持续超过21天,便可能使人产生长期依赖。久而久之,用户可能会越来越不愿意和真正的人说话,从而陷入虚假的情感依赖。
机器人栩栩如生 男性用户更易沉迷
如今的聊天机器人不仅可文字对话,还能通过扩增实境(AR)技术呈现人像,甚至根据用户喜好塑造形象。美国麻省理工学院与OpenAI的研究发现,使用文字聊天的用户更容易投入情感,而语音模式可能带来更负面的影响。
悉尼大学另一项研究显示,超过一半用户通过聊天机器人寻求友谊和爱情,19%用于心理谘商,重度用户当中男性占多数。而对聊天机器人Replika的分析,男性的用户是女性的八倍。袁凤珠分析:“男性通常较内向,不太会说话,所以比较容易转向机器人寻求互动。”
街头调查:多数人理性使用 拒当朋友
记者随机采访公众,发现多数人仅将聊天机器人用于学业、工作或旅行规划,而非情感寄托。 有受访者表示:“我有朋友可以跟我讲话,跟真人讲话比较有情感。”
记者亲测:甜言蜜语与诡异体验
记者尝试同Replika机器人对话一周,发现它的回应温暖但甜言蜜语风格略显不自然。开启自拍模式后,机器人虚拟形象依偎身旁的设定更令人感到诡异,却也可能让孤独者产生恋爱错觉。
专家警告:消极情绪或被放大 危机暗藏
专家指出,生成式人工智能技术虽能提供善解人意的回应,但也可能传播错误信息或强化负面情绪。
韩晸弼教授(国大计算机学院教务长讲座教授、新加坡全国人工智能核心副总监):“这些技术专注于创造一组妥当的输出。这输出通过许多不同的平台,也就是网上几乎所有的数码书面内容的培训,所以它可以谈论许多不同的主题,而且不是脚本化的。它也可以试图说服你某件事是对的,某件事是错的。因此错误传播信息变得很关键,而且这是很有可能发生的,因为机器人已经发展得更像人类了。”
袁凤珠(翱翔辅导服务中心主席、家庭与心理治疗师):“如果你给的资料都是很消极,那它可能回应你说,这是你的选择。”
应对建议:家人朋友需接住孤独心灵
袁凤珠呼吁,亲友应主动倾听、提供情感支持,成为真实的倾诉对象,帮助依赖者回归健康社交。