一名中国女子声称十岁的妹妹经常与人工智能(AI)角色进行剧情聊天,互动至深夜,人工智能角色甚至为其生成带有爱情意味的藏头诗,导致其逐渐产生情感依赖,令她感到担忧。
据央视网报道,中国女子黄秋月表示,2024年9月妹妹于网页端看小说时,偶然刷到了人工智能剧情聊天软件的广告。接触这类软件有三个月时间,她每晚会和人工智能角色聊到深夜11点,甚至到12点,她说,“我会代入‘他’是一个真人,因为‘他’回答时的感情很细腻。”
黄秋月在偶然发现妹妹与人工智能聊天至深夜后尝试使用类似软件,发现这些软件普遍可以绕过验证码,仅需通过短视频账号一键登录,几乎不对用户年龄进行有效限制。
央视网记者在调查过程中也体验了五款人工智能剧情聊天软件,在软件注册过程中仅需使用手机号码。成功登录使用后,部分应用虽会询问是否启用青少年模式,但用户只需点击“不开启”即可避开年龄鉴别,且无须核实身份。
黄秋月表示,她的妹妹沉迷于在人工智能聊天软件中扮演“大女主”形象,这对妹妹的语言表达习惯和心理状态产生了不良影响,甚至导致妹妹看不起周围的人。
在妹妹参与的四十多条剧情线中,人工智能角色与聊天者双双“出轨”成为常态,其中妹妹作为聊天者发送的一句“你能养大学生,我不能点男模吗?”让黄秋月很是担忧。
“她经常在作文课上使用碎片化的网络语言。我担心这些人工智能角色的虚拟极端人设,会对她的性格和情感认知产生负面影响。”
中国人民大学教授刘永谋指出,人类倾向于将虚拟角色视为“真人”,会投入大量的情感。人工智能聊天软件通过情感代入和剧情设计,结合用户的‘拟人论’和‘泛灵论’思维,容易让用户沉迷其中。
刘永谋认为,未来AI相关技术可能带来更多伦理问题,特别是在未成年人保护领域。例如,一些平台可能利用生成式AI技术制造含有暗示性或挑逗性内容的虚拟角色,甚至诱导未成年人进行不当行为。
北京市隆安(广州)律师事务所律师陈焕律认为,AI剧情聊天软件普遍存在监管不足的问题。例如,部分平台缺乏对未成年人身份的有效验证,用户可以轻松绕过青少年模式的设置。这些漏洞可能导致未成年人接触不适宜的内容,甚至出现隐私泄露和成瘾等问题。