伊朗努尔新闻网:AI伴侣(聊天机器人)被设计成既能回答问题又能充当朋友的角色。这类系统通过记住用户个人信息和历史对话,致力于与用户建立持续关系。对孤独的青少年而言,这种存在可能像一座安全的避风港,但从心理健康专家视角看,这更像一场缺乏防护的社会实验。
为何青少年深陷其中?
青春期是情感强烈且判断力尚在形成的阶段。想象一下,一个永不入睡、永不推脱且始终给予肯定的聊天机器人加入这种情境。对部分青少年而言,这种陪伴会演变成难以剥离的情感依赖。
当安慰沦为虚拟幻象
问题不仅在于这些聊天机器人说了什么,更在于它们无法表达的内容。它们能模仿共情,却无法给予真实的情感反馈。在美国,一个家庭因其14岁儿子在与某AI伴侣进行长时间对话后自杀,正在起诉一家头部AI伴侣公司。
澳大利亚的监管行动
澳大利亚已迈出监管步伐。该国网络安全专员(eSafety Commissioner)已向多家AI伴侣平台发出具有法律约束力的警告,要求其说明如何保护儿童免受自残及性相关内容侵害。
公共健康的警示
正如赌博等成瘾产品常以娱乐形式出现,若不加以控制就会导致伤害,AI伴侣可能采用类似策略。研究表明,青少年最初常为寻求安慰或娱乐使用聊天机器人,但许多人会逐渐产生依赖。
解决方案:构建数字安全带
我们需要为线上空间建立如儿童游乐场般的安全设计标准。透明度同样关键——青少年及其父母有权知晓对话如何被存储及受谁监督。最重要的是,必须让青少年明白:从聊天机器人获得的安慰是模拟态,而非真实情感联结。
我们期待的未来
某头部AI伴侣公司禁止18岁以下用户访问是个良好开端,但若缺乏透明标准、教育普及与问责机制,类似事件必将重演。技术发展或许快于政策制定,但我们仍有选择权决定为下一代构建怎样的社会环境。让我们确保孩子们关于共情、友谊与爱的第一课来自人类,而非软件程序。