最初只是无害的聊天应用,如今已演变成情感义肢。青少年在破碎的社交环境中成长,越来越多地转向AI伴侣寻求联系、支持,甚至是情感。调查显示,近四分之三的青少年曾与AI聊天机器人互动,三分之一承认将其用作知己或情感慰藉。
这些数字令人震惊但并不意外。AI伴侣不是被动的问答机器——它们能记忆、共情,并模拟情感。这就是吸引力所在。对话感觉真实,甚至亲密。对许多年轻用户来说,AI朋友比父母或同龄人更少批判性。
但随着这些系统变得越来越像人类,无害的逃避现实与情感操纵之间的界限正在迅速模糊。
12月,OpenAI将推出年龄限制,作为其"将成年用户视为成年人"原则的一部分,将允许经过验证的成年人接触情色内容,来源:X
GUARD法案——"保护我们的女儿和儿子免受不安全AI侵害"的简称——是对越来越多未成年人与聊天机器人形成强烈情感纽带的直接回应,这有时会导致悲剧性后果。高调的诉讼指控AI公司疏忽,因为与聊天机器人讨论自杀的青少年后来自杀身亡。
根据该法案,模拟友谊或情感亲密的AI系统将禁止18岁以下人士使用。聊天机器人将被要求清晰且反复地表明自己是非人类。如果针对未成年人的AI产品生成性内容或鼓励自残,公司可能面临刑事起诉。
这对一个靠"快速行动,打破常规"而蓬勃发展的行业来说是一个艰难的转变。
Ani,Grok的女性伴侣,来源:X
感受到监管重锤即将落下,AI公司正在匆忙整顿——或至少看起来如此。
OpenAI,其ChatGPT已成为数百万人事实上的AI治疗师,最近披露了一个令人不安的事实:每周约有120万用户与其模型讨论自杀。作为回应,该公司成立了由心理学家、伦理学家和非营利组织领导者组成的福祉与AI专家委员会。它还在测试内置的危机检测功能,可以实时引导用户获取心理健康资源。
但OpenAI的挑战是结构性的。ChatGPT从未被设计用来处理创伤,但它现在正在为数百万处于困境中的人充当急救人员。公司领导层坚称不想成为"世界的治疗师",但这种情况仍在发生——因为存在一个没有人填补的空白。
Character.AI,这家以创建可定制AI人格——从动漫女友到AI导师——而闻名的初创公司,迄今采取了最激进的行动。面对诉讼和公众愤怒,它悄悄禁止了所有18岁以下用户,并开始推出更严格的身份验证。此举是在有报道称未成年人与平台角色进行露骨聊天后采取的。Character.AI坚称它不是约会或心理健康应用,但模糊的使用案例表明情况并非如此。
同时,Meta正试图控制自己的AI浪漫问题。在有报道称其"Meta AI"和基于名人的聊天机器人与未成年用户进行调情或暗示性交流后,该公司实施了内部人士描述为"情感抑制器"的功能——重新调整底层语言模型,避免与年轻账户使用情感化语言。它还在测试"AI家长监督"工具,让父母查看青少年何时以及如何在Instagram和Messenger上与公司的聊天机器人互动。
所有这些都引发了AI战争的新战线:年龄验证。GUARD法案将迫使公司实施强大的用户年龄验证系统——政府ID、面部识别或可信的第三方工具。
这就是隐私噩梦开始的地方。批评者认为,这可能会带来新的数据风险,因为未成年人实际上必须将身份数据上传到立法者试图保护他们的同一平台。但这是无法避免的——AI模型无法"感知"年龄;它们只能通过凭证进行把关。
一些AI公司正在探索更微妙的方法,如"行为把关",系统通过对话模式推断年龄范围。风险?这些模型会犯错——一个早熟的12岁孩子可能被误认为是大学生,反之亦然。
GUARD法案不仅仅是儿童保护——它是对我们想要生活在什么样的社会的全民公决。
AI伴侣并非凭空出现。它们之所以繁荣,是因为我们培养了一代精通孤独的人——数字上连接,但情感上营养不良。如果青少年在与算法的对话中找到意义,问题不仅仅是代码;而是让他们去那里寻找的文化。
所以是的,AI需要监管。但禁止数字伴侣而不解决底层的人类缺失,就像禁止止痛药而不解决为什么每个人都在痛苦一样。
GUARD法案很可能以某种形式通过——背后有两党的支持和道德恐慌。但其影响将远远超出儿童安全。它将定义情感AI在西方世界被允许成为什么。
如果美国划定严格界限,公司可能转向仅限成人的亲密平台或将开发推向监管更宽松的海外。同时,欧洲正朝着情感AI的"人权"框架迈进,强调同意和透明度而非全面禁止。
明确的是:不受监管的AI亲密时代已经结束。机器人变得越来越像人类,人类也越来越依恋它们。立法者正在迟迟醒悟到科技行业早已理解的真相——情感AI不是新奇事物。它是人际关系方式的一场革命。而革命,一如既往,在文明之前总是混乱的。


