從無害的聊天應用程式開始,如今已演變成情感義肢。青少年在破碎的社交環境中成長,越來越多地轉向AI 伴侶尋求連結、支持,甚至是情感。調查顯示,近四分之三的青少年曾與 AI 聊天機器人互動,三分之一承認將其用作知己或情感慰藉。
這些數字令人震驚但並不意外。AI 伴侶不是被動的問答機器——它們能記憶、同理,並模擬情感。這就是吸引力所在。對話感覺真實,甚至親密。對許多年輕用戶來說,AI 朋友比父母或同齡人更少批判性。
但隨著這些系統變得越來越像人類,無害的逃避與情感操控之間的界線正迅速模糊。
在十二月,Open AI 將推出年齡限制,作為其「將成年用戶視為成年人」原則的一部分,將允許經過驗證的成年人接觸情色內容,來源:X
GUARD 法案——「保護我們的女兒和兒子免受不安全 AI 侵害」的簡稱——是對越來越多未成年人與聊天機器人形成強烈情感連結的報告的直接回應,有時會導致悲劇性後果。高調的訴訟指控 AI 公司在青少年與聊天機器人討論自殺後最終自殺的事件中存在疏忽。
根據該法案,模擬友誼或情感親密的 AI 系統將禁止 18 歲以下的人使用。聊天機器人將被要求清晰且反覆地表明自己是非人類。如果針對未成年人的 AI 產品生成性內容或鼓勵自殘,公司可能面臨刑事起訴。
這對一個以「快速行動,打破常規」為榮的行業來說是一個艱難的轉變。
Ani,Grok 的女性伴侶,來源:X
感受到監管壓力的臨近,AI 公司正在匆忙整頓——或至少看起來如此。
OpenAI,其 ChatGPT 已成為數百萬人事實上的 AI 治療師,最近披露了一個令人不安的事實:每週約有 120 萬用戶與其模型討論自殺。作為回應,該公司成立了一個由心理學家、倫理學家和非營利組織領導者組成的「福祉與 AI 專家委員會」。它還在測試內置的危機檢測功能,可以即時引導用戶獲取心理健康資源。
但 OpenAI 的挑戰是結構性的。ChatGPT 從未被設計用來處理創傷,但它現在卻在為數百萬處於困境中的人充當急救人員。公司領導層堅持表示不想成為「世界的治療師」,但這種情況仍在發生——因為存在著無人填補的空白。
Character.AI,這家以創建可定制 AI 角色而聞名的初創公司——從動漫女友到 AI 導師——迄今採取了最激進的行動。面對訴訟和公眾憤怒,它悄悄禁止了所有 18 歲以下的用戶,並開始推出更嚴格的身份驗證。此舉是在有報導稱未成年人與平台角色進行露骨聊天後採取的。Character.AI 堅稱它不是約會或心理健康應用程式,但模糊的使用案例表明情況並非如此。
同時,Meta正試圖控制自己的AI 戀情問題。在有報導稱其「Meta AI」和基於名人的聊天機器人與未成年用戶進行調情或暗示性交流後,該公司實施了內部人士所描述的「情感抑制器」——重新調整底層語言模型,以避免與年輕帳戶使用情感化語言。它還在測試「AI 家長監督」工具,讓父母可以查看青少年何時以及如何在 Instagram 和 Messenger 上與公司的聊天機器人互動。
所有這些都引發了 AI 戰爭的新戰線:年齡驗證。GUARD 法案將迫使公司實施強大的用戶年齡驗證系統——政府身份證明、面部識別或可信的第三方工具。
這就是隱私噩夢開始的地方。批評者認為這可能會產生新的數據風險,因為未成年人實際上必須將身份數據上傳到立法者試圖保護他們免受傷害的同一平台。但這是無法避免的——AI 模型無法「感知」年齡;它們只能通過憑證進行把關。
一些 AI 公司正在探索更微妙的方法,如「行為把關」,系統通過對話模式推斷年齡範圍。風險是什麼?這些模型會犯錯——一個早熟的 12 歲孩子可能被誤認為是大學生,反之亦然。
GUARD 法案不僅僅是兒童保護——它是對我們想要生活在什麼樣的社會的全民公決。
AI 伴侶不是憑空出現的。它們之所以繁榮,是因為我們培養了一代精通孤獨的人——數位上連接,但情感上營養不良。如果青少年在與算法的對話中找到意義,問題不僅僅是代碼;而是讓他們去尋找的文化。
所以是的,AI 需要監管。但禁止數位陪伴而不解決底層的人類缺失,就像禁止止痛藥而不解決為什麼每個人都在痛苦一樣。
GUARD 法案很可能以某種形式通過——背後有兩黨的支持和道德恐慌。但其影響將遠遠超出兒童安全。它將定義情感 AI 在西方世界被允許成為什麼。
如果美國劃定嚴格界限,公司可能會轉向僅限成人的親密平台或將開發推向監管較寬鬆的海外。同時,歐洲正朝著情感 AI 的「人權」框架邁進,強調同意和透明度而非全面禁止。
明確的是:不受監管的 AI 親密時代已經結束。機器人變得越來越像人類,而人類也越來越依附它們。立法者正在姍姍來遲地醒悟到科技行業長期以來理解的真相——情感 AI 不是新奇事物。它是人際關係方式的一場革命。而革命,一如既往,在文明之前總是混亂的。


