隨著情人節即將到來,值得提出一個令人不安的問題:當「被看見和被聽到」的感覺不是來自伴侶,而是來自機器時,會發生什麼?具有獨特個性和肯定語氣設計的人工智慧(AI)陪伴聊天機器人可能會模糊情感界限並培養浪漫依戀。雖然這看似無害,但它引發了個人和組織對於防止情感依賴、操縱和資料洩漏的擔憂。
隨著孤獨感成為許多人無所不在的現實,近年來陪伴型AI聊天機器人呈指數級增長。
「與通用型聊天機器人不同,像Replika和Character.AI這樣的AI陪伴應用程式更進一步,提供客製化角色——從朋友和浪漫伴侶到幻想人物——設計得感覺非常像人類,」KnowBe4 Africa內容策略資深副總裁暨資訊安全長顧問Anna Collard評論道。
AI陪伴應用程式領域的增長十分迅速:僅在2025年上半年就記錄了6,000萬次新下載,年增率達88%。
目前市場包括全球337個創造收入的應用程式,其中超過三分之一是去年才推出的。
ELIZA效應的危險
Collard表示,許多使用者被欺騙而認為與機器分享親密對話是安全的——即所謂的ELIZA效應。
這種心理聯繫造成了重大的安全漏洞。當使用者將AI視為「朋友」或「伴侶」時,他們更有可能分享敏感資訊——從個人不滿和健康問題到專有的企業資料。
在組織環境中,這是情感觸發因素如何凌駕傳統安全意識的明確例子。
資料洩漏風險
對組織而言,最直接的威脅是敏感資訊的洩漏。由於這些機器人通常由資料保護標準可疑的小型利基新創公司開發,與機器人分享的資訊很少是私密的。一個典型案例是最近一個AI玩具暴露了50,000筆與兒童的聊天記錄。實際上任何擁有Gmail帳戶的人都能查看這些兒童的私人對話。
這些應用程式的隱私政策通常不透明。在某些情況下,聊天記錄被用於進一步訓練模型或儲存在不安全的資料庫中。「絕對需要謹慎,」Collard評論道。「感覺像是私密、低風險的互動可能包含敏感資訊、策略、財務壓力、個人壓力源或對手可以武器化的背景細節。」
她認為,一旦洩漏,這些資料可能成為高度個人化的網路釣魚、勒索或冒充攻擊的燃料。「從安全角度來看,這是個人行為和企業風險現在密不可分的教科書範例。」
這些風險包括人工審核員為了訓練、品質控制或安全目的審查對話,以及使用者意外透過公開連結分享對話,意味著任何擁有該連結的人都可以閱讀。Collard警告:「我們已經在整個科技領域看到暴露資料如何意外浮現的例子。」
此外,如果應用程式涉及資料外洩或法律調查,組織可能會被法律強制要求披露資料。對於高階主管或開發人員來說,分享有關機密專案或困難客戶的「發洩」談話可能會無意中導致敏感組織資料的曝光。
政策缺口
這種風險凸顯了現代職場中的政策缺口。雖然大多數組織對於同事之間的關係有明確指引,但很少有組織考慮到在工作設備或透過企業網路存取約會機器人的影響。
管理這種風險需要從簡單的意識轉變為穩健的人員風險管理(HRM)方法。這涉及將明確的使用政策與技術防護措施——例如影子AI發現工具——分層,為IT團隊提供對哪些未經批准的AI代理正在與其資料環境互動的可見性。僅僅要求員工謹慎是不夠的;組織必須建立系統來管理人類情感與自動化互動的交集。
社交工程的未來
我們會看到駭客用大量生產的調情機器人瞄準孤獨的個人嗎?Collard認為這已經在發生了。
「社交工程一直透過利用情緒、緊迫感、恐懼、好奇心、愛和吸引力來擴大規模,」她評論道。「AI只是將其自動化並擴大規模。最令我擔心的不是技術本身,而是它如何賦予那些有惡意意圖的人令人信服地模仿人類親密關係的能力,例如系統性的浪漫騙子。」
根據Collard的說法,在短短幾年內,詐騙已從「親愛的先生/女士」類型演變為情感智慧操縱。「問題不在於機器人本身,而在於騙子有意使用它們,」她說。
她提到一個非法LoveGPT機器人的例子,該機器人幫助騙子說出正確的心理觸發語言,以建立依賴性並激發受害者的情緒。「騙子只需要複製貼上,甚至只需將對話自動化,」她表示。
可以採取什麼措施來防止使用者被掠奪?一如既往,防禦仍然是人性的,Collard斷言。「最終,無論聊天機器人多麼體貼或情感流暢,都無法取代真正的人際連結,」她強調。
她認為,如果與聊天機器人的互動開始感覺在情感上具有替代性、秘密性或難以抽離,這就是一個暫停並聯繫值得信賴的人或專業人士的信號。「技術可能是現代生活的一部分,但這意味著我們需要加強數位正念技能,學習如何識別操縱或誘發的依賴性。最後,當涉及孤獨、脆弱和愛時,最安全的防禦始終堅決地是人性的,」她總結道。


