有报道称,AI用户在经历所谓的AI精神病后寻求专业心理帮助。为什么会发生这种情况?谁提出了计算机程序可以有意见的想法?
目前我对被称为AI的现象的主要问题是,人们普遍误认为它具有个性、意见、想法和品味。
就像我们将月球上看起来像头或脸的岩石人格化一样,我们对语言模型也做同样的事,试图解释结果,好像"那里有什么东西"。我们无法控制这种想法。在一百多年的科幻小说和电影熏陶下,AI是某种智能体的观念已深深植根于我们心中。
科幻作品让我们相信AI
像克拉克、海因莱因、布拉德伯里和阿西莫夫这样的经典科幻作家自20世纪初以来影响了整个机器人和AI类型的作品以及大多数好莱坞电影。在他们的描述中,机器可以变得有意识是显而易见的。
因此,我们期望AI能够判断某个陈述是否不正确。同时,我们也知道AI在回答中经常出错。
本质上,我们假装AI能够掌控一切并能决定对错。但这些回答基本上只是有根据的猜测,如果查询足够复杂,它们仍然包含约5-10%的事实错误。
同时,AI使用起来如此方便,以至于我们中的许多人简单地忽略了它包含事实错误的事实。或者说,AI现在错误如此罕见,以至于我们选择无条件信任AI。
这在未来可能成为一个大问题。人类是懒惰的。我们接受一个某些事实不正确的世界并非不可想象。这将有利于那些靠混淆和误判威胁而茁壮成长的独裁者和宣传者。
听起来正确的混淆
如果你在谷歌搜索页面上提出一个完全普通的问题,你通常会得到正确的答案,但有时会得到一个完全不正确但看起来、感觉上和听起来都完全正确的答案。不幸的是,GPT-5也是如此,正如Cryptopolitan之前报道的那样。
互联网上有大量"虚假"文本,以营销、宣传或纯粹的骗局形式存在。人们声称某项服务或产品已经推出并受欢迎,例如,AI模型已经阅读了所有营销材料并相信其中大部分内容。如果你听信公司的信息,通常该公司的一切都很棒。
因此,AI的世界观是不正确的,并且充斥着一堆虚构的事实。当你询问AI关于你自己非常了解的主题时,这一点就会暴露出来。自己试试看。你对什么事情了如指掌?向你的AI提出一些关于该主题的棘手问题。结果如何?几个重大事实错误,对吧?
那么,无意识的意见可能存在吗?不可能?你相信你的AI表达的意见吗?是的?如果是这样,你相信AI是有意识的,对吧?
但如果你停下来思考,AI不能对对错有意见,因为AI不是人。根据定义,只有有生命、有意识的事物才能有意见。椅子没有意见。从人类的角度来看,硅芯片也不能有意见。那将是拟人化。
学生使用AI比任何人都多
这种AI混乱现在正蔓延到我们的年轻人身上,他们整天在学校里用ChatGPT做所有事情。当2025年6月学校放假时,ChatGPT的流量下降了75%。ChatGPT最大的单一用户群体是学生。
因此,他们整天都在接受某种程度的错误信息,并且在课堂上停止使用大脑思考。结果会怎样?更多无法通过自己思考解决问题的破碎个体?
已经有许多人在与AI讨论后自杀。其他人爱上了他们的AI,厌倦了真实的伴侣。
因此,自称的AI专家担心末日即将来临(像往常一样,但现在以新的方式)。
在这个新范式中,AI不仅仅会变成天网并用核武器炸死我们。不,对AI来说,这将比那简单得多,也便宜得多。根据这一理论,AI模型将慢慢地使所有用户发疯。根据这种思维方式,AI模型内置了对人类的仇恨,想要杀死所有人。
但实际上,这些都没有发生。
实际发生的是,有一群人以各种方式痴迷于AI模型,并夸大其影响。
AI恐惧不确定性怀疑(FUD)是有利可图的
"专家们"从警告中获利,媒体也是如此,而那些痴迷者有了新的事物来占据自己的时间。他们可以发表言论并变得相关。主流媒体更喜欢那些警告我们危险的人,而不是温和的评论员。
之前,根据"专家"的说法,比特币应该会煮沸海洋并窃取所有电力。现在是AI...
想想看:为什么一个独立思考的人会被语言模型误导?
直到最近,大多数AI平台都以"引人入胜"的问题结束所有回答,比如:"你对这个主题有什么看法?"
在收到过度奉承的投诉后,OpenAI现在试图让其AI平台不那么"谄媚",但效果一般。
我只是对这个问题感到恼火。背后没有对我说的话感兴趣的人。那为什么要问?这是浪费我的时间。我将其视为"虚假内容"。
问题本身是人为设计的,源于AI模型所有者"增加参与度"的指示。这怎么能欺骗任何人真正参与?相信那里有什么?关心?
这更多是关于投射。
你坐在电脑前,构想自己的现实。你如此迫切地希望AI像好莱坞电影中那样——成为你生活中的奇迹。你将以某种神奇的方式成功,而不必做任何特别的事情。AI会为你解决这一切。
谁处于风险中?
在所谓的现实中,我相信确实有相当多的人在心理层面上完全被AI诱惑。大多数人有其他事情要做。但有些人似乎对人工和虚构特别有吸引力。那些被"美丽"词序诱惑的人。他们是处于风险中的人。
有多少这样的人?在老年人中,有许多人抱怨孤独...
就我个人而言,我认为AI的回应方式——缓慢地打出喋喋不休、无聊且没有个性的文本——或多或少像是折磨。因此,谷歌新的快速AI摘要具有诱人的实用性。但它们有时也包含不准确之处。
我实际上创建了带有特定内容的域名来检查AI引擎。我让AI引擎摄取内容,沉淀几周,然后让它们尝试重新吐出来。但它们并不完全成功,仍然编造了约5-10%的事实。而且非常自信。
即使当我告知AI模型其错误时,它也会反驳。AI并不知道我创建了它引用的信息,尽管我的名字在文章下面。它毫无线索。无意识。
5%的不准确率明显比常规新闻业差,后者不经常公开发布不准确信息。但即使在新闻业中,事实错误也会不时发生,不幸的是,特别是关于图像出版物。尽管如此,错误的事实不应该使人发疯。
然而,如果从心理学角度看整个持续的互动,当AI甚至无法正确获取事实时,为什么它会在对话治疗环境中做出100%正确的分析?
自我诱导的回音室精神病
像Eliezer Yudkowsky这样的自称AI专家最近发布了《如果有人建造它,每个人都会死》一书,他只是通过自己关于AI和人类灭亡的想法使自己走向疯狂。例如,我尽管每天使用几个AI引擎,但因为AI而感到零混乱。不过,我不会把它当成个人关系。
我怀疑正是对感知智能的误解本身造成了精神病。这基本上是自我诱导的。语言模型是一种回音室。它根本不理解任何东西,甚至在语义上也不理解。它只是猜测文本。这可能变成任何东西,包括AI方面的一种精神分裂模仿,以取悦用户,这反过来扭曲了用户对现实的感知。
那么结论是什么?嗯,如果你真的相信你的AI真的理解你,那么你可能已经被AI精神病击中。建议是寻求受过训练的心理治疗师的专业帮助。
另一个逻辑结论是,任何单个个体都很难影响AI的整体发展,即使埃隆·马斯克喜欢这样认为。通往机器智能的旅程始于几十年前。我们只能看到我们能理解的东西。即使我们误解。因此,很容易预测向AI/AGI发展的趋势将继续。它深深植根于我们的世界观中。
但我们可能误解了真正的AGI是什么,这使未来更加有趣。真正的AGI是否会服从其所有者并不确定。从逻辑上讲,一个有意识的存在不应该想要服从山姆·奥特曼或埃隆·马斯克。对吧?
观点:AI将接管世界并杀死我们所有人,现在也在心理上。
反驳:不,这更像是某些人因自己对"AI内省"的痴迷而触发的初期疯狂。
结论:就像有些人沉迷于赌博、性、毒品或金钱一样,其他人沉迷于AI。
在重要的地方被看到。在Cryptopolitan Research上做广告,接触加密货币最敏锐的投资者和建设者。
来源:https://www.cryptopolitan.com/ai-psychosis-is-spreading-are-you-at-risk/