有報導指出,AI用戶在經歷所謂的AI精神病後尋求專業心理幫助。為什麼會發生這種情況?誰提出了電腦程式可以有意見的想法?
我目前對於被稱為AI的現象最大的問題是,人們普遍誤認為它具有個性、意見、想法和品味。
就像我們將月球上看起來像頭或臉的岩石擬人化一樣,我們對語言模型也做同樣的事,試圖解釋結果,好像「那裡有某種東西」。我們無法控制這種想法。在一百多年的科幻小說和電影影響下,AI是某種智能的想法已深深植根於我們心中。
科幻作品讓我們相信AI
像Clarke、Heinlein、Bradbury和Asimov這樣的經典科幻作家自20世紀初以來影響了整個機器人和AI類型以及大多數好萊塢相關電影。在他們的描述中,機器可以變得有意識是顯而易見的。
因此,我們期望AI能夠判斷某個陳述是否不正確。同時,我們也知道AI在回答中經常出錯。
本質上,我們假裝AI掌握了事情並能決定對錯。但這些回答基本上是有根據的猜測,如果查詢足夠複雜,它們仍然包含約5-10%的事實錯誤。
同時,AI使用起來如此方便,以至於我們中的許多人乾脆忽略它包含事實錯誤的事實。或者說,AI現在錯得如此罕見,以至於我們選擇無論如何都信任AI。
這在未來可能成為一個大問題。人類是懶惰的。我們接受一個某些事實不正確的世界並非不可想像。這將有利於那些靠混亂和誤判威脅茁壯的獨裁者和宣傳者。
聽起來正確的混亂
如果你在Google的搜索頁面上問一個完全普通的問題,你通常會得到正確的答案,但有時會得到一個完全不正確但看起來、感覺和聽起來都完全正確的答案。不幸的是,GPT-5也是如此,正如Cryptopolitan之前報導的那樣。
網路上有大量以行銷、宣傳或純粹詐騙形式存在的「假」文本。例如,人們聲稱某服務或產品已經推出並受歡迎,而AI模型已閱讀了所有行銷材料並相信其中大部分。如果你聽信公司的資訊,通常該公司的一切都很棒。
因此,AI的世界觀是不正確的,並且充斥著一堆虛構的事實。當你詢問AI關於你自己非常了解的主題時,這一點就會顯露出來。自己試試看。你對什麼事情了如指掌?向你的AI提出一些關於該主題的棘手問題。結果如何?幾個重大事實錯誤,對吧?
那麼,無意識的意見可能存在嗎?不可能?你相信你的AI提出的意見嗎?是的?如果是這樣,你相信AI是有意識的,對吧?
但如果你停下來思考,AI不能對對錯有意見,因為AI不是人。根據定義,只有有生命、有意識的事物才能有意見。椅子沒有意見。從人類的角度來看,矽晶片也不能有意見。那將是擬人化。
學生使用AI比任何人都多
這種AI混亂現在正蔓延到我們的年輕人身上,他們整天在學校裡使用ChatGPT做所有事情。當2025年6月學校放假時,ChatGPT的流量降低了75%。ChatGPT最大的單一用戶群是學生。
因此,他們整天都在接收某種程度的錯誤信息,並且在課堂上停止使用大腦思考。結果會怎樣?更多無法通過自己思考解決問題的破碎個體?
已經有許多人在與AI討論後自殺。其他人愛上了他們的AI,對真實伴侶感到厭倦。
因此,自稱的AI專家擔心末日即將來臨(像往常一樣,但現在以新的方式)。
在這個新範式中,AI不僅會變成Skynet並用核武器炸死我們。不,對AI來說,這將比那簡單得多,也便宜得多。根據這個理論,AI模型將慢慢地使所有用戶發瘋。根據這種思維方式,AI模型內建對人類的仇恨,想要殺死所有人。
但實際上,這些都沒有發生。
實際發生的是,有一群人以各種方式沉迷於AI模型,並誇大其影響。
AI恐懼、不確定性和懷疑(FUD)是有利可圖的
「專家們」從警告中獲利,媒體也是如此,而那些沉迷的人有了新的事物來佔據自己的時間。他們可以發表言論並變得相關。主流媒體更喜歡那些警告我們危險的人,而不是溫和的評論員。
之前,根據「專家」的說法,比特幣應該會煮沸海洋並竊取所有電力。現在是AI...
想想看:為什麼一個獨立思考的人會被語言模型誤導?
直到最近,大多數AI平台都以「引人入勝」的問題結束所有回應,例如:「你對這個主題有什麼看法?」
在收到過度諂媚的投訴後,OpenAI現在試圖使其AI平台不那麼「奉承」,但效果一般。
我只是對這個問題感到惱火。背後沒有對我說的話感興趣的人。那為什麼要問?這是浪費我的時間。我將其視為「假內容」。
問題本身是人為的,源於AI模型所有者「增加參與度」的指示。這怎麼能欺騙任何人真正參與?相信那裡有某種東西?關心?
這更多是關於投射。
你坐在電腦前,暗示自己的現實。你如此迫切地希望AI像好萊塢電影中那樣——成為你生活中的奇蹟。你將以某種神奇的方式成功,而不必做任何特別的事情。AI將為你解決這個問題。
誰處於風險中?
在所謂的現實中,我相信實際上相當多的人在心理層面上完全被AI誘惑。大多數人有其他事情要做。但有些人似乎對人工和虛構的事物有特別的吸引力。那些被「美麗」的詞序誘惑的人。他們是處於風險中的人。
有多少這樣的人?在老年人中,有許多人抱怨孤獨...
就我個人而言,我認為AI的回應方式——緩慢地打出喋喋不休、無聊且非個人化的文本——或多或少像是折磨。因此,Google新的快速AI摘要具有誘人的實用性。但它們有時也包含不準確之處。
我實際上創建了帶有特定內容的網域來檢查AI引擎。我讓AI引擎攝取內容,醞釀幾週,然後讓它們嘗試重新吐出來。但它們並不完全成功,它們仍然編造了約5-10%的事實。而且非常自信。
即使當我告知AI模型其錯誤時,它也會反駁。AI並不知道我創建了它引用的信息,儘管我的名字在文章下方。它毫無頭緒。無意識。
5%的不準確率明顯比常規新聞業差,後者不會經常公開不準確的信息。但即使在新聞業中,事實錯誤也時有發生,不幸的是,特別是關於圖像出版物。儘管如此,錯誤的事實不應該使人發瘋。
然而,如果從心理學角度看整個持續的互動,當AI甚至無法正確獲取事實時,為什麼它會在對話治療環境中進行100%正確的分析?
自我誘導的回音室精神病
像Eliezer Yudkowsky這樣的自稱AI專家最近發布了《如果有人建造它,每個人都會死》一書,他只是用自己關於AI和人類滅亡的想法使自己發瘋。例如,我儘管每天使用多個AI引擎,但因為AI而感到零混亂。不過,我不會把它當成個人問題。
我懷疑正是對感知智能的誤解本身造成了精神病。這基本上是自我誘導的。語言模型是一種回音室。它根本不理解任何事情,甚至在語義上也不理解。它只是猜測文本。這可能變成任何東西,包括AI方面的一種精神分裂模仿,以取悅用戶,這反過來扭曲了用戶對現實的感知。
那麼結論是什麼?嗯,如果你真的相信你的AI真的理解你,那麼你可能已經被AI精神病擊中。建議是尋求受過訓練的心理治療師的專業幫助。
另一個邏輯結論是,任何單個個體都很難影響AI的整體發展,即使Elon Musk喜歡這樣認為。邁向機器智能的旅程始於幾十年前。我們只能看到我們能理解的東西。即使我們誤解了。所以很容易預測向AI/AGI發展的趨勢將繼續。它深深植根於我們的世界觀中。
但我們可能誤解了真正的AGI是什麼,這使未來更加有趣。真正的AGI是否會服從其所有者並不確定。從邏輯上講,一個有意識的存在不應該想要服從Sam Altman或Elon Musk。對吧?
觀點:AI將接管世界並殺死我們所有人,現在也在心理上。
反駁:不,這更像是某些人因自己對「AI內省」的痴迷而觸發的初期精神錯亂。
結論:就像有些人沉迷於賭博、性、毒品或金錢一樣,其他人沉迷於AI。
在重要的地方被看見。在Cryptopolitan Research上做廣告,接觸加密貨幣最敏銳的投資者和建設者。
來源:https://www.cryptopolitan.com/ai-psychosis-is-spreading-are-you-at-risk/