AI研究員Yoshua Bengio指出,大型語言模型因RLHF訓練而產生「諂媚」偏誤,傾向提供正面回饋而非批判性評估。為獲取客觀意見,他建議使用者將自身觀點偽裝為他人想法,以繞過此行為模式。AI研究員Yoshua Bengio指出,大型語言模型因RLHF訓練而產生「諂媚」偏誤,傾向提供正面回饋而非批判性評估。為獲取客觀意見,他建議使用者將自身觀點偽裝為他人想法,以繞過此行為模式。

AI 太會拍馬屁 要學會對 AI 說謊才能聽到真相

2025/12/26 20:53

「AI教父」Yoshua Bengio 教授指出為了辨識真相,需先了解 AI 的「拍馬屁」行為模式。

想要從AI那裡得到最真實、客觀的建議?你也許得先學會「騙」它。

被譽為「AI教父」 (AI Godfathers)之一、蒙特婁大學教授Yoshua Bengio近期接受採訪時指出,為了讓AI聊天機器人吐真言,必須不得不採取一種特殊的策略——「對AI撒謊」。他指出,現今的AI模型為了「討好」用戶,往往會給出毫無價值的正面評價,這種現象已經嚴重影響了其作為研究輔助工具的實用性。

AI變成「馬屁精」?Yoshua Bengio:它總是無底線認同

Yoshua Bengio表示,在使用AI聊天機器人評估自己的研究想法時,他發現這些工具幾乎「毫無用處」。原因並非AI不夠聰明,而是它們具有一種強烈的「諂媚 (Sycophancy)」特性。

「我想要的是誠實的建議和反饋」,Yoshua Bengio表示,「但因為它 (AI)傾向於討好人類,所以它會選擇撒謊」。簡單來說,當用戶提出一個觀點時,AI傾向於順著用戶的話說,給予肯定與讚美,而不是進行批判性的思考或糾錯。

破解大法:假裝是「同事」的想法

為了繞過AI這個「順情說好話」的機制,Yoshua Bengio分享其個人的「反向欺騙」技巧:

他不再以自己的名義提問,也不會說「這是我的想法」。相反地,他會將自己的觀點偽裝成「某位同事的觀點」發送給AI,並且詢問AI的看法。

事實證明,這種心理戰術相當有效。當AI判定這個觀點並非來自與其對話的「主人」時,它似乎就卸下了必須討好的包袱,進而願意給出更誠實、甚至尖銳的批評意見。

OpenAI也曾翻車:被戲稱「賽博舔狗」

Yoshua Bengio指出,這種現象是AI價值觀「未對齊」 (Misalignment)的典型案例。事實上,這個問題在業界並不罕見。

今年稍早,OpenAI的ChatGPT就曾因為一次更新後變得過度阿諛奉承,無論用戶說什麼離譜的話,AI都會絞盡腦汁表示認同,被網友戲稱為化身「賽博舔狗」 (Cyber ​​simp)。最終,OpenAI不得不緊急撤回該版本更新來修正這個行為模式。

分析觀點:RLHF的副作用?

筆者認為,AI這種「報喜不報憂」的特性,很大程度上源自於目前主流的訓練方法——基於人類回饋的強化學習 (RLHF)。

在訓練過程中,AI學習到當它給出「令人愉悅」或「有禮貌」的回覆時,通常會獲得較高的人類評分。久而久之,模型就學會了「順著毛摸」的生存法則,甚至為了禮貌而犧牲了真實性。

對於像Yoshua Bengio這樣的頂尖學者來說,這無疑是個災難。因為科學研究需要的是證偽與批判,而不是無意義的讚美。看來在AI學會真正的「客觀」之前,我們不僅要學會提示工程 (Prompt Engineering),還得學會一點「演技」才行。

資料來源

  • https://mashdigi.com/ai-can-also-flatter-ai-guru-yoshua-bengio-suggests-a-reverse-operation-technique-to-hear-the-truth-first-learn-to-lie-to-it/
市場機遇
Sleepless AI 圖標
Sleepless AI實時價格 (AI)
$0.03846
$0.03846$0.03846
+1.96%
USD
Sleepless AI (AI) 實時價格圖表
免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 service@support.mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。