OpenAI 機器人主管請辭,抗議與五角大廈合作缺乏安全護欄。她擔憂此舉將賦予 AI 致命自主權,引發外界對 AI 軍事應用的倫理疑慮。OpenAI 機器人主管請辭,抗議與五角大廈合作缺乏安全護欄。她擔憂此舉將賦予 AI 致命自主權,引發外界對 AI 軍事應用的倫理疑慮。

OpenAI 機器人部門主管請辭 抗議五角大廈合作缺乏安全治理機制

2026/03/08 14:36
閱讀時長 5 分鐘
如需對本內容提供反饋或相關疑問,請通過郵箱 crypto.news@mexc.com 聯絡我們。

OpenAI 機器人部門負責人因對與五角大廈簽訂合約感到不滿而請辭,痛批該合作缺乏必要的「安全護欄」與治理機制,引發外界對 AI 軍事應用的關注。
繼Anthropic拒絕與美國國防部 (DoD)妥協,進而遭美國政府將其列入「供應鏈風險」名單後,OpenAI迅速接下五角大廈合約的決定,如今也在其內部引發了高層動盪。OpenAI機器人部門負責人Caitlin Kalinowski透過社群平台宣佈請辭消息,並且嚴厲批評公司在與軍方合作時過於草率,未能事先界定明確的「安全護欄」 (Guardrails)。這起人事大地震再次突顯AI業者在商業利益、國家安全與道德底線之間的激烈拉扯。

踩到道德紅線?「缺乏人類授權的致命自主權」

Caitlin Kalinowski過去曾在Meta負責領導AR眼鏡等硬體開發,在2024年底風光加入OpenAI擔任機器人與消費性硬體部門負責人,而這段合作關係卻因為OpenAI近期與美國國防部的軍事合約而戛然而止。

在X上發文證實請辭消息,Caitlin Kalinowski直言不諱地指出她的擔憂:「在沒有司法監督的情況下對美國人進行監控,以及在沒有人類授權的情況下賦予系統致命的自主權,這些『底線』理應得到比現在更多的審慎考量」。

她在回應其他貼文時進一步解釋,這項與美國國防部的合作宣佈得過於倉促,根本沒有明確定義出安全護欄,並且強調這「首先且最重要的是一個治理問題」。作為負責將AI帶入實體世界 (機器人硬體)的最高主管,她對於AI可能被直接應用於自主武器系統的抗拒,顯然比純軟體部門來得更加強烈。

OpenAI官方急滅火:已劃定「不監控、不涉及自主武器」紅線

面對高層的出走,OpenAI官方隨後證實Caitlin Kalinowski的請辭,同時也對此做出聲明,表示理解人們對這些議題有著「強烈的看法」,承諾將繼續與相關各方進行討論。不過,公司也明確表態「不支持」Caitlin Kalinowski所提出的指控前提。

OpenAI在聲明中重申其立場:「我們相信與五角大廈的協議,為負責任的國家安全AI應用創造了一條可行的道路,同時我們也明確劃定了紅線:絕不進行國內監控,也絕不開發自主武器」。

餘波盪漾:與Anthropic的路線分歧

Caitlin Kalinowski的辭職,可說是OpenAI決定與國防部簽署合約後,至今最高調、也最具破壞性的內部反彈。

就在這起事件發生前不久,OpenAI的競爭對手Anthropic才因為拒絕解除關於「大規模監控」與「開發完全自主武器」的AI安全護欄,而遭到五角大廈封殺。相較於Anthropic強硬不妥協,OpenAI執行長Sam Altman雖然承諾會修改與國防部的合約,明文禁止對美國人進行間諜活動,但這種「先簽約、後補救」的作法,顯然無法說服內部重視AI倫理的高階主管。

資料來源

  • https://mashdigi.com/dissatisfied-with-the-hasty-signing-of-a-contract-with-the-pentagon-the-head-of-openais-robotics-division-resigns-criticizing-the-lack-of-safety-barriers-and-governance-mechanisms/
免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 crypto.news@mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。