影子 AI 是影子 IT 的延伸,涉及員工使用未經批准的 AI 技術。安全團隊可以通過建立明確的 AI 治理來減少影子 AI 的風險影子 AI 是影子 IT 的延伸,涉及員工使用未經批准的 AI 技術。安全團隊可以通過建立明確的 AI 治理來減少影子 AI 的風險

影子 AI 比影子 IT 更糟糕嗎?

2025/12/12 05:56

一個安靜的辦公室看起來可能無害。沐浴在光線中的顯示器架、覆蓋對話的耳機,以及工作的嗡嗡聲持續進行,沒有跡象表明下面隱藏著某些邪惡的東西。但越來越多的是,有意外的、未經批准的技術 — 這裡有個人雲端資料夾,那裡有未經批准的 AI 聊天機器人。很快,組織將需要管理所有這些新的、未預料到的風險。但影子 IT 只是隱藏威脅的第一波。影子 AI 已經提高了風險。

什麼是影子 AI 以及為什麼它正在增長

作為影子 IT 的延伸,影子 AI 涉及員工使用未經批准的技術。影子 IT 通常指消費者技術,如檔案共享應用程式或個人設備。影子 AI 通常涉及快速移動、數據飢渴的系統,其行為可能不穩定。

\ 根據 Gartner 進行的研究,80% 的組織在數據治理方面存在差距。這些差距使人們更容易忽視 AI 生成的行為。許多團隊未能通過網絡安全準備評估。與 AI 相關的風險因員工採用新工具的速度快於其團隊能夠充分審查它們而增加了。由於 30% 的數據洩露源自供應商或供應方,了解團隊使用的工具是保護公司數位資產的關鍵組成部分。

\ 影子 AI 之所以獲得關注,是因為員工將 AI 生成的內容視為更快速創建內容、總結複雜信息和解決技術問題的方式。它減少了日常工作中的摩擦,但引入了以前在影子 IT 問題中未見的風險,包括數據暴露、合規風險和模型級風險。

影子 AI 與影子 IT 的對比

影子 IT 長期以來一直被歸咎於未知的漏洞。早期的大部分洩露是由於未簽名的 SaaS 工具或個人存儲造成的。AI 工具完全改變了這個等式。它們工作的規模和速度,加上其不透明性,創造了更難檢測和控制的風險。

\ 隨著 78% 的組織在生產中使用 AI,一些洩露現在是由於未管理的技術暴露造成的。更大的 IT 模型仍然重要,但 AI 引入了一個新維度,擴大了攻擊面。

影子 AI 和影子 IT 之間的關鍵差異

影子 AI 與影子 IT 相似,因為兩者都源於員工希望提高生產力的願望,但它們在風險所在方面有所不同。

  • 影子 IT 工具具有固定邏輯,這使行為可預測。預測影子 AI 工具的行為更為複雜,因為模型可以持續修改和重新訓練。
  • 影子 IT 風險包括未經授權存儲或移動數據。影子 AI 風險包括模型反轉、數據中毒和模型訓練。
  • 影子 IT 是確定性的,而 AI 工具可能產生幻覺、泛化能力差,並過度自信地產生不正確的輸出。

\ 影子 AI 也出現在即將到來的法規背景下,例如歐盟人工智能法案,這可能會增加監管審查。

使影子 AI 更為緊迫的安全風險

影子 AI 可能導致工程、營銷和財務方面的問題。隨著基於 AI 輸出做出決策,專有數據可能洩露,內部業務流程可能在無人察覺的情況下被操縱。

\

  • 模型操縱:攻擊者可以製作扭曲結果的數據。
  • 提示注入暴露:創建的提示可用於從模型中提取私人信息。
  • 數據譜系差距:AI 工具可能以安全團隊無法追踪的方式生成和存儲數據。
  • 合規漂移:AI 工具發生變化,而不斷發展的治理計劃可能變得不相關。

\ 隨著生成式 AI 的出現,擔憂增加了。回答供應商問題的聊天機器人或生成式 AI 摘要可能看起來無害,但它有洩露敏感使用數據或有價值專有知識產權的風險。卡內基梅隆大學發現,大型語言模型比基於規則的系統更容易受到對抗性提示的影響。當員工可以在沒有監督的情況下使用這些工具時,問題會增加。

\ 啟用 AI 的決策樹可能比傳統決策樹更有偏見。影子 AI 經常接收不完整的訓練信息,這些信息被輸入到第三方工具中。對 AI 系統的結構化監督將確保更新的完整性。當團隊忽視這一點時,模型的數據和行為會漂移。

安全團隊如何減少影子 AI 暴露

雖然影子 AI 帶來了許多風險,但組織可以通過將可見性與政策和技術控制相結合來減輕其中許多風險,在保護員工生產力的同時,不會讓他們負擔耗時的簽到或被阻止的網站。安全團隊受益於將影子 AI 視為治理問題而非懲罰問題。隨著員工使用 AI 工具提高生產力,緩解策略將不可避免地需要發展。

1. 建立明確的 AI 治理框架

治理計劃應指定批准哪些 AI 工具、員工可以使用哪些類型的數據、如何在做出高風險決策前審查模型輸出,以及當出現不可預測的模型行為時該怎麼做。後者包括誰來審查行為,誰來調查其原因,以及後果是什麼。

\ 有了監督,組織可以將 AI 視為任何其他企業資產,受到與其他傳統企業系統相同的可追溯性、可審計性、安全性和合規性責任。

2. 提供經批准的 AI 工具

擁有經過審核、集中化 AI 工具訪問權限的團隊不太可能轉向未經批准的公共 AI 來繞過阻礙。隨著工作變得更加自動化,員工將投入更多精力到各種模型中。工作人員已經每週花費約 4.6 小時在工作中使用 AI,超過了每週平均個人使用時間 3.6 小時。沒有適當監控的第三方 AI 可能已經比經過審核和批准的企業工具更為常見。公司應立即採取措施執行其政策。

\ 通過受管理的環境,組織可以通過工具監控使用情況,在數據庫內設置權限,並在各部門執行數據治理。這提高了員工生產力,同時也保護了業務的數據完整性和合規性。

3. 監控數據移動和模型使用

標記異常行為的可見性工具 — 如 AI 使用量突然增加、將數據上傳到不尋常的端點,或在短時間內使用敏感數據訪問模型 — 可能幫助安全團隊識別濫用和數據洩露。報告顯示,在過去一年中,多達 60% 的員工使用了未經批准的 AI 工具,93% 承認未經授權輸入公司數據。

\ 及早檢測這些模式可能使得在導致數據洩露或合規違規之前進行補救、再教育、權限重新配置或終止流程成為可能。

4. 培訓員工了解 AI 特定風險

一般的網絡安全培訓是不夠的。AI 可能通過誤解提示背後的意圖而產生幻覺,並生成看似權威但虛假或有偏見的內容。此外,工作人員必須了解 AI 的使用與軟件或服務的使用不同。安全使用需要改變心智模型、理解提示風險和處理個人數據。

\ 具有基本機器素養的用戶將核實輸出,並且不太可能過度分享個人數據。他們將這些工具視為有價值的副駕駛,但必須在人類監督下使用。

保護組織免受影子 AI 影響

影子 AI 增長更快,更難識別than影子 IT。雖然風險的規模和複雜性不同,但爭取員工幫助可以更有效地識別兩者。治理政策可以幫助公司取得適當的平衡。安全團隊應重新評估其暴露情況,對新出現的威脅保持警惕,並在看不見的基於 AI 的工具在業務應用中做出關鍵決策之前迅速採取行動。

免責聲明: 本網站轉載的文章均來源於公開平台,僅供參考。這些文章不代表 MEXC 的觀點或意見。所有版權歸原作者所有。如果您認為任何轉載文章侵犯了第三方權利,請聯絡 service@support.mexc.com 以便將其刪除。MEXC 不對轉載文章的及時性、準確性或完整性作出任何陳述或保證,並且不對基於此類內容所採取的任何行動或決定承擔責任。轉載材料僅供參考,不構成任何商業、金融、法律和/或稅務決策的建議、認可或依據。