我們經常聽到有人把AI 比喻成你遇過最有熱情的實習生。 它不知疲倦,富有創造力,有時還會編造一些事情,或者自以為比你更懂。 許多企業在尚未建立正確的防護措施之前,便將敏感資料與關鍵業務流程交付給 AI 模型及其應用。 這樣的做法勢必導致品牌受損、合規風險升高,並讓資安團隊疲於奔命──而他們往往是在事後才發現新的模型早已上線,甚至已被實際使用或暴露在外。
“安全營運團隊日常最擔心的風險,往往來自(通常是)出於善意的使用者、過於自信的模型,以及零散或缺失的控管機制。”
這種做法必須改變,而且我們一定會改變它。 在過去的幾個月裡,F5 在AI 安全發展歷程中取得了兩個重要的里程碑。
首先,在收購 CalypsoAI 之後,我們推出了兩款全新產品──F5 AI Guardrails 與 F5 AI Red Team,為大型企業提供先進且全面的 AI 安全防護能力。 其次,我們闡述了如何在不妥協的情況下保護AI 模型和代理。
今天,我們想把這些點聯繫起來,展示這些舉措如何説明 F5 客戶充滿信心、快速地採用 AI,最重要的是,無需做出任何妥協。 現在,正是充滿信心進行創新的時刻;而對安全團隊而言,現在也是能夠快速且精準找出漏洞的最佳時機。
我們近期針對安全團隊如何看待 AI 所進行的分析,揭露了許多值得關注的憂慮。其中,還有三項關鍵事實特別值得注意:
- 71% 的安全專業人員最擔心因內部濫用或示範行為而造成的風險。
- 對AI 模型濫用的憂慮,比對惡意濫用的擔憂高出 134%。
- 在安全團隊的數據安全憂慮中,52% 的擔憂圍繞著影子AI的使用以及向LLM洩露敏感數據。
換句話說,外部攻擊者固然重要,但安全營運團隊在日常工作中最擔心的風險,往往來自(通常是)出於善意的使用者、過於自信的模型,以及零散或缺失的控管機制。
正是這些來自真實世界的數據,讓我們特別聚焦於執行階段(Runtime)安全與策略落實,因為風險正是在執行階段,透過提示、回應、工具與代理行為實際發生並顯現。
F5 對 AI 安全的關注,對客戶意味著什麼
鑑於人工智慧應用的快速成長,F5 正加速實現其願景:為 AI 應用、模型、代理與資料,提供從概念驗證(PoC)到正式上線(Production)的全面、與模型無關的安全防護。
我們透過將兩項關鍵且高度互補的產品,整合至 F5 應用交付與安全平台(ADSP) 中,來達成這一目標:
- F5 AI Guardrails: 運行時安全和治理平面,用於檢查、管理和保護任何模型或提供程式中的提示、回應和代理/工具操作。 它使團隊能夠檢測和防止數據洩露,緩解有害或有偏見的輸出,並對模型和代理強制執行最小許可權原則,所有這些都不會破壞用戶體驗。
- F5 AI Red Team: 具備 AI 專用紅隊能力,可進行大規模對抗性測試,通過數千種攻擊模式和每月新增的 10,000 多個攻擊提示,持續測試您的 AI 系統。 這套不斷改進的測試涵蓋了快速注入、越獄、模型蒸餾、數據洩露等,並提供詳細的、可用於審計的日誌和指紋。
反饋迴路是奇迹發生的地方
測試中獲得的見解和發現可以直接轉化為動態保護措施——主動防護措施。 這意味著您的防禦措施會隨著新出現的威脅和系統變化而不斷發展——無需等待季度審查或供應商補丁週期。 檢測越準確,你的防護效果就越好,月復一月都是如此。
這種方法至關重要,因為它可以跟上威脅行為者不斷反覆運算的步伐。 這些威脅行為者最近利用AI技術,已完全實現了基於 CVE 漏洞資訊的漏洞利用代碼的自動化開發。 我們必須利用AI 來防禦AI 驅動的攻擊; 否則,這種不對稱性將過於巨大。 這種持續改進將成為AI驅動型防禦的標誌,F5 正在採用這種方法,並將其直接集成到 F5 ADSP 中。
在不損害安全性的前提下實現有效的AI
在我們近期發表的文章《在不妥協的情況下保護 AI 模型和代理》中,我們明確指出:
企業不應該在使用者體驗、速度與安全性之間被迫做出取捨。 說起來容易,但我們真正落實這項承諾的方式是做到以下幾點:
- 在任何模型或雲平臺上保持一致性:模式會變,供應商會變,但你的防護措施不應該變。 F5 在混合、多模型的環境中提供統一的策略,包括本地部署和開源模型選項。
- 低延遲保護設計:故障轉移避免機制能夠保持用戶體驗的快速性和彈性,同時嚴格執行安全策略。
- 合規性是內在的,而不是後天附加的:針對通用數據保護條例 (GDPR)、HIPAA 和歐盟AI 法案等合規性要求,預設和自定義審計範本,以及端到端可觀察性和第三方 SIEM/SOAR 集成,使證據收集變得輕鬆、可重複且可靠。
F5 在AI 安全領域的新篇章將帶來哪些變化?
您已經瞭解 F5,因為我們能夠確保應用快速、可用且安全。 AI安全技術可以融入現有的安全體系。 AI 安全的下一個篇章將緩解並揭示來自各個方向的風險。 透過每月從 10,000 多個全新攻擊提示 中持續學習而成的智慧型威脅情資,F5 能有效因應提示注入、越獄、模型蒸餾與資料外洩等新型對抗式威脅。
同時,系統可即時偵測並防止敏感資料洩露至公有或私有的 LLM,並依據您的資料分類政策,強制執行一致的 DLP 與存取控管機制。
最後,透過限制有害或具偏見的輸出內容、對模型與代理強制落實角色導向與情境感知的權限控管,以及在公有與內部模型上套用風險評估框架,企業得以有效管理負責任的 AI 使用。
在這些完整防護機制的支撐下,您可以簡化可觀測性,集中掌握所有 AI 互動的可視性與可追溯性,並透過詳細的事件日誌、代理指紋,以及與既有 SIEM/SOAR 的整合,降低雜訊、強化關鍵訊號。
正視當前的現實挑戰
僅依賴單一前沿模型的防護,本身就是一種風險。攻擊者往往會率先鎖定這些目標,而您的實際風險範圍,早已超出任何單一服務供應商。
零散的點狀工具不僅會放大雜訊,也容易造成監控盲點;而所謂黑箱式的「AI 驅動魔法」,並不等同於真正的治理。
企業需要的是透明、可由人為掌控的控管機制,以及隨時可供稽核的證據與政策,才能向監管單位與董事會清楚交代。
如果您才剛開始導入 AI,建議從風險最高的環節著手——例如影子 AI 的識別、敏感資料防護,或對抗式測試——再逐步擴展防護範圍。
若您已在正式環境中運行 AI,則應先描繪代理工具鏈與資料流向,並在關鍵邊界套用最小權限原則與執行階段防護。
全面整合,全面防護
F5 AI Guardrails 與 F5 AI Red Team,正加速實現 F5 打造最完整 AI 安全平台的使命。
這些能力與我們「在不妥協的前提下保護模型與代理」的承諾一致,並專為解決安全營運(SecOps)在實務中面臨的挑戰而設計。
AI 的攻擊面每天都在演進。透過這些全新功能,企業能夠獲得自適應的執行階段防護與代理威脅情資,從概念驗證到正式上線,全程守護模型、代理與資料的安全。
帶著您的模型一起來——我們將向您展示真正與模型無關、橫跨整個技術堆疊的防護能力。
欲了解更多資訊,歡迎觀看我們近期發布的影片。
文章來源:F5
