F5 Labs以模型風險排行榜與威脅情報為AI安全基測樹立全新標準 智慧應用 影音
231
DFORUM
亞德諾

F5 Labs以模型風險排行榜與威脅情報為AI安全基測樹立全新標準

  • 吳冠儀台北

F5宣布推出強化版威脅情報資源,協助企業資安主管能夠確實地衡量並比較主流AI模型的風險概況。由F5 Labs威脅研究團隊發布的 「綜合AI安全指數AI Security Index(CASI)與Agentic韌性評分Agentic Resistance Score (ARS)排行榜,結合即時威脅情報與不斷演進的AI攻擊向量的專家分析,提供標準化且每月更新的基準資料。

基於F5購併的CalypsoAI領先業界的安全資源,包含全球規模龐大的AI漏洞資料庫,該資料庫每月獨家新增超過10,000筆攻擊提示(attack prompts),並整合累積超過一年的攻擊資料。透過F5 Labs ,企業與更廣泛的資安社群能夠運用一套強而有力且一致的方式,在正式導入前,評估、比較與選擇AI模型與供應商,檢視他們面對主要挑戰與實際應對應用安全威脅的能力。

F5資深產品長Kunal Anand表示,將未經驗證的AI模型部署至關鍵基礎設施,並不是創新,而是失職。企業需要一種能持續量化韌性的機制。F5 Labs AI Leaderboards正提供這樣的標準。這些排名可精準識別模型層的特定弱點,讓資安團隊掌握必要的情資,並在攻擊發生前阻擋。

透過更完整的可視性,F5 Labs AI Leaderboards協助資安團隊從整體層面識別與補強各項漏洞,可與F5 Application Delivery and Security Platform搭配運作,提升整體防禦能力,涵蓋API與資料保護、阻擋DDoS攻擊,到透過自動化與可擴展性加強DevSecOps等多元面向的資安防護能力。

AI快速整合至企業營運各個層面,企業導入模型時需要進行更高標準的安全驗證。為了協助資安專業人員回答「我的模型有多安全?」這一關鍵問題,F5 Labs AI Leaderboards建立評估指標,針對攻擊者最容易入侵的路徑,以及完成簡單與複雜攻擊所需的最低運算資源進行量化分析。

這次的發布進一步強化全面上市的F5 AI Guardrails與F5 AI Red Team方案。F5 AI Guardrails讓企業執行開箱即用及內建與自訂的防護機制,確保AI與使用者及資料互動時的安全性。F5 AI Red Team則透過多次自主AI代理進行高強度測試,模擬現代資安分析師團隊的運作模式,以及具探測、學習與適應能力的多步驟攻擊。

此方法直接作為CASI與ARS排行榜的評估依據,使F5能同時衡量模型的基礎安全特性,以及在持續且貼近真實世界威脅情境下的長期抵禦能力。除每月更新CASI與ARS最新評分排名外,F5 Labs亦同步發布每月 AI Security Insights研究報告,說明排行榜分數變動背後的關鍵原因,解析最新 AI 產業動態與研究發展,並深入剖析特定AI攻擊案例。

F5 Labs AI Leaderboards僅是F5協助客戶與資安社群,以更全面視角理解不斷演進的攻擊手法與模型防禦能力的其中一項實例。透過更全面理解持續演進的攻擊手法與模型防禦機制,協助因應日益升高的現代資安威脅挑戰。透過建立領先AI模型的正式排名制度,F5 Labs亦鼓勵資安專業人員間的知識共享,進而產生正向循環,加速應用安全最佳實務的廣泛採用。

關鍵字