隨著人工智慧(AI)越來越成為商業運作的重要部分,新出現的安全問題和威脅以空前的速度增長,超過了傳統網路安全解決方案的能力。
這些問題的影響可能非常重大。根據思科公司(Cisco)2024年的AI準備指數,只有29%的受訪組織感覺自己完全有能力檢測和防止對AI技術的未授權篡改。
持續的模型驗證
思科的AI軟體與平台負責人DJ Sampath表示:「當我們談到模型驗證時,這不是一次性的工作,而是需要持續進行的。」
「所以,當您看到模型發生變化時——如果您進行任何類型的微調,或者發現新的攻擊需要模型學習時——我們會不斷學習所有這些資訊,並重新驗證模型,以查看這些模型在我們發現的新攻擊下的表現。」
「還有一個非常重要的點是,我們擁有一個真正先進的威脅研究團隊,這個團隊不斷研究這些AI攻擊並理解這些攻擊如何進一步增強。事實上,我們正在貢獻於像MITRE、OWASP和NIST等標準組織內的工作小組。」
除了防止有害的輸出外,思科還解決了AI模型在外部惡意影響下的脆弱性,這些影響可能改變它們的行為。這些風險包括提示注入攻擊、越獄和訓練數據中毒,每一種都需要嚴格的防範措施。
演變帶來新的複雜性
IDC的安全和信任部門副總裁Frank Dickson談到了網路安全隨時間演變的情況,以及AI的進步對行業的意義。
「第一個宏觀趨勢是我們從本地部署轉向雲端,這引入了一系列全新的問題需要解決。然後,隨著應用程序從單體架構轉向微服務,我們看到了全新的問題集。」
「AI和大型語言模型(LLM)的加入……同樣,這帶來了全新的問題集。」
隨著應用程序變得多模型化,AI安全的複雜性增加。脆弱性可能在多個層面出現——從模型到應用程序,涉及開發人員、最終用戶和供應商等不同利益相關者。
「一旦應用程序從本地轉移到雲端,它就會保持在那裡。是的,我們在多個雲中開發應用程序,但一旦您將應用程序放在AWS、Azure或GCP上,您不會每個月、每季度或每週在這些不同的雲環境之間跳來跳去。」
「一旦您從單體應用程序開發轉向微服務,您就會停留在那裡。當您將應用程序放在Kubernetes上時,您不會再跳回其他東西。」
「在確保LLM的安全時,重要的是注意模型的變化。當我們談論模型變化時,這並不是說進行了一次修訂……這周開發人員可能在使用Anthropic,下周他們可能在使用Gemini。」
「它們完全不同,每個模型的威脅向量也完全不同。它們各有優缺點。」
與傳統的安全措施集成到單個模型中不同,思科通過其新推出的AI防禦系統為多模型環境提供控制。這個解決方案是自我優化的,使用思科的專有機器學習算法來識別不斷演變的AI安全和安全問題,並依賴於思科Talos提供的威脅情報。
適應新常態
思科的執行副總裁兼首席產品官Jeetu Patel分享了他的看法,認為短時間內的重大進展總是顯得革命性,但很快就會變得正常。
「Waymo是谷歌(Google)的自駕車。您進入車內,裡面沒有任何人,車子會將您從A點帶到B點。這感覺令人驚訝,就像我們生活在未來一樣。第二次時,您會開始習慣它。第三次時,您開始抱怨座椅。」
「甚至在過去幾年中,我們對AI和ChatGPT的適應速度,我認為任何重大的進展在短時間內都會感覺非常進步,然後就會出現一種正常化的過程,大家開始習慣它。」
Patel認為,AGI(通用人工智慧)也會發生正常化。然而,他指出「您不能低估這些模型所取得的進展」,以及它們最終將解鎖的使用案例。
「沒有人會想到,我們會有一部智能手機,其計算能力比您手邊的主機電腦還要強大,並且能夠在任何時候執行成千上萬的任務,而現在這只是另一種生活方式。我的14歲女兒甚至不再思考這些。」
「我們應該確保我們作為公司能夠迅速適應。」
想了解更多行業領袖關於AI和大數據的資訊嗎?請查看即將在阿姆斯特丹、加州和倫敦舉行的AI與大數據博覽會。這個綜合性活動與其他領先活動如智能自動化會議、BlockX、數字轉型周和網路安全及雲端博覽會同時舉行。
在這裡探索其他即將舉行的企業科技活動和網路研討會,這些活動由TechForge提供支持。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!