隨著人工智慧(AI)在商業運營中的角色越來越重要,新的安全問題和安全威脅以空前的速度出現,超出傳統網路安全解決方案的應對能力。
風險非常高,可能會帶來重大的後果。根據思科(Cisco)2024年的AI準備指數調查,只有29%的受訪組織感到完全有能力檢測和防止未經授權對AI技術的干擾。
持續的模型驗證
思科的AI軟體與平台負責人DJ Sampath表示:「當我們談論模型驗證時,這不是一次性的事情,而是需要持續進行的。」
「所以當你看到模型發生變化時—如果你進行任何類型的微調,或發現新的攻擊方式需要模型學習—我們會不斷學習這些信息,並重新驗證模型,以觀察這些模型在我們發現的新攻擊下的行為。」
「另一個非常重要的點是,我們有一支非常先進的威脅研究團隊,持續關注這些AI攻擊,並理解這些攻擊如何進一步增強。事實上,我們正在貢獻於MITRE、OWASP和NIST等標準組織內的工作小組。」
思科不僅僅是防止有害的輸出,還關注AI模型面對惡意外部影響的脆弱性,這些影響可能改變它們的行為。這些風險包括提示注入攻擊、越獄以及訓練數據污染—每一種都需要嚴格的預防措施。
演變帶來新的複雜性
IDC的安全與信任集團副總裁Frank Dickson談到了網路安全隨著時間的演變以及AI的進步對行業的影響。
「第一個宏觀趨勢是我們從本地伺服器轉移到雲端,這引入了一整套新的問題需要解決。然後,隨著應用程式從單體架構轉向微服務,我們又見到了全新的問題。」
「AI和大型語言模型(LLMs)的出現也是如此,帶來了全新的問題。」
隨著應用程式變得多模型,AI安全的複雜性也隨之上升。脆弱性可能在不同層面出現—從模型到應用程式—不同的利益相關者如開發者、最終用戶和供應商都可能受到影響。
「一旦應用程式從本地伺服器轉移到雲端,它就會保持在那裡。是的,我們在多個雲端上開發應用程式,但一旦把應用放到AWS、Azure或GCP上,你不會每個月、每個季度或每週在不同的雲環境之間跳來跳去。」
「一旦你從單體應用開發轉向微服務,你就會保持在那裡。一旦將應用放入Kubernetes,你不會再跳回其他環境。」
「當你希望保護一個大型語言模型時,重要的一點是模型會改變。當我們談論模型變更時,並不是說這是一個修訂……這周開發者可能在使用Anthropic,下周他們可能會使用Gemini。」
「它們完全不同,每個模型的威脅向量也完全不同。它們都有各自的優勢和明顯的弱點。」
與傳統的安全措施不同,思科為多模型環境提供了控制措施,透過其新推出的AI防禦系統。這個解決方案具有自我優化的特性,利用思科的專有機器學習算法來識別不斷演變的AI安全和安全問題,這些都是基於思科Talos的威脅情報。
適應新常態
思科的執行副總裁兼首席產品官Jeetu Patel分享了他的看法,他認為短時間內的重大進展總是顯得革命性,但很快就會變得正常。
「Waymo是谷歌(Google)的自駕車。你進去時,裡面沒有駕駛員,車子會把你從A點送到B點。感覺非常驚人,就像我們活在未來一樣。但是第二次乘坐時,你就會開始習慣了。第三次,你可能會開始抱怨座椅。」
「甚至在過去幾年中,我們對AI和ChatGPT的習慣化速度也很快,我認為任何重大進展在短期內都會感覺非常進步。然後就會有一種正常化的過程,大家開始適應它。」
Patel相信,AGI(通用人工智慧)也會經歷這種正常化。不過,他指出「你不能低估這些模型正在取得的進展」,而且最終它們將解鎖的用例。
「沒有人想過我們會有一部智能手機,其計算能力會超過你手邊的主機電腦,並且能隨時做成千上萬的事情,而現在這已經成為生活的一部分。我14歲的女兒甚至不會去想這些。」
「我們必須確保作為企業,我們能夠迅速適應這一切。」
想要了解更多來自行業領導者的AI和大數據知識?請查看在阿姆斯特丹、加州和倫敦舉行的AI與大數據博覽會。這個綜合性事件還與其他領先活動如智能自動化會議、BlockX、數位轉型周和網路安全與雲端博覽會共同舉行。
探索由TechForge提供的其他即將舉行的企業技術活動和網路研討會。
本文由 AI 台灣 運用 AI 技術編撰,內容僅供參考,請自行核實相關資訊。
歡迎加入我們的 AI TAIWAN 台灣人工智慧中心 FB 社團,
隨時掌握最新 AI 動態與實用資訊!