作者:May Wang 博士,Palo Alto Networks 物聯(lián)網(wǎng)安全首席技術(shù)官 近幾年來(lái),人工智能 (AI) 一直是網(wǎng)絡(luò )安全領(lǐng)域的賭注,但大型語(yǔ)言模型 (LLM) 的廣泛采用使 2023 年成為尤其令人興奮的一年。事實(shí)上,大型語(yǔ)言模型已經(jīng)開(kāi)始轉變網(wǎng)絡(luò )安全的整個(gè)格局。然而,它也產(chǎn)生了前所未有的挑戰。 一方面,大型語(yǔ)言模型使處理大量信息變得容易,讓每個(gè)人都可以利用人工智能。大型語(yǔ)言模型可以為管理漏洞、防止攻擊、處理警報和響應事故提供驚人的效率、智能和可擴展性。 另一方面,攻擊者也可以利用大型語(yǔ)言模型來(lái)提高攻擊效率,利用大型語(yǔ)言模型引入的額外漏洞,而濫用大型語(yǔ)言模型可能會(huì )造成更多網(wǎng)絡(luò )安全問(wèn)題,例如由于人工智能的普遍使用而導致的無(wú)意數據泄露。 大型語(yǔ)言模型的部署需要一種新的網(wǎng)絡(luò )安全思維方式。這種思維更具活力、互動(dòng)性和個(gè)性化。在硬件產(chǎn)品的時(shí)代,硬件只有在被下一個(gè)新版本的硬件取代時(shí)才會(huì )發(fā)生變化。在云時(shí)代,可以更新軟件并收集和分析客戶(hù)數據來(lái)改進(jìn)下一版本的軟件,但前提是發(fā)布了新版本或補丁。 現在,在人工智能的新紀元,客戶(hù)使用的模型有了自己的智能,可以不斷學(xué)習,根據客戶(hù)的使用情況改變 — 要么更好地服務(wù)于客戶(hù),要么向錯誤的方向傾斜。因此,我們不僅需要在設計中建立安全性 — 確保我們構建安全的模型并防止訓練數據中毒 — 而且還要在部署后繼續評估和監控 LLM 系統的安全性、保障性和道德性。 最重要的是,我們需要在我們的安全系統中內置智能(例如向兒童灌輸正確的道德標準,而不僅僅是規范兒童的行為),這樣他們才能適應性地做出正確而堅定的判斷,而不會(huì )輕易被不良意見(jiàn)所迷惑。 大型語(yǔ)言模型為網(wǎng)絡(luò )安全帶來(lái)了什么,是好還是壞?我將分享我們在過(guò)去一年中的收獲以及我對 2024 年的預測。 回顧 2023 年 一年前(大型語(yǔ)言模型時(shí)代之前),我在撰寫(xiě)機器學(xué)習在網(wǎng)絡(luò )安全中的未來(lái)時(shí),指出了人工智能在網(wǎng)絡(luò )安全領(lǐng)域面臨的三個(gè)獨特挑戰:準確性、數據短缺和缺乏基本事實(shí),以及三個(gè)雖然常見(jiàn)但在網(wǎng)絡(luò )安全領(lǐng)域更為嚴峻的人工智能挑戰:可解釋性、人才稀缺和人工智能安全。 一年后的現在,經(jīng)過(guò)大量探索,我們發(fā)現大型語(yǔ)言模型在這六個(gè)領(lǐng)域中的四個(gè)領(lǐng)域幫了大忙:數據短缺、缺乏基本事實(shí)、可解釋性和人才稀缺。另外兩個(gè)領(lǐng)域 — 準確性和人工智能安全,是極其關(guān)鍵的,但仍然非常具有挑戰性。 我從兩個(gè)方面總結了在網(wǎng)絡(luò )安全領(lǐng)域使用大型語(yǔ)言模型的最大優(yōu)勢: 1.數據 標注數據 使用大型語(yǔ)言模型幫助我們克服了沒(méi)有足夠“標注數據”的挑戰。 要使人工智能模型和預測更準確、更適合網(wǎng)絡(luò )安全用例,就必須要有高質(zhì)量的標注數據。然而,這些數據很難獲得。例如,很難發(fā)現能讓我們了解攻擊數據的惡意軟件樣本。遭到入侵的企業(yè)并不熱衷于分享這些信息。 大型語(yǔ)言模型有助于收集初始數據并根據現有的真實(shí)數據合成數據,對其進(jìn)行展開(kāi)以生成有關(guān)攻擊來(lái)源、載體、方法和意圖的新數據,然后使用這些信息來(lái)構建新的檢測,而不局限于實(shí)地數據。 基本事實(shí) 正如我一年前的文章中提到的,我們并不總是掌握網(wǎng)絡(luò )安全的基本事實(shí)。我們可以使用大型語(yǔ)言模型,通過(guò)發(fā)現我們的檢測與多個(gè)惡意軟件數據庫之間的差距、降低誤報率和頻繁地重新訓練模型來(lái)顯著(zhù)改善基本事實(shí)。 2.工具 大型語(yǔ)言模型特別擅長(cháng)使網(wǎng)絡(luò )安全運營(yíng)變得更容易、更用戶(hù)友好、更具可操作性。到目前為止,大型語(yǔ)言模型對網(wǎng)絡(luò )安全的最大影響體現在安全運營(yíng)中心 (SOC)。 例如,利用大型語(yǔ)言模型實(shí)現 SOC 自動(dòng)化背后的關(guān)鍵能力是函數調用,這樣有助于將自然語(yǔ)言指令轉化為可直接操縱 SOC 的 API 調用。大型語(yǔ)言模型還可以協(xié)助安全分析師更智能、更快速地處理警報和事故響應。大型語(yǔ)言模型使我們能夠通過(guò)直接從用戶(hù)那里獲取自然語(yǔ)言命令來(lái)集成五花八門(mén)的網(wǎng)絡(luò )安全工具。 可解釋性 以前的機器學(xué)習模型表現很好,但無(wú)法回答“為什么?”的問(wèn)題。大型語(yǔ)言模型有望通過(guò)準確而自信地解釋原因來(lái)改變游戲規則,這將從根本上變革威脅檢測和風(fēng)險評估。 大型語(yǔ)言模型快速分析大量信息的能力有助于關(guān)聯(lián)來(lái)自不同工具的數據:事件、日志、惡意軟件系列名稱(chēng)、來(lái)自常見(jiàn)漏洞和暴露 (CVE) 的信息,以及內部和外部數據庫。這不僅有助于找到警報或事故的根本原因,還可以極大地縮短事故管理的平均解決時(shí)間 (MTTR)。 人才稀缺 網(wǎng)絡(luò )安全行業(yè)的失業(yè)率為負。我們沒(méi)有足夠的專(zhuān)家,人類(lèi)也無(wú)法追趕海量的警報。鑒于大型語(yǔ)言模型的優(yōu)勢:快速匯集和消化大量信息、理解自然語(yǔ)言命令、將命令分解成必要步驟以及找到執行任務(wù)的正確工具,大型語(yǔ)言模型極大地減輕了安全分析師的工作量。 從獲取領(lǐng)域知識和數據到剖析新的樣本和惡意軟件,大型語(yǔ)言模型可以幫助我們更快、更有效地促進(jìn)構建新的檢測工具,使我們能夠自動(dòng)完成從識別和分析新的惡意軟件到查明不良行為者的工作。 我們還需要為人工智能基礎設施構建正確的工具,這樣每個(gè)人不必成為網(wǎng)絡(luò )安全專(zhuān)家或人工智能專(zhuān)家,也能從在網(wǎng)絡(luò )安全領(lǐng)域利用人工智能中受益。 2024 年的三大預測 人工智能在網(wǎng)絡(luò )安全領(lǐng)域的應用越來(lái)越廣泛,很明顯,我們正處于一個(gè)新時(shí)代的開(kāi)端 – 也就是通常所說(shuō)的“曲棍球效應”增長(cháng)的早期階段。我們對能夠改善安全狀況的大型語(yǔ)言模型了解得越多,就越有可能在充分利用人工智能方面領(lǐng)先于潮流(以及我們的對手)。 我認為,在網(wǎng)絡(luò )安全領(lǐng)域,有很多方面都已經(jīng)成熟,可以討論越來(lái)越多地使用人工智能來(lái)放大力量,對抗復雜性和不斷擴大的攻擊載體,但有三件事很突出: 1.模型 人工智能模型將在創(chuàng )造植根于網(wǎng)絡(luò )安全需求的深入領(lǐng)域知識方面取得巨大進(jìn)步。 去年,人們對改進(jìn)通用大型語(yǔ)言模型給予了很多關(guān)注。研究人員努力讓模型變得更智能、更快、更便宜。然而,這些通用模型可以交付的功能與網(wǎng)絡(luò )安全的需求之間存在巨大差距。 具體來(lái)說(shuō),我們的行業(yè)不一定需要一個(gè)巨大的模型來(lái)回答“如何制作佛羅倫薩雞蛋”或“誰(shuí)發(fā)現了美洲”這樣多元的問(wèn)題。相反,網(wǎng)絡(luò )安全需要超精確模型,具備網(wǎng)絡(luò )安全威脅、流程等深入的領(lǐng)域知識。 在網(wǎng)絡(luò )安全中,準確性至關(guān)重要。例如,我們每天在 Palo Alto Networks 處理來(lái)自世界各地 SOC 的超過(guò) 75TB 的數據。即使 0.01% 的錯誤檢測判定也可能是災難性的。我們需要具有豐富安全背景和知識的高精度人工智能,提供專(zhuān)注于客戶(hù)安全需求的定制服務(wù)。換句話(huà)說(shuō),這些模型需要執行的具體任務(wù)更少,但精確度更高。 工程師們在創(chuàng )建具有更多垂直行業(yè)和特定領(lǐng)域知識的模型方面取得了巨大進(jìn)步,我相信,以網(wǎng)絡(luò )安全為中心的大型語(yǔ)言模型將在 2024 年出現。 2.用例 網(wǎng)絡(luò )安全領(lǐng)域的大型語(yǔ)言模型將出現變革性用例。這將使大型語(yǔ)言模型對于網(wǎng)絡(luò )安全不可或缺。 2023 年,每個(gè)人都對大型語(yǔ)言模型的驚人能力感到無(wú)比興奮。人們用這把“錘子”去敲擊每一顆“釘子”。 2024 年,我們將了解到并非每個(gè)用例都最適合大型語(yǔ)言模型。我們將針對與大型語(yǔ)言模型的優(yōu)勢相匹配的特定任務(wù),推出真正的大型語(yǔ)言模型賦能的網(wǎng)絡(luò )安全產(chǎn)品。這將真正為客戶(hù)提高效率、改善生產(chǎn)力、增強可用性、解決現實(shí)問(wèn)題并降低成本。 試想一下,能夠閱讀成千上萬(wàn)有關(guān)安全問(wèn)題的劇本,例如配置端點(diǎn)安全設備、排除性能問(wèn)題、使用適當的安全憑據和權限引入新用戶(hù),以及逐個(gè)供應商地分解安全架構設計。 大型語(yǔ)言模型以可擴展且快速的方式消耗、總結、分析以及生成正確信息的能力將改變安全運營(yíng)中心,并徹底變革調度安全專(zhuān)業(yè)人員的方式、地點(diǎn)和時(shí)間。 3.人工智能安全與保障 除了利用人工智能實(shí)現網(wǎng)絡(luò )安全之外,如何在不損害人工智能模型智能的情況下構建安全的人工智能和安全的人工智能使用也是一個(gè)重要的話(huà)題。在這個(gè)方向上已經(jīng)有很多討論和偉大的工作。2024 年,真正的解決方案將得到部署,盡管這些解決方案可能只是初步的,但它們將是朝著(zhù)正確方向邁出的一步。此外,還需要建立智能評估框架,動(dòng)態(tài)評估人工智能系統的安全性和保障性。 請記住,大型語(yǔ)言模型也可能被不良行為者所利用。例如,黑客可以使用大型語(yǔ)言模型輕松生成大量質(zhì)量更高的網(wǎng)絡(luò )釣魚(yú)電子郵件。還可以利用大型語(yǔ)言模型來(lái)創(chuàng )建全新的惡意軟件。但行業(yè)在使用大型語(yǔ)言模型方面正在采取更加協(xié)作和戰略性的行動(dòng),幫助我們相對于對手取得領(lǐng)先并保持領(lǐng)先。 2023 年 10 月 30 日,美國總統約瑟夫·拜登發(fā)布了一項行政命令,內容涉及負責任且適當地使用人工智能技術(shù)、產(chǎn)品和工具。這項命令的目的涉及要求人工智能供應商采取一切必要手段,確保其解決方案用于適當用途,而非惡意目的。 人工智能安全和保障代表一種真正的威脅 — 我們必須認真對待這種威脅,并且要假設黑客已經(jīng)在設計部署來(lái)攻擊我們的防御。人工智能模型已經(jīng)得到廣泛使用,這一簡(jiǎn)單事實(shí)導致攻擊面和威脅載體大幅擴張。 這是一個(gè)充滿(mǎn)活力的領(lǐng)域。人工智能模型每天都在進(jìn)步。即使是在部署人工智能解決方案后,模型也會(huì )不斷發(fā)展,永遠不會(huì )保持靜止。我們非常需要持續的評估、監控、保護和改進(jìn)。 越來(lái)越多的攻擊將使用人工智能。作為一個(gè)行業(yè),我們必須把開(kāi)發(fā)安全的人工智能框架作為首要任務(wù)。這就好比當今的登月計劃,涉及供應商、企業(yè)、學(xué)術(shù)機構、政策制定者、監管機構 — 整個(gè)技術(shù)生態(tài)系統的通力合作。毫無(wú)疑問(wèn),這將是一項艱巨的任務(wù),但我想我們都意識到這是一項多么重要的任務(wù)。 結語(yǔ):最好的還在后頭 在某種程度上,ChatGPT 等通用人工智能模型的成功已經(jīng)讓我們在網(wǎng)絡(luò )安全方面被寵壞了。我們都希望能夠構建、測試、部署并不斷改進(jìn)我們的大型語(yǔ)言模型,使它們更加以網(wǎng)絡(luò )安全為中心,但我們卻被提醒,網(wǎng)絡(luò )安全是應用人工智能的一個(gè)非常獨特、專(zhuān)業(yè)、棘手的領(lǐng)域。我們需要從數據、工具、模型和用例這四個(gè)關(guān)鍵方面入手,使其發(fā)揮作用。 好消息是,我們可以接觸到許多聰明、堅定的人,他們有遠見(jiàn),能夠理解為什么我們必須推進(jìn)更精確的系統,將功能、智能、易用性以及最重要的網(wǎng)絡(luò )安全相關(guān)性結合起來(lái)。 我有幸在這個(gè)領(lǐng)域工作了很長(cháng)時(shí)間,Palo Alto Networks 內部的同事和我們周?chē)男袠I(yè)每天都在取得進(jìn)步,這讓我感到非常興奮和欣慰。 回到預言家這個(gè)棘手的問(wèn)題上,我們很難對未來(lái)有絕對的把握。但我確實(shí)知道這兩件事: 2024 年將是人工智能在網(wǎng)絡(luò )安全領(lǐng)域大顯身手的一年。 而與未來(lái)相比,2024 年將顯得黯然失色。 |