ChatGPT火爆全球以來,人們驚訝地發(fā)現(xiàn)這個AI聊天機器人不僅能輕松與人類對話,甚至可以編寫代碼。
在論壇上,程序員們貼出了一條條令人瞠目結(jié)舌的代碼生成示例。從串接云服務到將Python代碼移植為Rust,ChatGPT在某些基礎編程任務上已經(jīng)表現(xiàn)出非凡的能力。這使得人們開始擔心ChatGPT會淪為黑客攻擊的幫手。
那么ChatGPT的到來,究竟將如何影響網(wǎng)絡安全領域?ChatGPT是否會被黑客直接利用?它可以被應用在哪些網(wǎng)絡安全領域?又是否會成為未來網(wǎng)絡安全技術的發(fā)展方向?
面對ChatGPT帶來的諸多疑問,瑞數(shù)信息專家分享了自己的觀點。
ChatGPT網(wǎng)絡安全應用現(xiàn)狀
ChatGPT作為一款由AI技術驅(qū)動的自然語言處理工具,可以實現(xiàn)像人類一樣聊天交流。對于“是否會構(gòu)成網(wǎng)絡安全威脅”這一話題,ChatGPT顯然也有自己的看法:
“不,ChatGPT不會構(gòu)成網(wǎng)絡安全威脅。它是由OpenAI開發(fā)的一種語言模型,旨在根據(jù)接收到的輸入生成文本。然而,重要的是要記住,任何技術都可能被濫用,用戶有責任保護他們的系統(tǒng)和數(shù)據(jù)。此外,在分享敏感信息時要謹慎行事,因為第三方可能會獲取這些信息。”
同時,ChatGPT也補充道:“如果它落入壞人之手,可能會被惡意利用”、“ChatGPT可能被用來從互聯(lián)網(wǎng)上抓取敏感信息,例如個人數(shù)據(jù)或財務信息。”
換句話說,ChatGPT到底有沒有威脅,最終還是取決于使用者的目的。
對此,瑞數(shù)信息專家表示,和任何技術一樣,ChatGPT一旦被居心叵測之人利用,同樣會成為做壞事的工具。例如,利用ChatGPT生成釣魚郵件或惡意代碼,或利用ChatGPT尋找代碼中的漏洞。
圖:詢問ChatGPT如何生成釣魚郵件后的自動回復
“對于初級黑客來說,ChatGPT的確可以提升攻擊水平,尤其是ChatGPT大幅提升了獲取信息和加以應用的效率,降低了攻擊門檻;但對于高級黑客,要提升攻擊水平,更多需要自身的專研與積累,ChatGPT只能起到輔助的作用”,瑞數(shù)信息專家表示。
當然,ChatGPT作為一把技術“雙刃劍”,同樣可以被應用于網(wǎng)絡安全防護領域。對此,ChatGPT也提供了15種可能的應用方向:
自動化威脅情報分析:使用ChatGPT進行自然語言處理和情感分析,自動化威脅情報的分析和識別。
惡意代碼檢測:使用ChatGPT進行文本分析和分類,對惡意代碼進行自動化檢測和分析。
網(wǎng)絡安全事件響應:使用ChatGPT對網(wǎng)絡安全事件進行自然語言處理和語義分析,快速響應和解決網(wǎng)絡安全事件。
基于機器學習的入侵檢測:使用ChatGPT進行機器學習模型的訓練和預測,實現(xiàn)基于機器學習的入侵檢測。
情報收集和分析:使用ChatGPT對網(wǎng)絡情報進行自動化收集和分析,為網(wǎng)絡安全決策提供支持。
自動化漏洞檢測:使用ChatGPT進行自然語言處理和語義分析,自動化發(fā)現(xiàn)和檢測系統(tǒng)和應用程序中的漏洞。
智能安全咨詢:使用ChatGPT進行自然語言處理和智能問答,為用戶提供實時的安全咨詢和建議。
身份驗證和授權管理:使用ChatGPT對用戶的身份進行自動化驗證和授權管理,保護系統(tǒng)和數(shù)據(jù)的安全。
智能風險評估:使用ChatGPT進行自然語言處理和數(shù)據(jù)分析,為企業(yè)和組織提供智能的風險評估和管理服務。
自動化安全測試:使用ChatGPT進行自然語言處理和語義分析,自動化測試和評估系統(tǒng)和應用程序的安全性能。
自動化安全審計:使用ChatGPT進行自然語言處理和數(shù)據(jù)分析,自動化進行系統(tǒng)和應用程序的安全審計和評估。
安全事件預測和預警:使用ChatGPT進行自然語言處理和機器學習,對網(wǎng)絡安全事件進行預測和預警。
人工智能防火墻:使用ChatGPT進行自然語言處理和機器學習,開發(fā)智能的防火墻系統(tǒng),實現(xiàn)自動化的威脅防御和安全保護。
智能數(shù)據(jù)分類和保護:使用ChatGPT進行自然語言處理和文本分析,對敏感數(shù)據(jù)進行自動化分類和保護。
智能加密和解密:使用ChatGPT進行自然語言處理和加密算法,實現(xiàn)智能加密和解密服務,保護數(shù)據(jù)的機密性和完整性。
瑞數(shù)信息專家表示,以上這些場景在技術上都是有可能實現(xiàn)的,但是通過ChatGPT對話直接生成的代碼或建議,不做任何修改和測試,是無法直接應用在生產(chǎn)環(huán)境中的。如果要用到真實生產(chǎn)環(huán)境中,還是需要針對安全領域做更精準的訓練,才能更有效的應用這類AI新技術。
利用AI技術的安全攻防態(tài)勢
ChatGPT的爆火將AI技術從幕后推到了臺前,但實際上網(wǎng)絡安全領域?qū)τ贏I的研究早已開啟。
在2017年美國黑帽子大會上,數(shù)百名網(wǎng)絡安全專家投票預測,未來幾年黑客是否會利用AI技術從事犯罪活動,有62%人表示肯定。
由于AI自動化和智能化的能力,讓黑客可以加速攻擊速度,在同等時間內(nèi)攻擊盡可能多的目標用戶,同時降低自身的風險,因此近年來利用AI技術實施網(wǎng)絡攻擊的事件快速增長。
“黑客其實早已大量利用AI技術和云服務來構(gòu)建黑色產(chǎn)業(yè)鏈”,瑞數(shù)信息專家表示,“比如黑客會利用AI技術識別驗證碼或模擬人的操作行為,繞過網(wǎng)站的安全防護”。
例如,在一些網(wǎng)站的登錄驗證中,無論是滑動按鈕還是填寫驗證碼,黑客都可以利用AI模仿真人操作,順利通過驗證。
“據(jù)我們觀察,AI繞過的準確率甚至可以高達100%。識別率越高,黑產(chǎn)的收費也越高,所以黑客會不遺余力地去提升AI攻擊的準確率和效率”,瑞數(shù)信息專家表示。
盡管黑客已經(jīng)開始把AI當做武器來使用了,但安全廠商也同樣在快速跟進AI的發(fā)展。
以瑞數(shù)信息為例,早在2017年就開啟了AI技術在安全領域的研究。隨著網(wǎng)絡攻擊手段、方法的更新變化越來越快,攻擊特征越來越隱蔽,瑞數(shù)信息在獨創(chuàng)的“動態(tài)安全”技術基礎上加入AI技術,顛覆了傳統(tǒng)安全基于特征和規(guī)則的方式防護的思路,引領著安全防護由靜態(tài)走向動態(tài)、由被動走向主動。
基于瑞數(shù)信息“動態(tài)安全+AI”技術,企業(yè)可以筑起多道安全防線:
第一道防線,通過動態(tài)安全技術,靈活運用Web代碼混淆、JS混淆、前端反調(diào)試、Cookie混淆、中間人檢測等多種動態(tài)干擾功能,對攻擊者實施動態(tài)干擾;
第二道防線,通過疊加AI技術,對模擬真人等高度隱蔽性的異常訪問行為進行實時分析,實現(xiàn)更加精準的人機識別,識別各類已知與未知的攻擊。
基于這兩大瑞數(shù)創(chuàng)新技術,企業(yè)能夠在Bots自動化攻擊、0day攻擊、DDoS攻擊、API攻擊等多重攻擊場景中實現(xiàn)一體化防御。
近年來,瑞數(shù)信息在AI技術研發(fā)上仍在不斷精進,主要包括三個方向:
惡意內(nèi)容識別,包含SQL注入、XSS及Webshell等;
攻擊行為檢測,包含自動化威脅識別、協(xié)同攻擊檢測與用戶異常行為分析等;
勒索加密檢測,包含對文件系統(tǒng)與數(shù)據(jù)庫的勒索加密檢測。
2022年初,在工信部、網(wǎng)信辦及公安部等單位主辦的“第三屆中國人工智能大賽”中,瑞數(shù)信息在Webshell檢測識別方向的比賽中以最高分榮獲A級證書,足見其雄厚的AI實力。
AI或成網(wǎng)絡安全的未來
毫無疑問,AI已經(jīng)成為網(wǎng)絡攻防戰(zhàn)的新一代武器,任何一方都沒有選擇的余地,必須拿起AI來武裝自己。隨著ChatGPT的普及,AI技術會加速網(wǎng)絡安全領域的變革嗎?
瑞數(shù)信息專家認為,短期內(nèi)還是AI與現(xiàn)有安全技術共存的態(tài)勢,但是長期來看,AI極有可能對現(xiàn)有的安全技術形成顛覆,讓安全廠商的競爭態(tài)勢重新洗牌。
“目前各家安全廠商都還在AI訓練與調(diào)優(yōu)模型的階段,市場上還是以大量的傳統(tǒng)安全技術為主。隨著算力提高、數(shù)據(jù)量變大、成本降低,AI技術會有一個量變到質(zhì)變的過程,到那時候AI會替代傳統(tǒng)安全技術,替代人力工作”,瑞數(shù)專家表示。
在他看來,ChatGPT的出現(xiàn),讓業(yè)界看到了GPT這類大模型的巨大潛力,其優(yōu)勢不容小覷:
第一,有了這類AI技術的加入,網(wǎng)絡安全防護可能變得更智能、反應更快,可以防護以前注意不到或防不住的攻擊行為,同時也可以通過AIGC(生成式AI)技術自動生成防護規(guī)則,大幅縮短攻擊響應時間。
AI作為自動化機器是可以全天候運行工作的,不會產(chǎn)生人力疲勞等問題,從而減輕安全運營人員壓力。
基于出色的自然語言處理,AI可以通過對話而不是SQL語句的方式,來運行安全產(chǎn)品相關功能,并自動生成報表,從而大幅降低安全產(chǎn)品使用門檻,讓非安全專業(yè)人員也能夠輕松使用。未來,安全產(chǎn)品里也可能會集成類似ChatGPT的AI聊天機器人,協(xié)助安全管理人員分析威脅態(tài)勢并給出可能的處置建議。
正因如此,瑞數(shù)信息專家認為,ChatGPT底層的GPT模型或其他類似的模型,會被廣泛應用在網(wǎng)絡安全領域。
但值得注意的是,ChatGPT并不適合作為AI基礎模型直接應用于網(wǎng)絡安全領域進行精調(diào)。瑞數(shù)專家指出,一方面是因為ChatGPT超大規(guī)模模型導致訓練和運營成本高昂,即便作為API開放服務也沒有多少企業(yè)能夠承受;另一方面,安全領域有數(shù)據(jù)敏感、安全保密等特殊性,企業(yè)不太可能基于ChatGPT提供安全類數(shù)據(jù)去訓練模型。
因此,對于網(wǎng)絡安全行業(yè)應該有專屬的SecurityGPT,可基于GPT模型對網(wǎng)絡安全領域知識進行訓練,在降低模型規(guī)模的同時保持AI在安全領域的表現(xiàn),尋找技術和成本之間的平衡點。
據(jù)了解,在ChatGPT還沒火之前,瑞數(shù)信息就已經(jīng)在研究GPT模型了,目前相關技術正在實驗室研發(fā)中。未來,瑞數(shù)信息計劃將GPT接口開放給第三方調(diào)用,與各界伙伴共建AI在安全領域應用的生態(tài)圈。
結(jié)語
ChatGPT的出現(xiàn),使得網(wǎng)絡安全攻擊變得更容易,給企業(yè)帶來了極大的風險。如今,在網(wǎng)絡安全攻防對抗模式不斷升級的趨勢下,以AI對抗AI必將是未來的發(fā)展方向。瑞數(shù)信息作為網(wǎng)絡安全領域創(chuàng)新廠商也將持續(xù)提升AI技術,為企業(yè)用戶搭建面向智能時代的新一代主動防御安全體系。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!