2026-04-21 06:55:52
4月18日,在第八屆C3安全大會上,亞信安全CEO馬紅軍稱大部分安全產(chǎn)品將失效,未來是Agent攻防。研究機構預測,2026年AI驅(qū)動的自動化攻擊將成主要威脅。當前部分企業(yè)安全陷入困境,傳統(tǒng)模式陷入“天花板”。隨著攻防技術從“工具對抗”向“系統(tǒng)對抗”轉(zhuǎn)變,亞信安全稱“AI原生”將成必選項,還需平衡技術創(chuàng)新與安全合規(guī)。
每經(jīng)記者|李卓 每經(jīng)編輯|余婷婷
“不久的將來——可能半年,最多兩年,我們目前正在應用的大部分安全產(chǎn)品和工具都將失效,未來將是一堆Agent(智能體)在攻擊、一堆Agent在防守?!?月18日,亞信安全副董事長、CEO(首席執(zhí)行官)馬紅軍在第八屆C3安全大會上直言。
這不是危言聳聽。就在大會前夜的一場技術攻防演示中,亞信安全團隊告訴馬紅軍,自動化攻防已經(jīng)可以實現(xiàn)80%,僅剩20%需要人工操作。
第八屆C3安全大會現(xiàn)場 圖片來源:每經(jīng)記者 李卓 攝
不僅如此,當日大會現(xiàn)場,還上演了一場極具沖擊力的“具身智能劫持”?!睹咳战?jīng)濟新聞》記者現(xiàn)場看到,一只機器狗在演示中遭黑客隱形控制,快速完成了權限突破、隱私竊取與惡意破壞,從服務工具淪為攻擊載體。
當以機器狗、AI Agent、大模型API(應用程序編程入口)為代表的各類“硅基員工”源源不斷涌入企業(yè)業(yè)務系統(tǒng),在帶來生產(chǎn)力大幅提升的同時,也帶來了新的攻擊面,網(wǎng)絡安全邊界被徹底重構。根據(jù)Gartner(?高德納)和安全牛等研究機構的預測,2026年網(wǎng)絡安全將邁入“智能化對抗博弈與多層級縱深防御”新階段,AI(人工智能)驅(qū)動的自動化攻擊將成為主要威脅。相關技術演進路徑與攻防對抗格局,將深刻影響整個行業(yè)的生態(tài)結(jié)構與競爭態(tài)勢。
當智能體攻防的硝煙已彌漫在眼前,網(wǎng)絡安全這一關乎企業(yè)生存的核心命題正被推至行業(yè)討論的聚光燈下。
在本屆C3安全大會主題為“智能與連接”的高峰對話中,阿里云副總裁李力指出,從大模型到AI智能體,看到了三個實實在在的挑戰(zhàn)。其中一個重要挑戰(zhàn)就是安全,包括權限安全、內(nèi)容安全、工作邊界安全等。
TCL科技集團數(shù)字化轉(zhuǎn)型部部長、IT共享服務中心總經(jīng)理李福濤在圓桌環(huán)節(jié)也指出,AI安全是智能化體系重構的先決條件和基礎。制造企業(yè)與互聯(lián)網(wǎng)企業(yè)不同,AI安全直接關系到生產(chǎn)安全,這對企業(yè)而言是致命的環(huán)節(jié)。
那么,智能體互聯(lián)網(wǎng)時代,到底什么是安全?亞信安全高級副總裁、首席客戶成功官吳湘寧在高峰對話中進一步從邏輯上將安全分為了三個層次。
第一個層次是基礎架構安全,通常所說的系統(tǒng)穩(wěn)定性、可靠性、數(shù)據(jù)不泄露,都屬于基礎安全范疇,核心是保證實體連接能夠平穩(wěn)運行、實現(xiàn)其功能。但智能體出現(xiàn)后,僅僅做到基礎安全是不夠的,還需要第二個層次的安全——行為安全。當前大家之所以擔心智能體出現(xiàn)問題,是因為無法掌控它的行為:讓它去做具體的事情,但它可能越權、越界,做出不該做的動作。吳湘寧舉例,在與ABB(瑞士電氣與工業(yè)自動化企業(yè))合作時,安全不僅僅是防止機器人被攻擊,更重要的是防止模型訓練出現(xiàn)幻覺,導致微操作出現(xiàn)一毫米的偏差——這對于芯片生產(chǎn)制造來說,會帶來巨大的浪費和損害。
第三個層次的安全,聚焦于大模型本身:如何控制大模型的幻覺,如何對大模型內(nèi)容進行加密保密,如何確保大模型的行為可控、遵循倫理和規(guī)章——這就是信任安全,核心是能否真正信任大模型并放心使用它。
而當AI與智能體安全成為網(wǎng)絡安全行業(yè)未來發(fā)展的關鍵方向時,傳統(tǒng)網(wǎng)絡安全的舊秩序正在被改寫。
亞信安全副董事長、CEO馬紅軍在第八屆C3安全大會演講 圖片來源:每經(jīng)記者 李卓 攝
馬紅軍在大會演講中指出,智能體互聯(lián)網(wǎng)時代,企業(yè)安全正陷入四大困境。
首當其沖的便是安全工具越來越多,但多數(shù)只是產(chǎn)品的堆砌,屬于“打補丁”式安全,導致運維工作越來越復雜,且容易陷入人員、運營成本激增的惡性循環(huán)。
第二,這些安全產(chǎn)品本身又產(chǎn)生了大量安全數(shù)據(jù),卻無法實現(xiàn)關聯(lián)。馬紅軍分享的數(shù)據(jù)顯示,68%的安全數(shù)據(jù)甚至沒有統(tǒng)一標準的API。這些數(shù)據(jù)格式不統(tǒng)一、相互割裂,信息壁壘森嚴,導致無法形成統(tǒng)一的威脅視角。
第三,這些安全產(chǎn)品還會產(chǎn)生海量告警信息。據(jù)統(tǒng)計,平均每個企業(yè)每天遇到的安全告警事件超過5000條,誤報率達到62%。安全團隊無法處理所有告警,只能疲于奔命,甚至選擇性放棄一些中低危告警。殊不知,這其中往往隱藏著真正的威脅。
更可怕的是,據(jù)亞信安全統(tǒng)計,隨著AI、自動化工具的批量化攻擊,對手攻擊平均突破時間已縮短至29分鐘,同比提速65%,最快僅需27秒。這樣的速度,讓傳統(tǒng)的安全產(chǎn)品加人工運維模式無法應對、防不勝防。傳統(tǒng)的網(wǎng)絡安全建設模式已經(jīng)陷入“天花板”。
如何破局?
為業(yè)內(nèi)共識的是,隨著攻擊自動化與防御智能化的同步演進,碎片化安全時代終將落幕。攻防雙方的技術較量正在從“工具對抗”向“系統(tǒng)對抗”轉(zhuǎn)變。XDR(Extended Detection and Response,擴展檢測與響應)就是近年全球網(wǎng)絡安全公司競相探索的方向。在國內(nèi),亞信安全、深信服、奇安信、啟明星辰、安恒信息等頭部網(wǎng)安公司紛紛加快XDR的布局。
值得關注的是,亞信安全在2025年于國內(nèi)首家發(fā)布了商用AI XDR(Artificial Intelligence Extended Detection and Response,聯(lián)動防御系統(tǒng))平臺。之所以給XDR賦予AI能力,亞信安全方面稱,是因為當前企業(yè)面臨的攻擊普遍已經(jīng)AI化,更加不可控、更具隨機性,需要用AI對抗AI。
第八屆C3安全大會 圖片來源:每經(jīng)記者 李卓 攝
作為一種網(wǎng)絡安全防御技術,AI XDR通過整合多源數(shù)據(jù)(云、網(wǎng)、邊、端、郵件),結(jié)合自動化分析與響應,提升威脅檢測與處置效率,將傳統(tǒng)的被動防御轉(zhuǎn)化為主動防御。亞信安全2025年財報數(shù)據(jù)顯示,目前,AI XDR日均防御1.8億次AI相關攻擊嘗試,相關訂單首年即突破1億元大關,實現(xiàn)商業(yè)價值的快速落地。
如果說2025年的網(wǎng)絡安全關鍵詞是聯(lián)動防御和體系化,馬紅軍認為,2026年的關鍵詞應該是數(shù)據(jù)驅(qū)動和AI原生。
“當攻擊者用AI批量生成免殺、發(fā)起自動化攻擊時,防御方若仍停留在人工分析+傳統(tǒng)規(guī)則,無異于用血肉之軀阻擋‘無人機蜂群’。同時,當‘硅基員工’涌入業(yè)務體系,攻擊面從傳統(tǒng)資產(chǎn)延伸至AI資產(chǎn),僅靠‘連接’已不足夠,AI XDR必須深度融合AIDR(AI威脅檢測與響應),實現(xiàn)從全域聯(lián)防到智能進化?!瘪R紅軍在C3安全大會上如是說。
與之對應,亞信安全最新發(fā)布的AI XDR 2026在體系化聯(lián)動防御的基礎上,進一步實現(xiàn)了AI能力與智能體群的規(guī)?;渴?。包括在AI XDR平臺中嵌入資產(chǎn)管理、風險分析、漏洞管理、聯(lián)動處置等十大智能體。這意味著,AI XDR平臺從“工具”走向“智能體矩陣”,AI不再是輔助人做決策,而是直接接管運營。
在馬紅軍看來,安全產(chǎn)品必須從“AI輔助人”轉(zhuǎn)向“AI原生”,這不是一個選項,而是智能體時代企業(yè)維持“生存韌性”的必然。
值得一提的是,智能體在重構網(wǎng)絡安全邊界的同時,也在重構企業(yè)的數(shù)字體系。這其中也涉及兩個平衡——技術創(chuàng)新與安全合規(guī)。換言之,短期內(nèi),如果過度強調(diào)安全,可能也會影響智能體、人工智能的推進速度和價值發(fā)揮。
如何平衡?李福濤認為,權限分層或是關鍵。他舉例,TCL在各業(yè)務領域落地智能體、創(chuàng)造價值的過程中,內(nèi)部制定了分層分級的策略。
“比如,在L1層(AI分析層面、信息層面),我們只讓智能體負責分析工作,最終決策由人來做出;在L2層,智能體落地過程中,由AI提供建議,最終的確認、審批仍由人來完成;第三層是智能體的自動化執(zhí)行環(huán)節(jié),對于這類智能體,我們一定會為其設定明確邊界,包括權限邊界、數(shù)據(jù)處理的范圍邊界以及用戶群體的選擇,這些都需要做好統(tǒng)籌管理。第四類是關鍵控制類智能體,對于這類智能體,我們會全方位做好AI安全保障,包括事前的AI安全規(guī)則、行為前置管控,以及事后的審計工作——涵蓋所使用的模型工具、推理邏輯等,都要有完整的落地日志,實現(xiàn)閉環(huán)管理和跟蹤。”
李福濤的上述觀點在現(xiàn)場引發(fā)諸多企業(yè)共鳴。他補充說:“非常關鍵的是,TCL內(nèi)部非常注重數(shù)據(jù)和知識工程的建設。因為AI要發(fā)揮價值,前提是實現(xiàn)數(shù)據(jù)貫通、統(tǒng)一數(shù)據(jù)標準,以及做好內(nèi)部知識沉淀。如果這項能力沒有做好,即便利用大模型、工具鏈和AI智能體進行技術創(chuàng)新,也只能局限在技術層面,無法真正為企業(yè)創(chuàng)造價值。”
顯然,大模型與Agent技術狂飆突進,攻防兩端的技術天平持續(xù)傾斜,如何在創(chuàng)新速度與安全底線間找到動態(tài)平衡,這套“安全平衡術”也早已從理論探討到落地,成為企業(yè)必須直面的實操命題。
如需轉(zhuǎn)載請與《每日經(jīng)濟新聞》報社聯(lián)系。
未經(jīng)《每日經(jīng)濟新聞》報社授權,嚴禁轉(zhuǎn)載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。
歡迎關注每日經(jīng)濟新聞APP