行業新聞與部落格
大多數網路安全人員並不知道他們能以多快的速度阻止針對人工智慧系統的網路攻擊。
ISACA 的一項新研究發現,超過一半(56%)的 IT 和網路安全專業人員不知道他們能以多快的速度關閉受網路攻擊或安全事件影響的 AI 系統。
該研究由全球認證機構於 3 月 23 日釋出,基於對 3400 多名安全和數字專業人士的調查。
略低於三分之一的受訪者(32%)表示,他們相信可以在一小時內阻止可能受到損害的人工智慧系統,而 7% 的受訪者表示,他們認為這需要一個多小時。
企業人工智慧所有權的混亂加劇了安全和治理風險
部分問題源於對企業人工智慧應用管理責任歸屬的混亂。五分之一(20%)的受訪者表示,他們不知道誰負責人工智慧應用。
與此同時,28% 的受訪者表示,管理人工智慧是董事會級別高管的責任,18% 的受訪者表示,這是資訊長或首席技術官的責任,而 13% 的受訪者表示,這是首席資訊安全官的責任。
無論責任歸屬如何,接受調查的安全專業人員中,只有不到一半(43%)的人表示,他們對所在機構調查嚴重的 AI 事件並向領導層或監管機構解釋事件經過的能力充滿信心。
略超過四分之一(27%)的人表示,他們對所在機構做到這一點的能力幾乎沒有信心或完全沒有信心。
根據 ISACA 的研究,許多安全專業人員認為,由於缺乏對系統的人工監督,他們的組織將難以識別與人工智慧相關的潛在安全問題。
僅有 36%的受訪者表示,在其所在組織內,大多數人工智慧操作必須事先獲得人工批准。另有 26%的受訪者表示,人工智慧活動僅在操作完成後才會進行稽核。
與此同時,11% 的人表示,只有在出現特別標記的活動時才會審查 AI 的行為;20% 的人表示,他們不知道人類在監督其組織中 AI 做出的決策方面扮演什麼角色。
“雖然各組織可能會感受到快速採用人工智慧技術以跟上時代步伐並利用其能力的壓力,但在此之前,他們必須建立適當的保障措施和治理機制,” Tiro Security 的虛擬首席資訊安全官兼首席技術官、 GRCIE 的聯合創始人兼董事會主席、 ISACA 新興趨勢工作組成員 Jenai Marinkovic 表示。
她補充說:“企業需要確保配備合適的人員、政策、流程和計劃,不僅能夠有效且負責任地使用人工智慧,還能避免危機來臨時可能造成的重大混亂。”
最近新聞
2026年03月24日
2026年03月24日
2026年03月23日
2026年03月23日
2026年03月23日
2026年03月23日
2026年03月23日
2026年01月27日
需要幫助嗎?聯絡我們的支援團隊 線上客服