行業新聞與部落格

人工智慧採用激增,但安全意識落後

一項涉及 1200 多名全球安全和 IT 領導者的新 ExtraHop 調查為 ChatGPT 和 Google Bard 等生成式 AI 工具的採用和管理提供了新的見解。 

據報道,安全性並不是使用這些工具的組織的主要關注點。受訪者更擔心不準確的回答(40%),而不是客戶和員工個人身份資訊(PII)的暴露(36%)、商業秘密的洩露(33%)和財務損失(25%)。

然而,缺乏基本的安全實踐,82% 的受訪者對其安全堆疊充滿信心,但只有不到一半的受訪者投資於監控生成式 AI 使用的技術,從而使他們面臨資料丟失風險。只有 46% 制定了資料共享的安全策略。

“資料隱私是一個關鍵問題。與此類模型的互動可能會無意中導致敏感資訊的共享或暴露。這需要強大的資料處理和處理框架來防止資料洩露並確保隱私。” Ontinue 安全運營副總裁 Craig Jones 警告說。

“組織需要嚴格評估和控制 LLM(大型語言模型)處理資料的方式,確保與 GDPR、HIPAA、CCPA 等保持一致。這涉及採用強大的加密、同意機制和資料匿名化技術,以及定期稽核和更新資料處理保持合規的做法。”

此外,ExtraHop 報告顯示,儘管 32% 的組織禁止生成式 AI 工具,但只有 5% 的組織報告零使用,這表明員工找到了繞過這些禁令的方法,這使得資料檢索變得具有挑戰性。

人們強烈渴望獲得外部指導,74%的人計劃投資於生成式人工智慧保護,60%的人認為政府應該為企業制定明確的人工智慧法規。

閱讀有關人工智慧威脅的更多資訊:新的 ChatGPT 攻擊技術傳播惡意軟體包

更普遍的是,ExtraHop 報告顯示,生成式人工智慧工具的使用正在增長。為了確保安全和高效的使用,該公司推薦了明確的政策、監控工具和員工培訓。 

網路風險與合規副總裁 John Allen 評論道:“生成式人工智慧工具的使用最終仍處於起步階段,仍然有許多問題需要解決,以幫助確保資料隱私得到尊重以及組織能夠保持合規性。”在黑暗蹤跡。

“我們都可以發揮作用,更好地瞭解潛在風險,並確保採取正確的護欄和政策來保護隱私和資料安全。”

需要幫助嗎?聯絡我們的支援團隊 線上客服