行業新聞與博客

人工智能採用激增,但安全意識落後

一項涉及 1200 多名全球安全和 IT 領導者的新 ExtraHop 調查為 ChatGPT 和 Google Bard 等生成式 AI 工具的採用和管理提供了新的見解。 

據報道,安全性並不是使用這些工具的組織的主要關注點。受訪者更擔心不準確的回答(40%),而不是客户和員工個人身份信息(PII)的暴露(36%)、商業秘密的泄露(33%)和財務損失(25%)。

然而,缺乏基本的安全實踐,82% 的受訪者對其安全堆棧充滿信心,但只有不到一半的受訪者投資於監控生成式 AI 使用的技術,從而使他們面臨數據丟失風險。只有 46% 制定了數據共享的安全策略。

“數據隱私是一個關鍵問題。與此類模型的交互可能會無意中導致敏感信息的共享或暴露。這需要強大的數據處理和處理框架來防止數據泄露並確保隱私。” Ontinue 安全運營副總裁 Craig Jones 警告説。

“組織需要嚴格評估和控制 LLM(大型語言模型)處理數據的方式,確保與 GDPR、HIPAA、CCPA 等保持一致。這涉及採用強大的加密、同意機制和數據匿名化技術,以及定期審核和更新數據處理保持合規的做法。”

此外,ExtraHop 報告顯示,儘管 32% 的組織禁止生成式 AI 工具,但只有 5% 的組織報告零使用,這表明員工找到了繞過這些禁令的方法,這使得數據檢索變得具有挑戰性。

人們強烈渴望獲得外部指導,74%的人計劃投資於生成式人工智能保護,60%的人認為政府應該為企業制定明確的人工智能法規。

閲讀有關人工智能威脅的更多信息:新的 ChatGPT 攻擊技術傳播惡意軟件包

更普遍的是,ExtraHop 報告顯示,生成式人工智能工具的使用正在增長。為了確保安全和高效的使用,該公司推薦了明確的政策、監控工具和員工培訓。 

網絡風險與合規副總裁 John Allen 評論道:“生成式人工智能工具的使用最終仍處於起步階段,仍然有許多問題需要解決,以幫助確保數據隱私得到尊重以及組織能夠保持合規性。”在黑暗蹤跡。

“我們都可以發揮作用,更好地瞭解潛在風險,並確保採取正確的護欄和政策來保護隱私和數據安全。”

需要幫助嗎?聯繫我們的支持團隊 在線客服