雖然ChatGPT等AI工具正在快速改變世界,但它們并非無所不知的神諭。ChatGPT擅長"令人信服的錯誤",經常提供有偏見、過時或完全錯誤的答案。在健康診斷、心理健康、緊急安全決策、個人財務規劃、機密數據處理、違法行為、學術作弊、實時信息監控、賭博預測、法律文件起草和藝術創作等11個關鍵領域,用戶應避免完全依賴ChatGPT,而應尋求專業人士幫助。
谷歌DeepMind最新發布的前沿安全框架3.0版本詳細探討了生成式AI系統可能帶來的威脅。報告基于"關鍵能力水平"評估AI模型風險,重點關注"失控AI"問題,包括AI可能忽視用戶關閉指令、被惡意利用創建惡意軟件或生物武器、操縱人類信念等風險。研究團隊特別擔心AI模型權重泄露可能被惡意行為者利用,以及未來AI可能發展出無法驗證的推理過程,使監管變得困難。
AI安全公司Irregular宣布完成8000萬美元融資,由紅杉資本和Redpoint Ventures領投,公司估值達4.5億美元。該公司專注于AI模型安全評估,其SOLVE框架已被業界廣泛采用,參與了Claude 3.7 Sonnet和OpenAI o3等模型的安全評估。公司構建了復雜的仿真環境系統,可在模型發布前進行深度測試,識別潛在風險和新興行為。
應用程序編程接口是業務流程自動化和企業間協作的基礎,但也帶來了新的安全風險。盡管有成熟的實施模式,許多組織仍依賴過時做法,如為外部API使用靜態密碼。文章闡述了如何通過風險矩陣評估API的嚴重性和可能性,將技術改進與企業業務風險相結合來獲得資金支持。提出了兩種降低API安全風險的策略:減少事件影響和降低事件發生可能性,并強調從設計階段就應考慮API的安全性。
Continuity Software研究發現,企業存儲和數據保護設備在信息安全方面存在嚴重盲點,使公司數據面臨危險暴露。調查涵蓋300個環境中超過1萬臺設備,發現平均每臺設備存在10個漏洞,其中一半為高風險。最常見漏洞涉及身份認證管理和未修復的CVE。許多設備仍使用出廠默認密碼,缺乏多因素認證。研究還發現勒索軟件防護功能未啟用或配置錯誤的情況。
大型企業的CISO薪酬和職責不斷提升,涵蓋業務風險、產品安全及數字戰略,但預算緊縮使得安全投入必須直接與業務增長掛鉤,進而帶來角色定位及滿意度的不確定性。
網絡監控中心(CMC)創立了一個五級量表,用于評估重大網絡攻擊對英國基礎設施和服務的系統性影響。該量表參考颶風等級,根據經濟損失程度對網絡事件進行分類,旨在幫助企業更好地理解網絡保險覆蓋范圍,并為政策制定提供參考。這一創新方法有望改變人們對網絡安全事件的認知和應對方式。