大多数公司缺乏人工智能风险管理计划
大多数公司缺乏人工智能风险管理计划
近年来,人工智能 (AI) 的快速发展为企业带来了新的机遇,但也带来了重大挑战。来自风险管理软件公司Riskconnect的最新调查显示,80%的公司尚未制定具体计划以减轻与生成性人工智能相关的风险,包括与安全威胁如人工智能驱动的网络诈骗相关的风险。

调查结果
2024下一代风险报告对全球风险合规和韧性领域的218名专业人士进行了调查。结果令人担忧:24%的受访者预计,人工智能驱动的网络安全威胁(例如勒索软件、网络钓鱼和深度伪造技术)将在明年内显著影响其运营。此外,72%的人表示网络安全风险对其组织产生了重大或严重的影响,比去年47%的比例有所上升。
对人工智能的担忧日益加深
随着人工智能的伦理、隐私和安全问题变得愈发突出,报告强调了企业对人工智能风险日益增长的关注。然而,许多组织在调整其风险管理框架时面临困难,导致关键漏洞得不到解决。值得注意的是,65%的公司缺乏管理合作伙伴和供应商使用生成性人工智能的政策,尽管认识到第三方供应商通常是网络犯罪分子的主要目标。
内部威胁和最佳实践
内部威胁同样带来重大挑战。营销专家Anthony Miyazaki指出,虽然生成性人工智能在生产书面内容方面非常熟练,但最终输出需要人工监督以确保准确性和说服力。此外,使用人工智能生成的内容用于网站可能会适得其反;Google明确表示,利用人工智能操控搜索排名可能导致可见度下降,从而对公司的SEO表现产生不利影响。
为应对这些问题,企业必须实施全面的内部政策以保护敏感数据并遵守相关法规。Del Tech的首席安全官John Scimone强调,该公司在生成性人工智能兴起之前就已建立指导原则,以确保其人工智能应用的开发是公平、透明和负责任的。
在一家数字营销机构Empathy First Media中,副总裁Ryan Doser强调了员工使用人工智能工具相关严格协议的重要性。公司禁止将敏感客户数据输入生成性人工智能平台,并要求对所有AI生成的内容进行人工审核。这些措施旨在增强透明度并促进客户信任。
结论
随着威胁形势的快速演变,企业必须优先发展强有力的风险管理策略,以应对生成性人工智能带来的挑战。通过这样做,组织可以更好地保护自己免受内部和外部威胁。
关键要点
- 80%的公司尚未制定生成性人工智能风险的具体计划,面临潜在的安全漏洞。
- 72%的公司认为网络安全风险已产生重大影响,呼吁加强风险管理。
- 公司应采取主动措施确保人工智能应用的安全和合规,避免内部和外部威胁。



