欧洲IT专家警告:人工智能使用激增,政策治理却滞后
最新的ISACA研究显示,在欧洲,有近四分之三(73%)的IT和网络安全专业人士表示员工已经在工作中使用生成式人工智能(Generative AI),相比前一年提升了10个百分点。然而,只有不到三分之一(31%)的组织制定了正式、全面的人工智能政策,这揭示了当前工作中人工智能使用频次与监管治理之间的巨大差距。 该研究强调了制定AI政策的重要性。一方面,这些政策可以增强公司的活动,另一方面,它们还可以保护企业免受潜在风险。目前,AI已经在提高组织生产力(56%)、提升效率和节省时间(71%)等方面产生了积极影响。展望未来,62%的受访者对在接下来的一年内AI能继续带来正面影响持乐观态度。 然而,随着AI技术的发展越来越迅速,它也吸引了大量恶意行为者的注意。大约三分之二(63%)的受访人士非常或极其担忧生成式AI可能被用于攻击他们的公司,而71%的人预见到深度伪造(Deepfakes)在接下来的一年里将更加逼真和广泛传播。尽管如此,仅有18%的组织投入资金采购深度伪造检测工具,这一安全缺口显著存在。 生成式AI虽然潜力巨大,但若没有明确的政策和培训来管理风险,它就可能成为企业的潜在负担。为此,ISACA建议企业应制定符合各角色需求的细致指导方针,以帮助其安全地利用AI的技术优势。 此外,随着AI的不断进步,员工也需要不断提升自己的技能并获得新的资格证书。42%的受访者认为,他们需要在未来六个月内加强AI相关技能和知识,以便保有现有职位或推进职业生涯,这一比例较去年增长了8%。绝大多数(89%)的专业人士认为,这将在接下来的两年内成为一个必然趋势。 ISACA首席全球战略官Chris Dimitriadis指出:“欧盟AI法案正在为风险管理和透明度制定新的标准,企业必须加快从认识到行动的步伐。AI威胁,无论是错误信息还是深度伪造,都在迅速发展,但大多数企业仍未投资于相应的工具或培训。缩小这一风险行动差距不仅是为了合规,更是为了保护创新和维护数字经济中的信任。” 本次调查由ISACA在2023年3月28日至4月14日期间进行,共涉及561名欧洲商业和IT专业人士。全球范围内,ISACA共调查了超过3,200名商业和IT专业人士。 ISACA是一家国际知名的信息系统审计和控制协会,拥有超过18.5万名会员,遍布190多个国家,并设有近230个分会。ISACA为会员提供覆盖职业生涯各个阶段的资源,包括免费的内容指南、培训课程和AI审计和安全管理认证等,助力他们在信息安全、治理、认证、风险管理、数据隐私和新技术等领域取得成功。 业内人士认为,ISACA的这份报告再次强调了企业在快速发展的人工智能领域中急需建立和完善相关政策和培训体系。企业如果不及时采取措施,可能会面临重大安全和合规风险,进而影响业务的稳定和发展。ISACA作为一个国际性的专业组织,始终致力于通过教育资源和技术支持帮助会员应对行业挑战,推动行业的健康发展。