“AI时代我们不仅需要面对来自传统安全领域顽疾的集中爆发,还需积极应对AI本身出现的安全性问题。”近日,在“天府杯”2020国际网络安全大赛暨2020天府国际网络安全高峰论坛上,百度副总裁马杰表示,网络安全人的责任在于,通过长期的研究与实践,能够跑到这些威胁造成重大危害之前。
据报道,在今年9月举行的百度世界大会上,由Security、Safety和Privacy出发,马杰首次对外揭示了百度在AI安全领域探索与实践的三大全新维度。而它们也分别指向了强对抗环境下的安全威胁、非对抗条件下自然环境所产生的真实威胁及数据安全与隐私保护三大AI安全研究方向,并围绕算力、算法和数据,覆盖云、管、端等各个阶段。对于当前的AI安全研究来说,其不仅将为AI模型鲁棒性、AI模型保护及数据采集、处理、流通和可信计算等领域的安全技术应用提供深具前瞻性的思考角度,也将为行业企业开发更具专业性的AI安全解决方案带来方向性的规划指引。
事实上,以AI安全三大维度为基础,百度的AI安全能力已经投入到了包括AI模型鲁棒性体系化评估、AI模型安全加固、全网恶意网页监测、内容安全生态治理及全数据生命周期安全防护在内的一系列“实战”之中。而作为百度大脑的核心架构组成,上述AI安全能力也已完成了对百度整个AI技术研发流程的全面覆盖,并为百度智能云构建智能一体化的云上安全体系提供支撑。
会上,百度安全部产品负责人韩祖利介绍了百度在数据安全与隐私保护方面的实践——以隐私合规检测、差分隐私、AI自动脱敏、联邦计算、可信计算等技术为代表,百度将AI安全能力贯穿于采集、处理、流通、计算等整个数据生命周期,在更好地保护企业机密和个人隐私的同时,也为百亿级大规模数据的安全联合计算创造了可能。进一步释放数据价值,扩大AI时代大规模数据协作的信任边界。
而在保障数据安全的基础之上,软硬一体化趋势下AI系统的安全问题同样不可忽视。以分布式智能系统的安全性为核心,杨珉教授在演讲中探讨了开放网络中分布式学习系统内的“拜占庭攻防”问题,并通过GAA、即基于梯度聚合代理的鲁棒分布式学习,强化学习调整评估策略,为有效防御这类攻击提供了应对方案。
最后,百度方面表示,未来将继续携手各界合作伙伴,以开放的代码和开放的技术推动AI安全开放生态的建设。
文章来源:网络