人民网北京9月6日电 (记者 李欣怡)9月6日,电气与电子工程师协会(IEEE)年度媒体交流会在京举行。会上,IEEE高级会员、中科院自动化研究所副研究员、中国人工智能学会理事董晶博士分享了智能图像识别技术的发展趋势,以及如何通过AI技术遏制图像内容篡改问题。
AI图像识别带来隐私风险
近期,换脸APP“ZAO”引起热议。用户只需上传照片,就能在人工智能技术的帮助下,不费吹灰之力地与明星“换脸”,参演影视剧。
“ZAO”背后的技术逻辑实际是智能图像识别技术进一步参与内容生产。近年来,以AI技术为基础的图像识别技术取得不小进展,以此为基础衍生出图像及视频内容的替换、篡改问题,带来不小隐私风险。
前不久召开的世界人工智能大会(WAIC)上发布了《人工智能时代数字内容治理机遇与挑战》报告,指出如今数字内容深度伪造正威胁社会稳定。董晶博士认为:“在信息爆炸的AI大数据时代,由于数据的易篡改和易伪造性,大量的虚假信息正严重误导着大众的视听。在5G到来之际,这一缺陷将被进一步放大。”
在AI技术的“加持”下,伪造的视频、图片仿真度极高,普通人几乎无法单靠肉眼分辨真伪。据董晶介绍,目前AI换脸的技术框架大部分基于“Deepfakes”平台。“Deepfakes”的核心技术是生成式对抗网络(GAN)框架,该框架有两个模块,一个负责生成伪图,另一个负责鉴别生成图片的质量,通过对抗博弈的方式不断进化,达到以假乱真的水平。
将智能图像识别技术应用于面部识别也是近年来的发展趋势,由此衍生的“刷脸解锁”等功能为民众生活带来诸多便利。然而,这种识别技术并非全无风险。“识别技术利用了生物信息,而生物信息本身具有不可撤销性。一旦被泄露或被滥用,会给用户带来严峻且永久的后果,甚至会对司法调查、保险鉴定等这些严肃、敏感的地带造成严重冲击。”董晶介绍。
图1:IEEE高级会员董晶博士分享科技洞察
持续升级,攻坚信息安全难关
解铃还须系铃人,应对基于AI技术的图像篡改,可以通过反向利用AI技术,从伪造图片的蛛丝马迹中辨别真伪信息。据董晶博士介绍,这一流程首先需要确定人类视觉系统和计算机视觉系统在识别特定信息的认知特性、机理与计算方法,进而从人类视觉系统与计算机视觉系统的认知差异性出发,通过借鉴两类视觉系统间认知及计算的差异性和关联性来鉴别图像真伪。
AI技术的鉴别技术不止于静态图片,也包括视频。目前,董晶博士还在研究通过利用AI从视频中远程读取心率、呼吸频率等生理特征,进而辨别视频中的人脸是否被替换。在AI的帮助下,原本肉眼无法看到的心跳、脉搏、呼吸率,能以数据的形式具象化,突破人眼视觉的盲区,从而达到深度鉴别的目的。
然而,要真正借助AI技术保障信息安全,反将恶意篡改图片及视频一军,还需要翻越伪造特征这座高山。伪造特征作为一种“微弱信号”,很多时候不易被察觉。同时,由于伪造特征长期处于不断变化当中,没有统一的模型,为微弱信号的捕捉与识别工作增加了难度。
对此,董晶博士表示:“有效利用人类与计算机二者视觉系统认知的差异性及关联性关键难点在于伪造特征的获取与表达。” 真伪鉴定技术的可靠性很大程度上取决于有效的检测与识别。要解决这一问题,应及时布局防御技术与人才队伍建设,促进科研成果与数据库对学术界开源。
图2:媒体体验AI心率检测技术
作为全球最大的专业技术组织,IEEE对人工智能领域的探索从未停歇。今年,IEEE通过主办国际计算机视觉与模式识别会议(CVPR 2019)、人工智能国际联合大会(IJCAI 2019)等多个重要学术会议,为全球研究人员、工程师、学者提供了交流研讨AI领域前沿技术的机会,建设了更开放有利的科研环境,并致力于促进信息安全、医疗管理、自动驾驶等问题的解决。
图3:IEEE亚洲区高级总监华宁与媒体交流
IEEE亚洲区高级总监华宁表示:“IEEE一直致力于推动科技创新,通过不断推动前沿技术的发展与应用,造福人们生活的方方面面。信息安全问题也正是IEEE关注的重点之一,未来,IEEE还将继续推动计算机视觉、模式识别、深度学习等前沿技术的革新,让信息传播更加真实可信、保护人们的隐私安全,造福人类社会。”
文章来源:人民网