事实证明,信息安全挑战是人工智能生态系统的巨大障碍。相反,AI引起了CISO的头痛。这就是为什么。
信息安全就是保持组织信息安全并维护其完整性。不久前,所有这些意味着在门上的好锁,无论是物理还是虚拟的。
这种哲学的第一个挑战始于2000年代的软件即服务(SaaS),当时供应商要求公司将数据自愿提供给共享服务器。信息安全行业以更强大的加密和合同作为回应。企业通过简单地拒绝让数据离开其防火墙来添加另一层。他们要求本地部署和私有云。这是数十年来未解决的辩论的起源……而且还在不断增加!
今天,在过去的三到五年中,人工智能(AI)的出现已使双方的论点变得更加复杂,给信息安全带来了全新的挑战。相反,信息安全已成为AI自身发展的一大挑战。
不再牵手
CISO对AI威胁的大多数方面都做出了敏捷的反应。例如,做好AI意味着要依靠功能即服务(FaaS)的构造。FaaS也称为无服务器计算,使用户可以启动程序而不必担心硬件需求或分发。尽管这对于训练AI模型非常有用,但是FaaS的配置仅在大规模上具有经济意义。换句话说,人工智能自然会请求向公共云迁移,这很好–离开场所的数据可能会引起很多麻烦,但这并不一定意味着数据不安全。由于实际上没有办法解决,因此CISO已加紧处理。但是,有关此数据在防火墙外部发生的情况仍令人担忧。
AI在类似情况下可以从多个客户那里学习最佳数据。许多供应商都试图摆脱模型级别的混合。例如,IBM在其网站上保证了有关数据隐私的信息,但它没有提及许多Watson产品都具有一个基本的AI模型。来自每个客户的数据,虽然分别保护安全,但可用于训练该单一模型。
这种方法中比较容易解决的问题是准确地找出这些模型所保留的哪些可能有价值。例如,考虑来自Google的流行的开源模型Word2Vec。它将语料库中的每个单词转换为400到1,000维的向量(400或1,000个数字的数组)。向量中的权重本身并不意味着什么。但是,Google本身推广了此技巧,以演示Word2Vec的功能:如果将国王,男人和女人的矢量作为矢量,并执行[King] – [Man] + [Woman]等操作,则将获得[Queen]的矢量]。虽然这听起来对普通英语来说太美妙了,但这种关系可能会给企业带来竞争见解的风险。也许我们只想隐藏女王的身份。
公平地说,在大多数情况下,很难从训练有素的模型中逆转工程师的见解。尽管如此,这并非没有可能。CISO不断要求提高透明度以应对这一问题。
真正的未满足挑战:确定性行为
较难的问题具有完全不同的性质。让我们进行思想实验。假设CISO对供应商的安全协议及其模型的完整性充满信心。CISO允许它处理公司的数据,结果开始流传。假设2 + 2 = 5,这通常是可以接受的。公司围绕此设计系统;也许下游过程会将结果偏移-1。大多数人会说AI已交付。
文章来源:文财网