本站点使用cookies,继续浏览表示您同意我们使用cookies。Cookies和隐私政策>

华为AI安全白皮书(2018年10月)

近年来随着海量数据的积累、计算能力的发展、机器学习方法与系统的持续创新与演进,诸如图像识别、语音识别、自然语言翻译等人工智能技术得到普及和广泛应用,人工智能正朝着历史性的时刻迈进。而业务引入AI使得AI本身的安全性变得前所未有的重要,并超乎我们传统对于安全边界与框架的认知范畴。

目前AI系统隐含各种安全风险。例如攻击者通过在语音控制命令中加入少量噪音,使智能家居设备调用恶意应用;或者在交通指示牌上贴上一些小标记,使自动驾驶车辆的判断错误。这种安全风险存在的根本原因是AI算法设计之初普遍未考虑相关的安全威胁,使得AI算法的判断结果容易被恶意攻击者影响,导致AI系统判断失准。在工业、医疗、交通、监控等关键领域,安全危害尤为巨大:如果AI系统被恶意攻击,轻则造成财产损失,重则威胁人身安全。

人工智能应用的大规模普及和发展离不开高安全性保证。本白皮书主要目的是探讨AI自身的安全挑战与安全防护技术。我们首先关注两大类AI安全攻防问题:第一类是攻击者影响AI决策的正确性:攻击者可以通过破坏和控制AI系统本身,或者通过特意改变输入来使系统不知不觉地做出攻击者想要的决定;第二类是攻击者获取AI系统训练的保密数据,或者破解AI模型。为了应对这些AI安全的新挑战,本白皮书提出了将AI系统部署到业务场景中所需要的三个层次的防御手段:

此外,AI的透明性和可解释性也是安全的基础,一个不透明和无法解释的人工智能无法承担起涉及人身安全及公共安全的关键任务。本白皮书提出通过多层次的纵深防御技术,确保在不同的业务场景下AI模型和数据的完整性与保密性,提供一个令用户放心的AI应用安全环境。

以“万物感知、万物互联、万物智能”为特征的智能社会即将到来,华为愿与全球的客户和伙伴们共同努力携手并进,共同面对AI安全挑战。

华为AI安全白皮书 (PDF 4.88MB)

相关推荐

查看全部