人工智能安全风险有哪些?

环球青藤 2020/07/30 07:47

框架的安全风险

近年来,著名的深度学习框架TensorFlow和Caffe及其依赖库多次被发现存在安全漏洞,被攻击者利用,导致系统安全问题。以生成模型[3]为例。原始工作原理是:将输入X映射到低维表示的Z编码器,再映射回高维重构的X解码器,表示如下图所示:

如果输入是7,攻击后的输出可能是8。如图所示:

此外,人工智能可以用来编写计算机病毒和木马。原始的恶意脚本是手动编写的。人工智能技术可以通过插入拮抗样本[4],绕过安全检测,实现这些过程的自动化。同样,人工智能技术也可以自动生成智能僵尸网络[5],它可以在不等待僵尸网络控制命令的情况下对其他系统进行大规模、自动的攻击,大大提高了网络攻击的破坏程度。(页面)

数据安全风险

攻击者可以通过网络的内部参数得到网络训练的数据集。人工智能技术还将增强数据挖掘能力,提高隐私泄露风险,比如2018年3月的Facebook数据泄露事件。

算法的安全风险

深度学习网络目标函数的定义不准确、不合理或不正确,可能会导致错误甚至有害的结果。错误的目标函数、代价过高的目标函数以及表达能力有限的网络都可能导致网络产生错误的结果。例如,2018年3月,一辆优步自动驾驶汽车发生事故,机器人视觉系统未能及时识别突然出现在道路上的行人,导致行人发生碰撞并死亡。算法的偏差和人工智能的不可解释性也是主要问题。在美国,人工智能算法被用来预测罪犯,一些列表显示许多无辜的人受到了伤害,其中大部分是黑人,甚至系统的开发者也没有合理的解释这个决定。拮抗样本的存在也会导致算法的误判。通过给下面的图片添加一点噪声,人工智能将很有信心地确认熊猫是长臂猿。

信息安全风险

有了足够的训练数据,人工智能可以产生用于非法活动的虚假信息。比如人工智能面部修饰DeepFakes,以及最近推出的DeepNude。一些罪犯使用假声音和假视频进行诈骗。现在谷歌已经发明了一种聊天机器人,它可以完全愚弄人们在电话上聊天。

以上就是《人工智能安全风险有哪些?安全在这个行业竟然这么重要》,在分析之前,让我们先简单介绍一下人工智能的应用。人工智能由于其在数据分析、知识提取和自主学习方面的突出优势,如果你想知道更多的人工智能安全的发展,可以点击本站的其他文章进行学习。

免费直播

    精选课程 更多

    注册电脑版

    版权所有 2003-2020 广州环球青藤科技发展有限公司