人工智能环境下的信息安全问题

人工智能的基本介绍

概念

Artificial Intelligence,AI,它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。

简单的概括可以这么理解:人工智能 = 大数据 + 深度学习;

  • 神经网络

    神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。

    每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。

    网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。

  • 深度学习

    深度学习是指多层神经网络上运用各种机器学习算法解决图像,文本等各种问题的算法集合。深度学习的核心是特征学习,旨在通过分层网络获取分层次的特征信息,从而解决以往需要人工设计特征的重要难题。深度学习是一个框架,包含多个重要算法。

分类

  • 强人工智能

    强人工智能观点认为有可能制造出真正能推理和解决问题的智能机器,并且,这样的机器能将被认为是有知觉的,有自我意识的。强人工智能可以有两类:类人的人工智能,即机器的思考和推理就像人的思维一样。非类人的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式

  • 弱人工智能

    弱人工智能观点认为不可能制造出能真正地推理和解决问题的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。

    弱人工智能智能解决单一场景的问题,不能对多类事情进行联系权衡,不能独立思考。

应用场景

机器视觉,指纹识别,人脸识别,视网膜识别,虹膜识别,掌纹识别,专家系统,自动规划,智能搜索,定理证明,博弈,自动程序设计,智能控制,机器人学,语言和图像理解,遗传编程等。

人工智能环境下存在什么样的信息泄露问题

  • 人工智能环境下侵权主体复杂化

    传统意义上的隐私权侵权主要指熟人之间泄露个人身份信息或其他信息的情况。在互联网出现之前,人与人之间的交流方式较为单调,仅限于电话、电报、书信等。在互联网出现之后,个体之间的交流完全突破时间和地域的限制,信息的来源与传播范围更广,极大拓宽了隐私权侵权主体的范围。自然人中最常见的是“黑客”,即利用公共互联网或电话,未经许可潜入对方系统破坏数据安全或利用网络漏洞获取数据信息的人。

    法人中最常见的就是网络公司或通讯软件服务商。比如,Facebook数据泄露事件中的剑桥分析公司,就是一家专门为政治选举提供数据采集、分析和战略的私营公司,后因Facebook丑闻事件于2018年5月宣布破产。还有一些其他的app如支付宝、微信等为了经济利益而将用户的信息进行倒卖,例如你刚使用过支付宝中的借呗功能或微信的微粒贷进行贷款,不久就会收到各种类似于高利贷的垃圾短信。

    这些都是人工智能发展过程中,数据收集或控制者未经用户授权泄露个人信息的行为。同时,数据从产生到传播,因侵权主体构成的复杂化和潜在化,也让我们无法分辨数据泄露具体发生在哪一环节,无法明确各数据收集和控制者的责任。

  • 人工智能环境下侵权客体的范围更广泛

    传统意义上的隐私权侵权客体范围较窄,主要包括私人空间及信息,如姓名、年龄、籍贯、性别、财产状况、婚姻状况、健康状况等。随着互联网及人工智能的发展,个人信息因财产属性增强,越来越多的内容需要被列入隐私权保护的范围。

    如微信、微博、电子邮箱的地址或密码,其背后的经济利益可能会被网络服务商不正当使用,更甚至被不法分子窃取支付秘密进行违法犯罪活动,侵害公民个人隐私权。

    例如,手机定位功能在帮助我们找到正确路线和方向的同时,也不可避免的在我们移动经过的地方留下痕迹,这些记录可能会被发送给网络服务商,使人们的活动轨迹毫无保留的暴露,服务商可能会利用这些“痕迹“获取商业利益。人工智能环境的背景下,新智能应用的普及拓宽了人们的活动范围,使隐私权客体呈现出多样化的特点。

  • 人工智能环境下侵权方式更技术化、隐蔽化

    人工智能以数据和算法为支撑,在多个领域自我学习,利用分析工具,通过互联网、云技术等开放性新技术跨地域、时空进行传播。人工智能的进步不断挖掘大数据的经济价值,滥用大数据的行为越来越常见。信息传播速度快、网络隐私侵权方式简单、侵权手段技术化、隐蔽化是AI技术下隐私权侵权的新特点。

    大部分用户在使用智能软件时出于信任都会按照要求提供相应的信息,但用户并不知悉自己的个人信息可能被存储或者利用,隐私安全意识不强,无意识导致“泄露”自己的隐私来换取服务,被窃取了个人信息。

    例如,厂商通过搜集用户上网记录或地理位置等隐蔽的手段实施伪造篡改、非法跟踪、窃听截取、人肉搜索等侵权行为,由于互联网环境的复杂性增加了更多的不确定因素,让人们难以判断是否构成了侵权,难以锁定侵权者,增加了用户维权和隐私权保护的难度。

  • 隐私保护的法律体系不完备

    对比英美法系和大陆法系,我国在隐私权保护的法制化进程中,最早是以程序法为主,司法解释和其他法规为补充的方式进行规定的。2009年《侵权责任法》的出台,首次将隐私权作为一项具体人格权纳入民法体系。随着人工智能和互联网的发展,网络隐私权逐渐成为我国隐私保护的重点。

    2016年全国人大常委会颁布了《网络安全法》,2017年《民法总则》再次强调明确将隐私权单独作为一项具体人格利益加以保护。公民个人隐私保护问题不仅纳入民法保护体系中,在刑法、宪法中也有所规定。2009年我国《刑法修正案(七)》确认了非法销售、获取公民个人信息罪,并在之后的《刑法修正案(九)》中对上述两罪加以修订,定义为侵犯公民个人信息罪并适用刑罚。

    尽管当前我国对隐私保护有法律条文的规定,但是与西方国家相比我国并无专门的个人信息保护方面的立法,对隐私权保护尚处于探索阶段,难以应对人工智能环境下的隐私危机。

需要作出什么样的设计(技术、工具等)来阻止

  • 技术角度

    因为人工智能是大数据和深度学习两大类技术的融合,所以很多问题的解决方式跟应对大数据环境下的信息安全问题差不多。

    • 匿名与加密技术

      一是研究分析现有的技术方法在大数据环境下的可行性以及组合使用的可能性;二是研究现有技术方法的完善方案与改进技术。匿名技要既能够保护隐私信息,同时又要保证在挖掘算法中的数据可用性。加密技术主要是用于掌握用户数据的单位将用户数据加密后委托给数据挖掘第三方的情形。目前,全同台价目技术能够对加密的数据在密文状态下任意计算,但现有方案不具有实用性,所以需要进一步研究基于童泰加密技术设计用户信息隐私保护方案。

    • 追踪与删除技术

      当用户或者隐私保护的第三方发现隐私信息被泄露后,相关人员能够对此信息的泄露路径进行追踪,并对隐私信息泄露传播路径中的关键节点或者是数据库进行敏感信息的删除。此项功能既要通过技术手段,还需要相关社会的支持。

    • 统计识别技术

      用户或者是委托的隐私保护第三方通过对大数据环境下的各种信息的扫描与实时统计分析,识别可能的用户信息隐私问题,对具有高概率的用户隐私保护问题提出预警,从而保证相关各方能采取及时有效的防范措施。

  • 管理与法律法规

    • 完善个人信息保护立法体系

      当前国内对个人信息的保护已经进入立法过程,但对于人工智能环境下的隐私权保护尚无具体明确的规定。人工智能快速发展给人们带来便利的同时,也存在泄露个人信息等法律层面的风险。

      参考GDPR法案的做法,我国可以《网络安全法》为基础,补充出台一部数字化背景下适应AI产业发展动向的专门信息保护管理法规,对人工智能环境下的隐私权侵权构成要件、侵权认定标准、侵权赔偿责任等具体内容作出规定,提高人工智能产品侵权法律的可操作性,更好的管制行业发展中的不正规现象,设置禁区强化数据控制者的法律责任,切实落实保护公民的个人隐私。

      完备的法律体系不仅可以预防不法行为的产生,还可以追究不法者的法律责任,救济隐私权受到侵犯的公民。

    • 设立多重机构参与、问责机制,引入隐私设计理论

      法律具有滞后性,单纯的依靠法律进行保护可能无法实时跟踪企业存在的隐私侵权漏洞。参考GDPR法案和国际上隐私保护的通行做法,我国可以设立多方机构共同参与、共同管理、共同保护隐私的行业机制。构建行业内部监管体系,采取多环节相互监督的模式,加强数据安全审计,制定行业内部数据安全标准。

      人工智能环境下的个人信息处于动态开放过程中,企业在加强内部管理的同时,也应当注意合作企业使用数据的合规性。例如,剑桥分析公司盗用Facebook数据的行为,就是Facebook对合作企业合规性管控力不足的表现。

      提高行业自律性,达成隐私保护共识,对人工智能环境下的隐私保护至关重要。根据GDPR法案第25条数据保护设计理论,我国亦可以针对隐私制度进行设计。比如,在企业内部为核心岗位提供必要的隐私保护培训,在人工智能产品生产阶段把隐私保护设为默认运行规则,把隐私保护理念融入产品设计中,定期检查人工智能产品,排查隐私泄露风险;在企业外部,对第三方合作商进行动态管理,如果发现其在数据使用上违反了行业条例或者合作协议,滥用个人信息,鼓励企业向对方提起诉讼,积极联络监管部门,否则该企业可能会承担侵犯隐私权的连带责任。

      另外,行业内部或政府还可以成立信息保护的专门机构,以统一的标准对数据安全进行专业的检测和评估。

      一方面,合格企业可以通过评估结果在合理范围内最大限度使用数据,获取更大的经济效益;另一方面,专门机构可以适时淘汰不符合市场要求的人工智能企业,督促企业自律管理,净化数据发展环境。

    • 丰富用户权利,增强信息处理透明度

      当前我国《网络安全法》中明确规定,企业在收集用户信息时,应当具体披露信息的用途、使用范围、时效等,使用前需要用户明确表示同意。

      但是,当前我国大多数企业在收集信息的过程中,如用户注册某一软件或网站时,厂商虽然会提供使用授权许可书,但隐私条款通常都夹杂在冗长而复杂的协议中,几乎没有用户会认真阅读。

      人工智能服务离不开对用户个人数据的收集和分析,参考GDPR法案把传统的个人信息以外的基因、生物识别及个人健康、政治取向等纳入保护范围的规定,我国可以以立法的方式丰富个人信息的内涵,界定人工智能系统可采集信息的范围,对企业或个人可能侵犯他人隐私的行为加以规制。

      参考GDPR法案对用户个人所设置的访问权、被遗忘权等,我国可以赋予用户数据权利明确隐私权保护的内容,以意思自治为原则保障用户知情权,对自动化设置进行限制,减少数据主体的被动性。

      在AI系统的设计环节充分考虑可能泄露的敏感信息,设置用户有权不受自动化决策的制约,禁止自动化处理,增强信息处理的透明度;拓展用户对个人信息的控制力,有权要求厂商删除其个人信息或擦除历史记录等。

  • 个人角度

    人工智能时代,除了完善隐私保护的法律、加强行业自律管理之外,作为数据信息的提供者,我们也应当培养法治意识,积极学习互联网安全知识,养成良好的上网习惯,加强个人隐私安全保护能力。

    当我们在使用软件之前,需要认真阅读隐私条款再决定是否接受,而不是直接勾选“同意”陷入可能泄露自己隐私的风险中;在公共网络环境下,警惕可能入侵自己手机或者电脑的黑客,安装杀毒软件或防火墙,完善电子设备的防御系统;及时清除浏览器历史记录,重要资料离线缓存,充分保护好自己的隐私。

    对于敏感大数据的泄露,我们应当学会用法律武器维护自己的权益,而不是采取放任态度。

Last modification:October 9th, 2019 at 05:30 pm

Leave a Comment