站内搜索

人工智能时代的隐私危机及隐私保护

  人工智能具有巨大的社会价值,但也会提出一系列的法律挑战。其中,人工智能引发的隐私保护问题尤为显著,已经成为当前最具挑战性的话题。在人工智能时代,我们每个人都生活在数据与算法之中,享受着人工智能给我们带来的智能服务。然而,人工智能在为人们提供极大便利的同时,也引发了严重的隐私危机。为此,本文将重点探讨人工智能时代的隐私危机,分析现有隐私法律保护路径的应对及不足,提出可能的解决策略,以期为我国人工智能的法律规制提供一些借鉴。

一、人工智能时代的隐私危机

  人工智能的核心技术是数据与算法,这意味着人工智能越智能,就越需要海量的个人信息作为支撑,同时也意味着处理个人信息的能力也就越强,由此引发严重的隐私危机。

  第一,人工智能增强了对隐私的直接监控(direct surveillance)能力。近年来,各式各样带有传感器和处理器的人工智能产品不断涌入人们的学习、工作和生活中,极大地增强了对隐私的直接监控能力。例如,当你在自家大院载歌载舞时,有人可能正在通过无人机监视着你的一举一动;当你和朋友家人私下开怀畅聊时,安装语音识别技术的智能助手正在记录着你们所说的每一个字。而借助图像识别技术,无处不在的数字摄像头就像安装了大脑的眼睛一样,可以精准地从人群中自动识别人脸,锁定监控对象,甚至预测和判断人的行为。与此同时,除了物理空间之外,人工智能技术也极大增强了对网络空间的直接监控能力,人们利用网络搜索过什么,购买过什么,观看过哪些视频,与哪些人聊过天、甚至聊天的内容等无不处于监控之下。

  第二,人工智能带来了更多的隐私获取性。各种新型人工智能产品层出不穷,使得原本私密的空间和信息不断受到侵蚀。例如,自动驾驶技术使得汽车这一原本较为私密的空间成为了数据收集空间,人们在车内的一举一动都将被记录在线,以往私密的出行信息也将被全面获取。同样,在可预见的未来,机器人医生、机器人伴侣、机器人宠物等人工智能产品将走进千家万户,成为我们家庭生活的重要组成部分,在提供极大便利的同时,也将给获取隐私带来了更多新的获取点。透过这些人工智能产品,政府、企业、私人和黑客获得了一个可以直接窥探我们生活隐私的绝佳机会,摄像头、传感器、收音器等记录着我们的一言一行,原本私密的生活空间变得不再私密,各种隐私信息也将被悉数收集。显然,这种入侵隐私的方式是十分危险的,因为访问的对象不再是文件和文件夹,而是我们的房间和身体。

  第三,人工智能具有超强的“画像识别”能力。借助物联网、大数据等技术,人工智能的数据整合和分析能力得到极大的增强,能够轻易地描绘出用户的完整“画像”。例如,当你用谷歌搜索本地的塔吉特商场,驱车前往以现金方式购买一台游戏机,然后在回家的路上用万事达信用卡为车加满了油。对此,三个独立的公司分别获取了上述三种信息:谷歌公司只知道你搜索了塔吉特商场,但不知道你是否去过那里或者购买了什么商品;塔吉特商场只知道你购买了一台游戏机,但并不知道你是如何找到这家店的;而万事达公司知道你用信用卡加了油,但并不知道你做的其他两件事。然而,如果你有一台谷歌自动驾驶汽车的话,那么一切将变得简单,谷歌公司将知道你搜索了塔吉特商场,知道你前往这家商场购买了一台游戏机,还知道你在回家的路上去了加油站。通过自动驾驶汽车,谷歌公司将你所有的行动串联起来,并可能在未来利用它们向你推销产品。这种超强的数据整合和分析能力,意味着人工智能能够轻易地取得用户的完整“画像”,潜藏着极大的隐私风险。

  第四,人工智能本身将成为隐私信息的载体。人工智能的社交性质可能会产生一种新的高度敏感的隐私信息,被称之为“设置隐私(setting privacy)”。{具言之,在可预见的未来社会,社交型机器人将会在人们的生活中扮演重要角色,为人们提供陪伴、聊天、学习、看护甚至性爱等服务。这些社交型机器人具有高度智能的交互能力,它们似乎处于人与物的中间地带,用户可以通过编程对其进行精巧地操纵和控制,使其不仅能够在特定时间内运行或完成特定任务,还能够将自己的特殊个性或喜好编入程序之中,以便更加贴合自己的需求。随着与可编程的社交型机器人交互的不断深入,人们将逐渐展现其最为私密的心理属性(psychological attributes)。通过机器人的传感设备和系统代码,人们使用机器人的方式将被悉数记录下来。此时,这些人工智能的设置信息将变得无比重要,因为它们负载着人们的隐私,透露着人们在机器人身上设置了哪些“陪伴程序”。对此,读取人们是如何编程以及与机器人交互的设置信息,就像读取人们与一个心理学家的谈话一样,相关的隐私将一览无遗。故此,人工智能的设置信息将会变得越来越重要。

  第五,人工智能的算法并不完美。如果说数据是人工智能的基础,那么算法就是人工智能的本质。正是算法的不断突破,人工智能才得以像人一样智能,才能独立于人类的干预实现自动化决策,为人们提供极大的便利。然而,人工智能的自动化决策并非完美无缺。一方面,算法可能导致偏见或歧视。人工智能想要实现自动化决策就需要数据的喂养,如果数据本身存在偏见或歧视,那么自动化决策自然也会充满偏见或歧视。例如,2016年举行的首届“人工智能国际选美比赛”,由于训练人工智能的照片没有包含足够多的非白人面孔,结果导致绝大多数获奖者都是白人选手。另一方面,算法存在“黑箱”问题。尽管人工智能可以做出很多复杂的决定,但开发人员却很难识别或解释其决策背后的逻辑原理,在其输入层与输出层之间存在所谓的“黑箱”。人工智能自动化决策的歧视和不透明问题,对于隐私保护提出了更加复杂的挑战。

  第六,人工智能侵害隐私的行为具有迷惑性。相较于其他形式的隐私入侵科技,由于人工智能的外形、声音、思维等与人类相仿,因而人们更加愿意接受它们。例如,具备人形外表的社交型机器人常常被用于照顾老人和残疾人,或者被用来解决自闭症等儿童问题。然而,随着人工智能越来越像人类,人们也会越来越将它们视为准人类或克隆人,而非单纯的工具,这使得它们的隐私入侵行为更具迷惑性。例如,人们更加愿意与聊天机器人互诉衷肠,向机器人医生袒露病情,因为它们看上去是那么的值得信任,以至于人们根本不会察觉它们潜在的隐私风险。对此,福格教授曾经深入分析过这种极具迷惑性科技的危险,一方面,它们具有善良可爱的外表和忠诚可靠的良好口碑,这使得它们极易获得人们的信任,隐藏潜在的危险意图;另一方面,它们又极具智慧属性,能够预测人们的情绪和行为,迎合人们的心理需求。可以预见的是,面对越来越类人化的人工智能,人们将会更加愿意与它们分享私人生活中的点滴,由此加剧隐私风险。

  第七,人工智能侵害隐私的后果非常严重。首先,人工智能会减少人们独处的机会。关于隐私的基本价值已经有很多的讨论,其中一个反复出现的主题就是隐私有助于创造和保护人们独处的时间和空间。例如,美国隐私权先驱萨缪尔·沃伦(Samuel Warren)和路易斯·布兰迪斯(Louis Brandeis)就在其名作《隐私权》一文中提出,隐私权是人们享受独处的权利(right to be alone)。汉娜·阿伦特(Hannah Arendt)教授也曾经说道,“完全在公共场合以及他人面前度过的生活是‘肤浅的’”。然而,随着人工智能越来越多地参与人们的生活,占据那些本该私密的时间和空间,人们独处的机会将会越来越少。其次,人工智能会造成信息茧房(Information Cocoons)。信息茧房一词由凯斯·桑斯坦(Cass R. Sunstein)教授提出,主要指人们总是关注自己喜好的东西或接受让自己愉悦的资讯,久而久之就将自己置于“信息茧房”之中。当前,各种人工智能应用都在利用算法推送用户感兴趣的新闻、视频、商品等,人们可以轻易过滤掉自己不熟悉、不认同的信息,只看我们想看的,只听我们想听的,最终在不断重复和自我证成中强化了固有偏见和喜好。而一旦身处这样的“信息茧房”,人们就再难接受异质化的信息和不同的观点,甚至在不同群体、代际间竖起阻碍沟通的高墙。最后,人工智能可能会造成物质性损害。与一般的信息科技不同,人工智能侵害隐私不仅会造成严重的精神痛苦,同时由于人工智能具备与现实世界进行物理性交互的能力,进而还可能给人们造成严重的人身和财产损害。实践中,诸如自动驾驶汽车等人工智能产品引发的各种伤亡事故已经屡见不鲜。

二、传统隐私保护法律的应对及其新发展

(一)传统隐私保护法律的应对

  通说认为,隐私权的概念起源于美国。1890年,沃伦和布兰迪斯发表了《论隐私权》一文,首次提出了隐私权的概念。此后,隐私权在美国获得了长足的发展,隐私权的内涵也不断丰富起来。起初,隐私权主要被视为是一种“个人独处的权利”,用来保护个体私人生活的安宁,表现为空间隐私(accessibility privacy)。随后,为保护隐私不受来自公权力的侵害,隐私权被上升为宪法层面的基本权利,与个人自由联系在一起,自决隐私(decisional privacy)逐渐纳入隐私权的范畴。与此同时,随着上个世纪60年代互联网技术的发展,通过侵害个人信息来侵害隐私的现象急剧增加,信息隐私(informational privacy)成为了隐私保护的重头戏。至此,美国逐渐形成了“大隐私权”的保护模式,即通过不断丰富隐私权的法律保护体系来应对网络时代的个人信息保护问题。与之相对的是,历史上欧盟各国对于隐私的保护主要通过具体人格权或一般人格权的方式来进行。面对互联网技术提出的挑战,欧盟逐渐形成了“大个人信息”的保护模式,即通过专门的个人信息保护法来应对网络时代的隐私保护问题。虽然欧美各自应对网络时代隐私保护的法律路径不同,但总体上是殊途同归的,即都将个人信息的保护作为过去三十年隐私保护最为重要的方向。对此,欧美主要是通过践行“公平信息实践原则(Fair Information Pratice Principles)”来保护网络时代的用户隐私。在此基础上,以1980年经济合作与发展组织的“OECD指南”、1995年欧盟《数据保护指令》为代表,构成了全球第一代个人信息保护法律框架。归纳来说,第一代个人信息保护法律框架有以下特点:其一,以“信息自决权(informational self-determination)”为理论基础,强调用户对个人信息享有自主决定权。其二,以“用户控制(consumer control)”为制度核心,重视“通知与同意”机制的运用,要求个人信息的处理必须征得用户的同意。其三,企业、政府机构等组织被设定为数据控制者,承担各项保护职责。(文/西南政法大学 郑志峰)

………………

  人工智能时代的隐私保护 PDF 完整版下载(文字可复制):

https://www.aliyundrive.com/s/5Ra19iSphc9 提取码: 61lf
  • 夏日博客 说:

    人工智能很难保护隐私。

    2022-12-18 14:13:10 Google Chrome 86 Windows 10回复
  • enverahep 说:

    priligy at walgreens They put me on medication for it

    2024-11-11 06:39:02 Google Chrome 124 Windows 10回复
  • can i order cytotec without prescription 说:

    Toan Nguyen reviewed some of the ethical, legal and technical considerations to protect patient confidentiality and privacy order generic cytotec without a prescription

    2024-12-9 06:00:03 Google Chrome 124 Windows 10回复
  • hydrochlorothiazide12.5 compared to furosemide 说:

    Overall, we found that both the use of CAM products and visits to CAM practitioners by women diagnosed with breast cancer significantly increased from 1998 to 2005 buy generic lasix online During the past decade, a large amount of the research effort within the field of oncology has been devoted to the development and use of targeted therapy

    2025-1-18 10:22:25 Google Chrome 130 Windows 10回复
    Copyright © XiakeShu.com 版权所有 | 备案号:浙ICP备11004787号-12