设为首页 加入收藏

TOP

【2022.06】人工智能如何向善:基于技术威胁与国家责任的思考
2023-04-12 09:13:19 来源: 作者:梅立润 【 】 浏览:5883次 评论:0

【摘要】人工智能威胁论近年来广泛传播,引发了不同程度的社会忧虑,对于以增进民众福祉为核心使命的国家来说,寻找消解人工智能威胁的方案以安抚民众忧虑是其不可推卸的责任;备受关注的人工智能威胁类型主要是“机器换人”引发的失业威胁、“围猎数据”引发的隐私威胁、“锁定效应”引发的意义威胁。失业威胁引发的社会忧虑需要国家展开“摸底行动”和“兜底行动”予以安抚;隐私威胁引发的社会忧虑需要国家通过“立法保护”和“专项治理”予以安抚;意义威胁引发的社会忧虑需要国家鼓励“逆向推荐”和“技术预报”予以安抚。

【关键词】人工智能;技术威胁;国家责任;技术向善


人类社会发展的漫长进程中充满了技术的身影,而技术的魅力与技术的邪恶总是交织着出现。任何技术都具有双重面相,技术的双重面相使得人们对待技术的态度经常在两种风格之间来回切换,时而拥抱欢迎,时而忧虑抗拒。人工智能也不例外。阿尔法狗在围棋人机大战中获胜之初,全球社会的主流态度是将人工智能视为增加人类福祉的“善的技术”,是人类社会未来发展的希望,主张开放式地拥抱人工智能,而随着各种带有现实映照与想象成分的人工智能威胁论的广泛传播,人们又感到人工智能的威胁无处不在,逐渐意识到人工智能可能成为“恶的技术”,开始产生忧虑心理。对于以增进民众福祉为核心使命的国家来说,寻找消解人工智能威胁的方案以安抚民众的忧虑便成为不可推卸的新兴责任。

一、从期待到忧虑:人工智能威胁论的兴起

20世纪50年代人工智能概念被提出以及一些人工智能应用相继问世以来,关于人工智能发展的技术乐观主义观点与技术悲观主义观点就一直相伴而生,不过技术乐观主义观点总体上占据着主流和上风。阿尔法狗在围棋人机大战中获胜之后,人们对人工智能更是充满了想象和期待,认为人工智能可以帮助人类解决许多过去想解决而没有解决的难题,可以将人类从许多繁杂琐碎的事务中解脱出来,人工智能一度被视为人类走向美好生活的技术跳板。而人工智能相关专项政策的密集出台,新创人工智能企业的不断出现,人工智能领域投资的持续火热以及人工智能应用场景的日益丰富,充分展现了人工智能的光明面和机遇面。得益于此,人们也更偏向于以乐观的预设、积极的态度拥抱人工智能,而不是抵制或反感它。

不过新近显现的一个迹象是,“从狂热追捧到反思人工智能可能带来的隐忧,人们对于人工智能的态度趋于理性”。欧洲政治战略中心2018年3月发布的一份聚焦于人工智能时代欧洲发展战略的报告就指出,欧盟应该确立以人为本的人工智能发展战略,把政策目标设定为使人们感到被人工智能赋能而非被其威胁,这间接表明,人工智能威胁已经广受关注。实际上,早在2014年10月,特斯拉CEO埃隆·马斯克就曾指出:“我们对人工智能应该非常谨慎。如果非要我猜什么会对我们的生存造成最大威胁,那大概就是它了”。此后不久,埃隆·马斯克还联合斯蒂芬·霍金、苹果合伙创始人史蒂夫·沃兹尼亚克等在内的一群科学家和企业家签发了一封公开信,信中指出了人工智能的诸多潜在威胁,呼吁人们关注人工智能的安全性。而在2015年牛津大学人类未来研究所和全球挑战基金会发布的首份科学评估人类未来风险的报告中,人工智能更是以0-10%的可能性排在了最有可能毁灭人类文明的12大风险中的第一位。加之近年就业市场上“机器换人”步骤的加快、无人驾驶事故的时常发生、算法偏差与算法作恶现象频出,一些科学家或名人在不同场合多次提及要“小心”人工智能和关注人工智能的威胁,而且在媒体的夸大式渲染与宣传下,这些事例、现象和论调快速散播到社会层面。由此,人工智能威胁论得到广泛传播,并引起了不小范围与程度的社会忧虑。

相比于早前对人工智能发展的满怀期待,忧虑心理的出现表明人们对人工智能的认知变得更为均衡和审慎,这实际上对人工智能自身的发展和人类社会利用人工智能提升生活美好度都是有利的。意识到人工智能的威胁固然重要,不过更为重要的是挖掘或预判具体的威胁类型以及由其引发的连带性社会心理变化。问题在于,虽然人们已经开始关注人工智能的威胁,但是对于人工智能到底存在什么样的威胁却存在差异化认知,由此产生人工智能威胁话语的失序以及社会忧虑的飘忽不定。总而言之,在众多人工智能威胁类型里面,失业威胁、隐私威胁以及意义威胁相对更受关注。

二、岗位会被替代吗:“机器换人”引发失业威胁

就业是社会个体生存与发展的根本,在以人工智能为核心标识的第四次工业革命到来之前,人类社会已经经历了三次工业革命,积聚了不少关于技术变革如何影响就业的思考,总的来说可以划分为两种类型,即替代效应和补偿效应。而关于以人工智能为核心标识的第四次工业革命对就业的影响,也是两种观点并存。

一种观点认为,随着人工智能的不断发展升级与应用范围的扩大,短期内最直接的连带效应就是一股失业潮将席卷全球。据麦肯锡全球研究院的研究,2016-2030年,约有15%的全球劳动力可以被人工智能取代;世界经济论坛在2016年发布的报告中也曾预测,受人工智能等新技术崛起的影响,全球15个主要国家在未来5年内将有超过710万个工作岗位消失;还有研究基于对人工智能技术属性的评估和详细调研,分析了702种职业被计算机取代的可能性,认为未来被计算机取代概率达到90%及以上的工作种类有171种,概率达到80%-89%的有93种、达到70%-79%的有56种、达到60%-69%的有52种、达到50%-59%的有32种;在中国,“机器换人”的浪潮早已兴起,多个省市制定了专门的推进“机器换人”的实施方案。另一种观点认为,人工智能发展与应用对就业的影响呈现出微观层面影响明显、宏观层面影响不大的特点。根据前几次工业革命的经验,每一次技术变革虽然都造成了一定规模的失业,但技术进步最终创造出来的就业岗位都超过了被取代的就业岗位,因此并不需要过分为人工智能带来的失业潮感到恐惧或担忧。中国国家工业信息安全发展研究中心发布的人工智能发展报告就指出,“人工智能的迅速普及并不会导致大规模失业。这是因为人们向新兴的职业或领域转移,因此人工智能反而有可能创造出更多的创造性工作岗位”;硅谷人工智能研究所创始人皮埃罗·斯加鲁菲也认为,“机器人社会将创造今天我们甚至无法想象的新的就业机会”。

问题在于,人工智能的替代效应比以往任何技术进步的影响都要明显,这次技术革命所造成的失业问题与前几次有明显区别,技术进步所创造出来的新就业岗位可以弥补其造成的失业冲击这一历史经验在此轮人工智能技术革命中可能失效。即使和前几次工业革命一样,人工智能时代会出现新的工作岗位,可这并不意味着消失多少工作岗位就会出现多少新的工作岗位,也不意味着失业的人群都可以得到新的工作或胜任新的岗位,毕竟人工智能时代的工作对解决复杂问题的能力和系统性技能的需求会远远高于对身体能力和一般性技能的需求,部分行业以及大多数职业的技能需求会发生巨大的变化。因此,即便就业补偿效应会逐渐缓解就业替代效应造成的失业率上升问题,失业率在一定时期与领域内还是会有所提高。相比于人工智能的发展与应用可能创造出来的新就业机会,社会民众对被人工智能替代或对失业冲击的体会更为直接和实在。且不同于以往的技术革命所造成的失业冲击,人工智能的发展与应用所造成的失业冲击的波及范围更广,不仅波及到许多劳动密集型行业、简单技能需求行业或“蓝领阶层”,也波及到一些复杂技能需求行业或“白领阶层”。有人认为,“如果不得不选择一个最受自动化影响的职业,那就是众所周知的‘中层管理者’……原因很明显:中层管理者的工作职责的确很复杂,但却极其常规……一旦企业软件系统收集到足够的重大数据,数据间又相互关联完全可操作,白领管理工作中的中间层级就会被淘汰”。另外,人工智能的发展与应用所造成的失业冲击不仅波及到“体制外”的人,也可能波及到“体制内”的人。

总而言之,人工智能时代的到来会掀起一股“机器换人”浪潮,受此影响,不仅“蓝领阶层”、“体制外”的人的职业安全感会骤降或者失业威胁会加剧,“白领阶层”、“体制内”的人的职业安全感也会恶化或者失业威胁也会加剧,整个社会都被笼罩在一种隐隐约约、时浓时淡的失业威胁与忧虑氛围之中。

三、个体存在隐私吗:“围猎数据”引发隐私威胁

数据是人工智能的基础,被称为“未来的石油”。正是因为“数据即石油”,谁掌握更多的数据,谁就可能在人工智能竞争中处于优势地位,甚至有可能因此而获得更多的技术型权力以及其他各种直接或间接的利益,故而许多人工智能企业便想方设法去获取更多更有质量的数据。在这个过程中,与社会个体相关的各种数据往往成为被瞄准甚至可以说成为被“围猎”的对象。

随着人工智能的不断发展以及各种智能设备在工作与生活中的广泛应用,“人人互联”、“物物互联”、“人物互联”成为日常图景,社会个体无时无刻不在产生数据,诸如个人的身份信息类数据、社交互动类数据、消费交易类数据、活动与地理信息类数据以及其他更为私密的生活与偏好类数据也时时刻刻在被记录、存储与分析。一方面,有很多数据是社会个体为了享受更加智能化的服务而主动提交的,因为个人数据提交得越全面越细致,相关人工智能企业就可以利用这些数据形成“个人的量化身份”,从而提供越个性化的智能便利。另一方面,也有很多数据是社会个体被迫提交的,比如人们在日常生活中需要用到越来越多的App,而许多App得以使用的前提就是人们同意“让渡”部分个人信息。更为关键的是,随着社会智能化水平的不断提高,未来可能还有更多的个人数据会被各种各样的智能装置或设备悄无声息地收集,其中当然也包括一些隐私数据。2018年3月,由中国中央电视台《中国经济生活大调查》栏目联合腾讯社会研究中心发布的人工智能认知度调查报告显示,近80%的受访者担心人工智能会威胁自己的隐私。这种担心并不是“杞人忧天”,有人就曾描绘过这样一幅可怕的图景,即未来的密探将不再拿着望远镜和远距镜头照相机,它们将是咖啡机、床单和衣服,并且我们不能想当然地认为我们能够事先发现这些潜在的危险。

鉴于数据在人工智能时代的独特价值,人工智能企业有足够的意愿和动力去触碰和“围猎”社会个体的相关数据,而且鉴于“万物互联”和“以隐私换服务”成为常态,人工智能企业还具备了足够的能力与条件去获取和“围猎”社会个体的相关数据,最终的结果就是人工智能企业掌握了大量社会个体的相关数据。或许有人会认为,社会个体被动记录或主动提交的各种数据都是碎片化或匿名化的数据,不会对个人隐私造成威胁,这其实是对人工智能技术力量的“轻视”。殊不知通过对各类数据的深度挖掘、关联聚合、交叉比对,人工智能算法可以相对快速且准确地还原数据主体的完整数字画像,有研究就发现,“高精度算法让大量已经去除身份特征的匿名数据重新恢复了身份属性,进而关联到特定个人,弱化了匿名化技术的效果”

另外,由于“数据即石油”,当人工智能企业“围猎”社会个体相关数据的时候,在某种程度上,人工智能企业及其所掌握的大量社会个体的大量相关数据也成为被“围猎”的对象,毕竟“在实际的经济活动中,因为经济利益的驱动,已经形成了围绕个人信息采集、加工、开发、销售的庞大的数据产业链”,因此并不能确保人工智能企业一定会妥善利用以及保护好其所掌握的社会个体的相关数据,特别是一些隐私数据。在“数据变现”和“隐私变现”的诱惑与刺激下,没有谁能够保证掌握了社会个体大量相关数据特别是一些隐私数据的人工智能企业不会为了利益而直接或间接地“出卖”社会个体的隐私数据以及其他数据。所谓直接“出卖”很好理解,间接“出卖”则意味着人工智能企业虽然不主动泄露社会个体隐私,但是可以通过特意设计一些安全漏洞,将之授意给达成协议的合作方,让其主动获取包括Cookie、像素代码、本地存储(例如使用浏览器进行网络存储或应用数据缓存)、数据库和服务器日志等内容,这样就算隐私泄露被公众所得知也没有关系,其完全可以装作不知情并且在事后通过“紧急修复漏洞”来加以掩饰。而近年来各种数据与隐私泄露事件的层出不穷深刻地警醒人们,对掌握社会个体大量相关数据的人工智能企业进行“无赖假设”依然非常有必要。更为严重的是,社会个体的隐私数据一经泄露,很有可能将永远泄露,造成不可挽回和不可逆转的后果。因为社会个体的隐私数据一旦进入流通环境,就将面临不确定的处理与使用主体、不确定的挖掘程度与用途、不确定的流动方向与频次,隐私主体对之不再具有掌控力。隐私主体想要对被泄露的数据进行修正或者想要抹除其他人对这些已泄隐私数据的记忆,都异常艰难甚至不可能做到,恰如维克托·迈尔-舍恩伯格所言,在今天这个时代,记忆成为常态,遗忘变成例外。

总体来说,在人工智能时代,人工智能企业既可以凭借其自身能力与条件直接获取一些社会个体的隐私数据,还可以从所掌握的社会个体的大量相关数据中提炼出一些隐私数据。社会个体在人工智能时代始终面临着隐私数据被人工智能企业获取或者侵犯的威胁,甚至可能处于“零隐私世界”。当社会个体的大量相关数据特别是一些隐私数据掌握在人工智能企业手中时,这些隐私数据可能面临着被人工智能企业故意泄露或与外部合谋间接泄露以及受外部攻击而被动泄露的威胁。

四、人生还有意义吗:“锁定效应”引发意义威胁

社会个体达致美好生活不仅需要充足的物质支撑,还需要丰富的“意义供给”。虽然对于“什么是人生的意义”,人类社会一直难以准确回答,问题的开放性使得从不同立场和视角出发所形成的答案已为人类社会建构出极为复杂的“意义系统”,但基本上可以达成共识的是,不断实现个体认知或能力的突破、自主决定个体生存与发展的方向或方式是人生意义的重要来源。不过随着人工智能的发展升级与应用范围的扩大,社会个体从认知或能力的突破、自主决定生存与发展的方向或方式等向度寻找人生意义的空间越来越小。

其一,社会个体从不断实现个体认知或能力的突破方面寻找人生意义的空间越来越小。一方面,人工智能逐渐将个人锁定在特定的同质化信息环境中,这限制了个人接触多元化与异质性信息的机会,而接触多元化与异质性信息恰恰是个人认知实现突破的重要前提。在前人工智能时代,人们主要依靠个人主动搜索以获取各种各样的信息,而在人工智能时代,人们越来越依赖算法推荐以获取信息,算法推荐的核心表征就是依据用户的历史行为预测用户可能喜欢的东西或内容。不可否认,算法推荐在一定程度上节约了人们搜索信息的时间成本,但当算法逐渐熟知人们的信息偏好之后,它便可以非常聪明而巧妙地让人们听己之所想听,看己之所想看,过滤掉与人们信息偏好互斥的其它信息内容,让人们沉浸在自己的信息舒适圈中,无形之中建立起一座座信息茧房和阻碍沟通的屏障。而长期被锁定或者说浸泡在同质性信息环境中,缺少多元信息、意见的刺激与搅动,人们容易变得“孤陋而寡闻”,人的认知也就很难实现突破与发展。

另一方面,随着人工智能场景的铺开,人工智能体开始替代人类完成许多原本需要由人类自身去完成的事务,久而久之“人们对技术和设备的依赖程度必然会逐渐提高,从而在部分领域独立完成工作的能力势必减弱,易于陷入逐渐退化的怪圈”。虽然并不是所有的事都一定需要人类亲力亲为,人类在某些方面的能力退化并不值得过于忧虑,但随着人工智能在越来越多的领域特别是人类引以为傲的领域锁定相对于人类的能力优势,情况就会不同。因为人工智能在特定方面的超强能力会让人产生永远无法超越的沮丧感和无力感,甚至让人产生自我怀疑而丧失继续寻求提升的动力,比如柯洁在败于AIphaGo的围棋赛上曾表示:它太完美,我很痛苦,看不到任何胜利的希望。而作为唯一一位在正式对局中战胜过AIphaGo的人类棋手,李世石在与AIphaGo对战之后也发出感叹,“这让我对人类的创造力产生了疑问。当我看到AIphaGo的下法时,我不禁怀疑我所知道的围棋下法是否是正确的”。或许有人认为人工智能只是在计算、推理等特定方面比人类强,许多人类可以轻而易举做到的事情对于人工智能而言却是大难题,因此不必担心人工智能全方位地超越人类。实际上,早在1997年“深蓝”战胜国际象棋世界冠军时,就曾引起过关于人工智能能否超越人类智能的讨论,当时主流的认知是,如果进行复杂性程度更高的围棋对战,人工智能不可能战胜人类,即对人工智能可以超越人类智能持怀疑态度。直到近几年代表人类最高水平的棋手柯洁、李世石等在与AIphaGO的对弈中都遭到惨败,越来越多的人才发觉人工智能在智力上已经或者终将超过人类。不过这种超越是有限的超越而不是全面的超越,即在某些专业领域人工智能可以超越人类。然而,在长远的将来,谁又能确保下面的情况不会发生:人工智能在人类能做的事情方面比人类做得好,在人类做不了的事情方面比人类做得更好?换言之,如果人工智能在越来越多的特别是人类引以为傲的领域锁定相对于人类的能力优势,人们从能力突破与提升方面寻找人生意义的空间就会越来越小,机会也会越来越少。

其二,社会个体从自主决定生存与发展的方向或方式方面寻找人生意义的空间越来越小。虽然目前人类还能够自主决定个体生存与发展的方向或方式,但是在某种程度上已经显露出来了自主性遭受侵蚀的迹象,因为当人类越来越倾向于“以隐私换便利”、越来越愿意接受算法的信息取悦甚至说信息喂养,人类自主行动赖以维持的信息基础就变得相当薄弱,算法及其背后的平台公司就具有越来越大的、无形的引导力和控制力。而且随着人类社会智能化程度的不断加深,人们也会越来越倚重算法进行决策和行动,算法越来越具有权威性,算法决策系统通过使用“超级推理”也越来越能够以微妙而有效的方式塑造用户的感受和行为或者说破坏个人的独立判断力。人类看似能够自主地决定个体生存与发展的方向或方式,实际上很有可能已经活在了一个“数字化的圆形监狱”中。这其实就意味着决定个体生存与发展方向或方式的自主权已经被数据与算法或者说掌握数据与算法优势的巨型科技公司侵蚀,最终可能导致的结果就是人们很难从自主决定个体生存与发展方向或方式中去体会人生意义。有人指出,人类在很多事项上的自主决策权随着数据以及数据控制权转移一并移交给了人工智能系统,人类引以为傲甚至可以说是独特性标志的自由意志逐渐走向空洞化,当人类事无巨细依赖于人工智能时,甚至人工智能比人类自己更了解自己时,“这就产生一个严峻的问题:人类的自主性在哪里?人类存在的意义究竟是什么”。

概括地讲,由于“信息茧房”的存在、人工智能在特定方面的超强能力、人类自主决策权的转移,或者说由于人工智能可以将人锁定在同质性的信息环境之中、人工智能在越来越多的特别是人类引以为傲的领域锁定相对于人类的能力优势以及人工智能逐渐侵蚀决定个体生存与发展方向或方式的自主权,社会个体从认知或能力的突破与提升、自主决定生存与发展的方向或方式等向度寻找人生意义的机会与空间都被压缩,甚至不知再以何种方式生产“人生意义”,进而面临巨大的意义流失甚至意义凋零威胁。

五、人工智能如何向善:国家责任的视角

增进民众福祉是国家从出场之初就承载的重要使命。人工智能在发展与应用过程中给人们带来了包括但不限于失业、隐私侵犯与泄露、人生意义流失等在内的诸多威胁,而生活在一个被多种技术威胁笼罩下的社会,人们可能并不会感觉到有多么幸福与安全,甚至可能充满忧虑,这与国家的原初使命是相背离的。因此,面对由人工智能的发展与应用带来的多种威胁以及由此引发的社会忧虑,迫切需要国家去“做正确的事情”或者说需要国家承担起安抚的责任,毕竟除了国家之外,确实也没有什么其他主体能更好地担此重任。

(一)“摸底行动”与“兜底行动”

失业威胁引发的社会忧虑需要国家展开“摸底行动”和“兜底行动”予以安抚。就业是社会个体生存与发展的根本,较为充分的就业与社会稳定之间呈正相关关系,而保障社会个体的生存与发展以及维持社会的基本秩序是国家的基础性责任,过高的失业率会引起社会不满和动荡甚至会导致政权合法性的流失。因此,不管是在西方还是在中国,就业问题都不仅仅是一个经济问题,还是一个政治问题,促进就业或者说减少失业一直被视为是国家的内生性任务和检验政权执掌者能力的重要标准。人工智能的发展与应用掀起了一股“机器换人”浪潮,这股浪潮不仅会波及到“蓝领阶层”和“体制外”的人,还会波及到“白领阶层”和“体制内”的人,正是由于此次“机器换人”浪潮的波及面宽广,因此大多数人都面临着被机器替换的可能。更为关键的是,由于人们不清楚各种职业、工作或岗位被机器替代的概率和时间,不清楚到底有多少职业、工作或岗位会被机器替代以及到底有多少新职业、新工作或新岗位会被创造出来,因此更加觉得未来充满不确定性。加之各种机构和独立研究者发布的相关测算数据“五花八门”,使得人们日益迷茫,从而加剧了“机器换人,人去哪儿”的忧虑。故此,国家要想平复人们内心的忧虑,首先要做的事情就是展开“摸底行动”,通过广泛调研与调查摸清楚各地推进“机器换人”的进展与规划,对“机器换人”的现状与发展趋势特别是对各种职业、工作或岗位被机器替代的概率和潜在时间节点以及可能被替代或创造出来的职业、工作或岗位数量形成较为明确的数据判断,用真实、牢靠与科学的数据使人们既不因为夸大机器换人的言辞而加剧忧虑,也不因为小看“机器换人”的言辞而放松警惕,总之就是使人们能更从容地做出更有针对性的准备。

另外,国家要想平复人们内心的失业忧虑,还要展开“兜底行动”。人工智能的发展与应用在使机器替换掉一部分人的工作或岗位的同时,也会创造出一些新的工作或岗位,虽然被机器替换掉工作或岗位的人可以向新的职业或工作领域转移,但是向新的职业或工作领域转移可能并没有想象中的那么容易。因为新的职业或工作领域可能需要更高的技能,而且这中间可能存在一个或短或长的失业期,这段时期恰恰蕴藏着巨大的不稳定风险,如失业率的提高会导致犯罪率在一定程度上的提高。换言之,如果不能解决好“机器换人”与社会就业之间的冲突,很可能引起社会民众对人工智能的敌视甚至是社会动荡,被人工智能替代而出现的失业者很可能成为“愤怒的失业者”,再次爆发类似于第一次工业革命期间发生过的工人组织起来砸毁机器的“卢德运动”。而要避免短期失业者和长期失业者成为“愤怒的失业者”,就需要国家展开“兜底行动”,通过为他们提供最低生活补贴或保障、失业补助、新技能培训与教育、新就业信息等帮助与关怀,减少他们因为“无路可走”而报复社会的可能性。比如美国2018年发布的《人工智能就业法案》就要求国家营造终身学习和技能培训环境,以应对人工智能给就业带来的挑战。也有人建议向人工智能或机器人征税,然后利用这笔税金来帮助被自动化所取代的工人进行再培训或者为他们提供其他支持。

(二)“立法保护”与“专项治理”

隐私威胁引发的社会忧虑需要国家通过“立法保护”和“专项治理”予以安抚。从非严格的意义上来说,自人类以叶遮体开始,就已经有了隐私和保护隐私的观念。因此,在某种程度上可以认为对隐私的看重和保护几乎与人类社会的文明发展同步。在当代信息哲学创始人卢西亚诺·弗洛里迪看来,每个人是由他的信息组成的,“你就是你的信息”,对个人信息的侵犯可以视为是对个人身体的侵害,而作为某种个人信息形式的隐私则是“我们最珍爱的财富”。

隐私如此重要,然而在人工智能时代,几乎每个人都面临隐私被泄露、利用甚至乱用滥用的威胁。而且由于技术实力的不对等以及信息的不对称,人们很难知道究竟什么软件、平台或公司在何时以何等程度侵犯了自身的何种隐私,这就进一步加剧了人们的隐私忧虑。全球数据分析行业的顶尖公司SAS于2018年7月针对525名美国成年消费者进行了一次关于数据隐私的在线调查,这些遍布美国各地的受访者代表了各种社会阶层,调查结果表明,有73%的人表示他们对个人数据隐私的担忧程度在过去几年中有所增加。那么,面对人们日益加剧的隐私忧虑,国家通过什么方式才能予以安抚平复呢?毫无疑问,立法保护是最为重要和最主流的方式,毕竟有法律法规的威慑力量在,侵犯和泄露个人信息、数据与隐私的成本将大大增加,那些试图“围猎”个人信息、数据与隐私的企业、组织与个人或许会有所收敛。实际上,关于个人信息、数据、隐私保护并不是一个新鲜的话题,许多国家和地区随着信息时代、互联网时代和大数据时代的场景变换也相继出台过一些与个人信息、数据、隐私保护相关的法律法规以及其他具有约束力的文件。据不完全统计,截至2018年底,全球已有近120个国家和地区制定了全面的信息、数据、隐私保护法律。可能有人会认为这些保护类文件并未起到多大的实际作用,不然当今世界各种个人信息、数据与隐私泄露事件也不会层出不穷。殊不知再严格再完善的法律也难免会有人去触犯,个人信息、数据与隐私泄露事件的层出不穷并不能说明各种保护类文件的无效。有可能是因为出现了新场景、新情况、新方式,原有的保护类文件体系来不及调整与更新,这种延时为一些组织或个人提供了“打擦边球”的机会,从而导致了个人信息、数据与隐私泄露事件有所增加,造成了既有保护类文件无效的假象,然而这恰恰证明了保护类文件存在和加强制定的必要性。据牛津大学发布的一份研究报告显示,通过追踪调查来自多个国家的200个新闻网站,发现自欧盟制定的《通用数据保护条例》正式实施之后,从2018年4月到7月这一时间段内,欧盟新闻网站的追踪Cookies数量下降了22%。这有力地证明了保护类文件对于防护个人信息、数据与隐私泄露是存在明显功效的。即使不对保护类文件抱有那么高的期待,保护类文件的存在也非常有意义,因为它们至少在某种程度上释放出了个人信息、数据与隐私是不允许被侵犯或泄露的信号,能创造出一种尊重和保护个人信息、数据与隐私的社会意识、社会氛围、社会习惯。这可以为后续个人信息、数据与隐私保护在理念、内容、方式等方面的进步打下良好基础。

许多国家和地区之前制定的与个人信息、数据、隐私保护相关的法律法规及其他具有约束力的文件肯定是起到了实效的。但不可否认,当面临人工智能时代这样一种全新的时代场景,在个人信息、数据和隐私被侵犯与被泄露的方式越来越隐蔽、内容越来越“精细”、频率越来越高的情况下,它们并不是“万能”的,甚至可能存在一定的滞后性,从而导致出现短暂的法律空白期。不过这恰恰意味着传统的个人信息、数据和隐私的保护理念、保护内容、保护方式等都要及时调整、更新、修订或优化,甚至有必要针对人工智能时代的个人信息、数据和隐私保护进行立法,或针对人工智能的发展应用与个人信息、数据和隐私保护进行立法。

另外,要安抚平复人们日益加剧的隐私忧虑,还需要国家不定期展开关于保护个人信息、数据和隐私的专项治理,加强对侵犯和泄露个人信息、数据和隐私行为的检查与惩戒,这样才能威慑或警示那些试图“围猎”个人信息、数据和隐私的企业以及其他各种组织与个人,抑制他们的“侥幸”心理和“打擦边球”的冲动。比如在中国,全国人大常委会执法检查组就于2017年下半年针对《网络安全法》和《全国人大常委会关于加强网络信息保护的决定》的实施情况开展了专门性检查;中央网信办在2017年也牵头开展了“隐私条款专项行动”,对微信、微博、淘宝、京东商城、支付宝、高德地图等十余款网络产品的隐私条款进行了抽查与评审;工信部还就互联网行业用户个人信息保护建立起了“查、管、罚”常态化机制,通过定期或不定期的日常监管、行风检查、季度拨测、感知调查等方式以及制度查阅、技术检测、现场检查、用户调研等手段约束互联网企业对个人信息、数据和隐私的收集与使用;2019年1月,中国国家互联网信息办公室、工业和信息化部、公安部与国家市场监督管理总局联合开展了App违法违规收集使用个人信息专项治理;2019年7月,工信部印发《电信和互联网行业提升网络数据安全保护能力专项行动方案》,针对全部基础电信运营商、50家重点互联网企业以及200款主流移动应用程序开展数据安全检查;2019年11月,工信部又组织开展了App侵犯用户权益专项整治行动。在美国,美国联邦贸易委员会(FTC)建立了两年一次的独立专家评估制度,定期针对一系列移动互联网应用隐私问题开展执法行动,通过高罚款、禁止销售运营等强力惩戒处罚手段,震慑移动应用提供者。比如在2019年7月,FTC就发现Facebook多次使用欺骗性设置来破坏用户的隐私偏好并且对违反其平台政策的第三方应用程序处理不足,决定对其处以50亿美元的罚款;在2019年10月,FTC又发现三款App未经移动设备用户的知情或同意而监控其移动设备地理位置,损害了消费者的隐私权以及移动设备的安全性,于是决定禁止其继续推广和销售。许多在各种专项治理或专项检查行动中被发现存在问题的企业,在被国家约谈、通报、处罚或要求责令整改之后,都多多少少在加强保护用户个人信息、数据和隐私方面有所改进,这就是“专项治理”所带来的威慑力,对其他试图“围猎”个人信息、数据和隐私的主体都起到了警示作用,让他们不敢轻易侵犯或泄露个人信息、数据和隐私。这在无形之中等于给个人信息、数据和隐私装上了一道防护网,有了这道防护网,或许可以让人们的隐私忧虑缓解不少。

(三)“逆向推荐”与“技术预报”

意义威胁引发的社会忧虑需要国家鼓励“逆向推荐”和“技术预报”予以安抚。在人工智能时代,人们获取信息越来越依赖于算法推荐,而当前主流的推荐算法模式很可能将人锁定在同质性信息环境之中,使人们难以实现认知上的突破。要解决这一问题,一方面要靠社会个体不断提升自身的信息素养,主动走出信息舒适区,保持开放包容的心态多接受不同领域和类型的信息,另一方面需要国家促进推荐算法模式的调整,鼓励人工智能企业设计出更丰富多元的推荐算法。在优化当前主流的同质化算法推荐模式时,尝试探索异质化算法推荐模式,多种风格的推荐算法并行,既根据用户的偏好选择推荐同质性的相关信息内容,即“正向推荐”,喜欢什么就继续推荐相关与类似的东西,与此同时也向用户推荐一些偏好之外甚至是与偏好相反的异质性信息内容,即“逆向推荐”,由此增加用户所接收信息内容的多元性,降低困于“信息茧房”的概率。

另外,由于人工智能在越来越多的特别是人类引以为傲的领域锁定了相对于人类的能力优势甚至可能会全面超越人类,这会使得人们感到难以实现反超从而丧失继续提升自身能力的斗志,解决这一问题固然需要人们适当改变一下观念,即人工智能在某些方面完全超越人类并不是什么坏事,人工智能在特定方面的超强能力不是击垮人类斗志的理由。以围棋为例,虽然人类最顶级的棋手可能再也没有机会战胜以AIphaGo为代表的围棋人工智能程序,这会让棋手们特别是最顶级的棋手感觉到沮丧,但换个思路来想,最顶级的棋手通过与人类选手的比赛或许已经再也无法激发他想出更妙的“招数”了,此时反而恰恰可能是人工智能围棋程序可以提供启发。毕竟只有与更优秀的棋手对弈才能进一步锻炼人类最顶级棋手的棋力,即使人类最顶级的棋手永远无法打败不断进步的人工智能围棋程序,其棋艺还是可以不断获得提高。更重要的是,国家要为社会提供关于当前人工智能的技术段位、人工智能发展升级趋势以及人类与人工智能相比的优劣之处等总体判定。如果国家能够根据现实变化及时更新有关人工智能的“技术预报”,让人们清楚地知道当前段位的人工智能能够做什么、可以做得怎么样、不能够做什么以及在不同的时期会发生什么变化,或许可以避免人们过早地在过多的领域“向人工智能认输”,从而使人们能够继续在人类相对占有优势的领域通过实现自我提升而获取人生意义。与此同时,由于在人工智能时代,算法嵌入人们日常生活与工作的范围越来越广,程度越来越深,算法成为安排人们日常生活与工作的“大管家”,人们也把越来越多的决策权交付给了人工智能,因此有人担心人类会在这个过程中逐渐失去自主权甚至成为“算法的奴隶”,从而无法通过自主决定生存与发展方向或方式去体会人生意义。解决这一问题还需要国家引导社会树立一种新的生存与发展理念,即人机共生,或者说需要国家在“技术预报”环节顺带向人们预报未来社会生活总体形态。毕竟在人工智能时代的到来不可逆的情况下,未来社会人们的日常生活与工作或多或少都要与人工智能产生关联,在人机共生的社会,人类要重新思考人的自主性的指代与边界,其实当人类用自己的各种偏好与行为数据“喂养”出来的人工智能比人类自己更了解自己时,在人机互信水平比较高的条件下,人类让渡部分决策权给人工智能实属正常现象。如果人们真诚地接受了人机共生的理念,即人类与人工智能体“你中有我,我中有你”,那么人们在人工智能时代对于“人的自主性”丧失的担忧就可能减轻许多。

 

责任编辑:admin
打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇【2023.01】创设“功能性接点”—.. 下一篇【2022.06】政党治理视域下新型政..