深度 | 21世纪的希特勒?我为什么认为AI驱动型政府将成为民主威胁

摘要: 面部识别、数据建档、智能判决…… 人工智能已悄无声息地辅助甚至取代政府,对你作出全方位的管理。AI驱动型政府正在逐步成为现实,而这一切将会是民主的福音,还是人类的灾难呢?

11-08 00:53 首页 大数据文摘

大数据文摘作品,转载要求见文末

作者 | Ma?lle Gavet

编译 | 元元、康璐、Ether、钱天培


面部识别、数据建档、智能判决…… 人工智能已悄无声息地辅助甚至取代政府,对你作出全方位的管理。AI驱动型政府正在逐步成为现实,而这一切将会是民主的福音,还是人类的灾难呢?


从澳大利亚政府用“数据驱动分析”对社会福利受益人进行新式的药物检测,到美国执法部门采用面部识别技术,以及很多美国法院开始在判决中采用专用软件,一系列的技术已被悄然实施,却没有遭到多少抗议,它们改变着我们的治安管理手段,改变着我们划分和定义公民身份的方式,可能在不久之后,还会改变我们被统治的方式。虽然我们还处于“算法管控”的前期——利用大数据,机器学习和人工智能(AI)等方法来管控人的行为,甚至执行法律,但目前它们已经介入了公民个人和政府之间的关系,并产生了不小影响。


而且,在这些技术崛起的今日,正是很多西方世界国家政府的支持率跌到历史最低点之时。发达国家的选民们愈发不满大权在握的政治家们和其利益集团的政治运作,并且在行使投票权时发泄自己的不满。


AI驱动型政府对民主发展的5大威胁


在这个政治动荡多变的环境下,人们越来越感觉到技术可以作为一种解决手段。算法管控的支持者们声称,很多人类制定的法律和规则可以交由AI来执行,由于机器学习的能力不断提高,筛选和理解大量数据(通常是来自智能手机)的能力不断增强,AI执行法规会比人类更准确更高效。


AI支持者还认为,从历史趋势和人类行为发展来看,算法可能很快就能够改变我们日常生活的方方面面,从我们的驾驶行为,到我们作为公民的责任和权利,甚至是违背法律时受到的惩处,都会有算法参与。事实上,我们可以想象在不久的将来,AI可以自动设立法规,预防和避免各种社会问题。

 


有些人认为这将是民主的重生,但在我看来是对民主的威胁,我们应该对它持深刻怀疑的态度。在法治和决策中引入算法,存在五个重大问题:


1) 自我强化偏差


总的来说,机器学习和人工智能擅长的是分析大量实时数据,找出趋势并给出“如果发生这个,就会出现那个”这样的结论,这与人类非常不同。它假设曾经发生的事情总是以相同模式再次发生,这就是固有的自我强化偏差。


以犯罪数据为例,收入较低的黑人和少数民族社区里出现犯罪和反社会行为的概率远高于富裕的白人社区。如果用算法来制定法规,必然会对黑人和少数民族社区严加警力巡查,因此也会发生更多的警匪对峙和逮捕。这样的自证预言把预期变为了现实,被认为会有高犯罪率的地区,果然发现更多犯罪。



如果你是出生于此类社区的小孩,摆脱环境贴在你身上的标签的可能性会更渺小。当然,这是已经在发生的事情了。从2010年初,预测式警力监控开始在全美国启用,因为发生错误预测和其中根深蒂固的种族偏见而一直备受谴责。它能否持续地减少犯罪,还有待验证。


2) 安全性堪忧


第二个很重要的问题是,人工智能的引入会涉及到信息安全问题。实际上,几乎所有的大公司,政府部门和机构(包括美国司法部门)都有可能被入侵,主要是因为它们维护数据安全的能力远不足以防范黑客入侵。


说得委婉些,政府不太可能保护算法不被攻击,而且算法常是一个“黑箱”,即使被篡改了我们也不一定能查出是何时和怎样被篡改的。举个例子,据新闻报道称,去年俄罗斯黑客入侵美国民主党电脑系统,助力Donald Trump赢得了美国总统大选。同样,如果我们真的写代码把政府和司法权力交给一个机器,代码一定极其复杂,而且我们几乎可以肯定,它一定充斥着各种漏洞。


3) 利益难平衡公正


还有利益冲突的问题。执法和监管的软件不是由政府开发的,而是由一些私人公司,通常是跨国的技术公司开发的。这些跨国技术公司已经在给政府提供软件,他们不仅有明确的盈利目标,还常和政府有不透明的关系。



这样的合作也会引起怀疑算法的公平和透明,因为这会影响人们生活中切实的利益。在我们生活的世界中,政府数据越来越多的向公众开放。这对公众是一件好事,我强烈支持。然而,从这些免费数据中获益最多的公司却有双重标准:他们极力倡议政府公布免费开放数据,却锱铢必较确保自己的程序和数据仍为己有。


4)政府尚不能掌控人工智能技术


政府掌握数字化技术的能力也让人存疑。我所了解的大多数政治家,他们对技术的局限毫无认识,不知道它们能做什么不能做什么。他们不理解最基础的原理,更不要说细节了,这意味着他们不能很好的管理这些软件公司。如果他们不懂为什么后门和加密不能共用这类基础问题,就更难认知到算法管控需要什么,这个问题比前者复杂很多倍。


好比说,英国和法国政府正在推进的法案中,政府对公民的数据信息有不断扩张的访问权,说明他们并不知道自己建立这样的数据库所面临的巨大风险。可以肯定,因政府访问数据权力的过度扩张而爆发丑闻仅仅是时间问题。


5)算法没那么精妙


而且,硅谷所象征的技术无所不能,可以说反映出他们的态度是傲慢的,用AI算法管控的核心要义在于它认为对于任何问题总有最优解。然而,解决棘手的社会问题需要的是耐心,妥协,还有最重要的是仲裁调解。例如加州的水资源短缺,是农业发展和民众用水之间的竞争。一些人认为应减少水资源消耗以应对气候变化,而另一些人则认为全球变暖对生存并无威胁。这样的社会问题也许并不能由算法得出所谓的最优解。


算法能在两方中进行仲裁调解吗?宏观上看,算法能判断出谁该为气候变化问题承担更多责任吗?是引发了气候问题的发达国家,还是仍在现代化阶段,能源效率低下的发展中国家呢?我的观点是,算法只适合做非黑即白的判断,并不擅长处理灰色地带,或是做细致的权衡和妥协,也不擅长做意义和价值评估,或是争取某种折中和让步。



虽然我们也许可以建立算法并用来管理社会,但是我们需要先想清楚我们想要什么样的社会。还要想清楚,当社会经历根本性变化时(快速或渐变),会发生什么。比如你可以试想一下,如果算法建立在奴隶制横行,或是同性恋被禁止,或是女人还没有投票权的时候,会是什么样的算法,而后会发生什么?这也就是为什么我们选举政府,是希望他们做决策时不是基于过去的社会模式,而是基于大多数选民的发展愿景,而且好的决策是会常伴有妥协的。


所谓的公民社会,需要做的就是建立不断发展改进的共识,关于我们想要怎样的社会和生活。这件事是不能完全外包给智能机器的。


AI驱动型政府下,民主何去何从


尽管有上述问题,但毫无疑问某种AI驱动的政府一定会出现。我们怎么才能避免事情像恐怖科幻小说一样发展呢?首先,我们应该利用AI来探索解决社会问题的新方法,而不是直接应用在旧有的解决方案中。比如说,与其简单的用AI来更快的找到罪犯把他们送进监狱来维护治安,不如用AI来找到其他潜在的有效解决方案。比如给年轻人更多的文化教育机会,让他们学会识字、识数和其他技能,可能比严厉的执法能更有效和更低成本地减少犯罪。


此外,AI应该用于群体的层面,而非针对某些个人,从而防止因背景、基因或地区给人贴上标签。比如招聘企业、医疗保险公司、信用卡公司、和抵押贷款提供商,他们更依赖于精细的数据驱动,应当将AI应用在群体而非个人层面。虽然用AI进行人群划分的商业必要性很明确,但是当它筛选特定人群的时候,将不可避免地把其他人排除在可能性之外。



当然,不是所有公司都用数据损害消费者利益的。2015年哈佛商学院的一项研究表明AIRBNB对于使用共享平台的黑人和少数民族租客有惯性歧视,AIRBNB随后进行了检视并采取了系列措施来解决这个问题。但AIRBNB其实可以在这项研究前就发现问题,因为足够聪明的AI算法可以更早发现这种歧视,并且可能提出预防的方法。技术应该帮助人类更好地做决定,而不是取代人类成为决定者。

 

为了了解算法应用在公共事业上的潜力如何。


首先,政府需要想办法,让大家讨论清楚我们希望通过应用算法获得何种结果,以便我们理解并对期望目标达成一致,从而更好的衡量算法的表现。


二,政治家们需要尽快学习和理解数字化技术,因为将来我们会有实时且连续的数据流来反馈算法在每件事上的表现,并通过算法的不断改善以适用于变换的环境和需求。


第三,任何AI建议的试行条例或法规,都必须通过传统人类方法进行严格的测试,才能正式采用或立法。


最后,任何使用公共数据来增强和改进算法的商业公司,应把收益部分回馈给政府,或者承诺算法为租借使用关系,最终所有权依然归政府。


毫无疑问,算法管控已经蓄势待发。我们必须小心监管AI在政府更广泛的应用,以确保其使用动机是正确的,必须是以正确的方式和途径改善社会。如若不然,我们可能招致意外的后果和混乱,以及最终失去民主的风险。


原文链接:https://medium.com/world-economic-forum/rage-against-the-machines-is-ai-powered-government-worth-it-d003a0488f02


??戳下方二维码,来参加音乐会吧!


志愿者介绍

回复“志愿者”加入我们

往期精彩文章


点击图片阅读

马斯克等116名AI大佬紧急上书联合国,呼吁不要打开“机器人武器”的潘多拉魔盒





首页 - 大数据文摘 的更多文章: