临时代办只是人类

临时代办

只要
人的

我们能否将我们的缺陷排除在人工智能及其决策之外?

由杰夫·科克雷尔

通过照片插图
格雷戈里德

由杰夫·科克雷尔

通过照片插图
格雷戈里德

我们能否将我们的缺陷排除在人工智能及其决策之外?

由杰夫·科克雷尔
格雷戈里·里德照片插图

IF你申请了抵押贷款,你会很舒服,使用你的数据的集合,以评估你怎么可能拖欠贷款的电脑吗? 

如果你申请了一份工作,你会与公司的人力资源贯穿软件的信息部门舒适,将决定它是如何可能你会,比方说,从公司窃取,或两年内离开这份工作吗?

如果你是一个犯罪被逮捕,你会舒服法院堵塞你的个人数据转换成基于算法的工具,那么,他们会建议你判断你是否应该等待审判在监狱里还是在家里?如果被定罪,你会很舒服使用相同的工具在你的量刑重吗?

很多关于人工智能的进步了搓手一直关注艾未未对劳动力市场的影响。 “AI会逐渐侵入几乎所有的就业部门,需要一个转变,从人力,电脑都能够接管了,”读人工智能斯坦福大学的百年研究的2015年研究小组的报告。但AI最终是否造成大量失业或激发新的尚未未知的专业领域,它的危险和承诺超出了就业市场。通过自动化流程取代人类决策,我们可以使企业和公共机构更加有效和高效,或进一步巩固系统性偏见,歧视制度化,并加剧不平等。 

作为TB级的数据与人工智能软件的日益接近收集配对作出预测和应对公共和私营部门的问题,这些希望和恐惧变得更加突出。一个巨大的技术前沿,AI看成是人类智慧的确,并且只受人类想象力,道德和谨慎势必有许多潜在的应用。研究有助于突出一些的可能性和它固有的隐患,为强大的数字工具和技术,更明智的应用铺平了道路。

AI的日益普及 

虽然艾未未的技术奇迹和内涵恐怖认为有情电脑,点菜哈儿从 2001:太空奥德赛 - 什么公司都用它今天所做的是更为平庸。他们自动规则为基础的任务,如贷款处理。人在银行工作的数万人在做这样的工作;现在计算机正在接管这些角色。

“尽管有很多的AI的讨论,大多数企业都在做他们的第一个应用程序其实非常简单,说:”苏珊·阿西,在斯坦福大学技术经济学教授。 

有,当然,AI的异国情调的业务应用,其中不乏拥有尖端的硬件自驾卡车,外科手术机器人,智能助手,如Siri的和Alexa的 - 这都准备把运输的剧烈变化,医疗卫生合作和其他行业。但在短期内,AI会令自己感到更微妙的方式在行业,如金融,通讯,零售。

taddy,2019

taddy,2019

taddy,2019

也许AI的最发达的方面是被称为机器学习,这包括识别数据中的模式和使用这些模式进行预测工作区。这要归功于能够处理大量通过复杂的算法数据的计算机,这些预测可以磨练出高精确度。这样,企业可以使用他们的数据来更好地预测客户和市场行为。

采取混淆面向消费者的业务,如在线零售商和银行的问题:哪些客户最有可能离开?被称为流失,戒烟者的数量是一个公司的健康状况的重要指标,因为谁离开客户不得不被替换,往往付出巨大的代价。如果一个公司知道有保留的努力,如特殊优惠或奖励定位的客户,它可以节省可观的钱。 

那种洞察力变得更容易获得广泛的不同类型的企业和尺寸多亏了一些知名的高科技公司开发和销售基于云的工具。 

“想象一下,如果20世纪初的所有公司都拥有一些油,但他们必须把基础设施​​建设来提取,运输和提炼石油靠自己,”写芝加哥大学布斯的尼古拉斯·波森  得克萨斯州的斯科特大学 在他们的 2018本书, AIQ:人与机器是如何聪明起来:

任何一家公司与充分利用其石油的新思路将面临巨大的固定成本刚上手;其结果是,大部分的石油会坐在地上。那么,同样的逻辑适用于数据,21世纪的石油。如果他们不得不买从他们的数据构建的AI系统所需的所有装备和专业知识大多数爱好者还是小公司将面临高昂的成本。但服装,如微软Azure,IBM和亚马逊网络服务所提供的云计算资源变成那个固定成本变成可变成本,从根本上改变对大规模数据存储和分析的经济计算。今天,谁想要利用他们的“油”的现在可以做的这么便宜,租用别人的基础设施。

认识到无数的用途AI,欧盟委员会去年宣布,2018年至2020年间将投资15十亿€人工智能研究和应用,包括通过“潜在用户工具箱“艾整个欧洲的摄取”,重点在中小型企业,非高科技公司和公共管理部门“。

公共管理部门的委托宣布纳入就是要认识到机器学习和人工智能可以应用于任何地方的公共或私营部门,人们有大量的数据和需要做出预测,以决定如何最好地分配稀缺资源,从刑事司法教育,卫生保健住房政策。问题是,他们应该是什么? 

算法自主权的危险

这是计算的公理结果取决于输入:垃圾,垃圾出。如果公司的机器学习项目拿出什么分析认为,虽然逻辑和算法基础,是在错误的假设或误测数据为前提?如果这些分析导致什么不良或道德问题的决定,无论是企业领导人或间决策者和公共机构? 

AI的呼吁作为补充或替代人的决策之一是,电脑应该是无知的这种偏见的人的消极和谬误往往关联。简单地参与社会可以使人们更容易吸收有关种族,性别或其他属性,可导致歧视行为的想法;但算法,理论上不应该作为敏感的。

然而,乔治·华盛顿大学的 艾林cal是kan,巴斯的大学 乔安娜学家布赖森和普林斯顿的 arvind narayanan 发现机器学习系统,可内出现在他们美联储的数据定型。采用的分析技术类似于一个内隐联想测验,用来揪出无意识连接人的某些词语之间做出概念,为常用的机器学习语言的工具,研究人员发现该工具表现出人类文化发现了同样的偏见。欧美的名字被更紧密地与愉快的字相关联的比他们有不愉快的人,相较于非洲裔美国人的名字,和女性的名字被更紧密地与具有比与职业化的话家族的内涵字相关联,相对于男性名字。

“我们的研究结果表明,如果我们建立一个学习不够了解语言的特性是能够理解和产生它,在这个过程中,也将获得历史文化协会,其中一些可能令人反感的智能系统,”研究人员写道。

该AI系统在偏见的数据可以成立的关注超越了语言的应用程序。 2016年 propublica 用于在保释设定过程分配“风险指数”,以被告的算法工具的调查发现,该工具是更容易误认黑人被告为处于累犯较白的被告人高风险,相反,更可能误标白被告为低风险。虽然该工具的创建者纠纷的后续分析 propublica的结论,调查结果仍然反映的可能性,如果当局依靠人工智能来帮助沉重的决定,他们转向工具可能是固有部分。

倾斜的数据的问题是事实,而机器学习通常是进行预测时是有用的,它是寻找因果关系不值钱进一步加剧。当它被用来促进决策这可能产生问题。

芝加哥摊位 sendhil mullainathan 加州和大学伯克利分校的 齐亚德欧博迈亚 提供应用于医疗数据,它可以识别,例如机器学习的例子,是急性鼻窦炎的历史是预测未来的中风。但是,这并不意味着鼻窦感染导致心血管疾病。取而代之的是他们对病人的医疗纪录协会行为的解释:寻求照顾的决定。 

“医疗数据是尽可能多的行为作为生物;一个人是否决定寻求治疗可作为实际行程的关键在确定他们是否被诊断患有中风,”研究人员写道。

一位好心的医院管理者可能会尝试使用人工智能来帮助中风的风险最高优先考虑患者相关急诊室资源。但她最终可能会优先考虑患者只是极有可能寻求治疗,在此过程中加剧了医疗保健的不平等。

“产生的数据在人类决策固有的偏差可被自动或甚至放大,” mullainathan和欧博迈亚写入。 “做天真,则算法预测可以放大或延续一些[的]政策的问题,我们看到在卫生系统,而不是解决这些问题。”

同样,使用算法来最大限度地提高收入或利润的企业最终可能创建或加剧的不平等。芝加哥大学布斯的 sanjog m是rajean-pierredubé 与求职网站ziprecruiter,以便了解消费者的需求,探索在使用机器学习来测试定价策略研究从ziprecruiter数据运行网上定价实验工作。 (更多有关这项研究,请参见“你准备好个性化的定价?” 2018年春季)机器学习有希望在特定的网上业务,因为公司往往有大量关于他们的客户和网站访问者的数据。一个公司可以编写软件来自动化实验的设计和客户特质的集合。使用机器学习,公司可以训练算法,如正则化回归杜贝和MISRA在ziprecruiter,使用“找出那些观测变量的一个描述客户如何应对价格或广告,”杜贝说。一遍又一遍,计算机可以运行的实验与客户测试不同的广告和价格水平,通过反复试验学习和错误什么可行,什么不可行。那么该公司可以自动决策过程的广告或价格展示给哪些客户。曾经是凭空猜测,或充其量是一个漫长的过程,现在可以快速准确完成。 

这个问题,杜贝说,是透明度:“它成为一个完整的黑盒子”没有参与这个过程人类,也有对电脑决定什么几项检查。

“让我们假设您的定位算法,完全基于统计数据,开始搜寻你想要收取非常高的价格,或人谁应该得到的信息较少,并且假设人段你有效,现在不包括本集团原来是一个保护类的消费者,”杜贝说。 

什么买婴儿奶粉时,如果零售商的机器学习确定谁生活在贫困,少数民族为主的社区的人少价格敏感?因为算法不会对买方的比赛信息,该公司可能无法识别以其高效的定价策略有问题,只对收入。但结果是一样的:种族歧视。 

计算机程序员可能会限制该算法不使用种族作为一个特质。 “但也有很多的,我可以观察到,会在不经意间找出种族其它的事情,可能在很多方面来完成,这样我就不会意识到这是一个黑色的附近,例如,”杜贝说。 

康奈尔大学的 琼克莱因伯格,芝加哥哈里斯大学法学院公共政策的 jens ludwig,展台的mullainathan,哈佛大学的 ashesh rambachan 认为,从机器学习算法更公平的结果可以通过在因素,例如种族离去以及调整预测结果的解释,以补偿潜在偏倚来实现。研究人员考虑两个社会规划者试图决定哪个高中学生的理论情况下,应该考上大学:一个“有效的策划者”谁在乎只有承认学生提供最高预测合议成功,和一个“公平的策划者”是谁关心预测成功和承认组的种族构成。以帮助他们的决策,对申请人都规划者输入可观察数据为“预测功能”,或算法,其产生可用于排名的学生在大学的成功率的基础上的得分。

因为种族与大学的成功相关,高效的策划者包括在她的算法。 “用于自入学录取的学生是少数民族的比例,可以随时变更[预测成功的]阈值被改变,公平策划者应该使用相同的预测功能为一体的高效策划人,”研究人员发现。

如果公平的策划者,而不是使用的种族盲算法,他可能最终m是ranking申请人在考虑录取标准基础偏见的结果。白人学生可能会收到标准化测试的更多的教练比其他学生做。和“如果白人学生给予更多SAT准备,”研究人员解释说,“同样的SAT成绩意味着 更高 大学成功一名黑人学生比白纸一张“。 

AI的亲社会潜在 

尽管人们的偏见,成见和透明度的关注,AI能帮助企业和社会功能较好,邀请是难以忽视的机会。在他们的上述高校录取情况的研究,克林伯格和他coresearchers找到正确的算法“,不仅提高了预测入学的学生(效率)的平均成绩还可以提高的结果,如被录取的学生谁是黑色的部分(股权)”机器学习算法可以产生一个新生班,既更有资格和更多样化的精心施工。 

克林伯格,Ludwig和mullainathan,与哈佛大学博士后研究员 himabindu lakkaraju 和斯坦福大学的 jure leskovec,发现在司法风险评估工具,如一个研究了其他研究 propublica 可构建以解决众多社会关切。 “保释的决定依赖于机器学习的独特优势,最大限度地提高预测质量,同时避免它的缺点:不能保证因果关系或者一致估计,”研究人员写道。使用上逮捕的数据与2008年和2013年间保释来自纽约市的决定,他们发现的证据表明,作出这些决定的法官经常m是evaluated被告的飞行风险(在纽约州的唯一标准的法官都应该在保释决定使用)相对于机器学习算法的结果。法官释放了近一半的被告认定为样本,超过56%的人则没有出现在法庭上风险最高的百分之一的算法。与算法,位列被告在风险量级的帮助下,法官可以有近25%的在不增加监狱人口减少故障出现在球场上的速度,或超过40%,而不减少监狱人口提高故障对出现率。

更重要的是,该算法可以做这一切的同时,也使系统更加公平。 “适当进行重新排序策略可以减少犯罪和监狱人口,同时减少种族差异,”研究人员写道。 “在这种情况下,该方法对种族平等的力量。”

斯坦福大学的 沙拉德·戈尔,主页Away的的 贾斯汀米。饶和纽约大学的 拉维缴费 使用机器学习来确定纽约能改善重点放在最统计相关因素停止和搜身事件的停止和搜身政策。研究人员指出,2008年至2012年间,黑人和西班牙裔人被拦在此类事件的大约80%,尽管做出了约一半的城市的人口,以及90%的停止和搜身事件没有造成任何进一步行动。

着眼于从2011年停止到2012年在警察涉嫌持有武器的人,研究人员发现,停止的43%的人比找一个武器的1%的机会较少。他们的机器学习模型,确定了90%的武器可能已被进行了停止的只是58%的恢复。由三个因素最有可能表明的武器的东西存在,如“可疑膨胀”归巢-the警察可能通过进行仅8站的百分比恢复一半的武器。采用这样的策略将导致这些停止谁之间更公平的种族平衡。

结果如这些暗示在AI的潜力,提高社会福祉。用得好,它可以改善预后,无需昂贵的权衡减少监狱人口不增加犯罪,例如。但艾蔚起,那些谁开发,并依靠它必须这样做谨慎,免得它创造尽可能多的问题,因为它解决。

参考文献

朱莉娅·安格温,杰夫·拉森,苏里亚mattu,和劳伦基什内尔,“机器偏见” propublica,2016年5月。

EVA ascarza,“保留无用:针对高风险客户可能是无效的,”哥伦比亚大学商学院研究报告,2017年7月。

艾林cal是kan,乔安娜学家布赖森和阿文德·纳拉亚南,“语义自动源自语料含有类似人类的偏见,” 科学,2017年4月。

让 - 皮埃尔·杜贝和sanjog MISRA,“可扩展的价格定位,”工作文件,2017年10月。

“人工智能欧洲,” 委员会向欧洲议会,欧洲议会,理事会,欧洲经济和社会委员会和地区委员会的函件,2018年4月。

沙拉德帕戈埃尔,贾斯汀米。饶,和拉维缴费,“选区或偏见?了解在纽约市的停止和搜身政策的种族差异,” 应用统计年鉴,2016年3月。

乔恩·克莱因伯格,himabindu lakkaraju,朱尔·莱什科韦克,延斯·路德维希和森德希尔·马纳森,“人的决策和机器的预测,” NBER工作文件,2017年2月。

乔恩·克莱因伯格,延斯·路德维希,森德希尔·马纳森和ashesh rambachan,“算法公平,” aea论文和诉讼,2018年5月。

森德希尔·马纳森和齐亚德欧博迈亚,“不学习机自动化道德风险和错误?” 美国经济评论,2017年5月。