首页 >科技 > 内容

人工智能偏见 技术如何决定你是找到工作获得贷款

科技 2020-03-24 11:23:57

几乎每个行业的企业都部署人工智能,使员工的工作更简单,消费者的任务更容易。

计算机软件教客户服务代理如何更有同情心,学校使用电子机器学习扫描武器和大规模射击在校园,医生使用人工智能绘制疾病的根本原因。

网络安全、在线娱乐和零售等行业结合广泛的客户数据,以革命性的方式简化服务。

虽然这些应用似乎无害,甚至可能是有益的,但人工智能只像输入它的信息一样好,这可能会产生严重的影响。

你可能没有意识到这一点,但AI有助于确定在某些情况下你是否有资格获得贷款。 还有一些产品可能会让警察阻止你,因为软件识别了你和其他人。

2020年深度假:新的人工智能在选举前改变视频

皮尤调查:美国人比科技巨头更信任警察使用面部识别

想象一下,如果街上的人能给你拍张照片,然后一台电脑扫描数据库,告诉他们你的一切,或者机场的安全摄像头标记了你的脸,而一个坏人走过TSA。

这些都是现实世界中的可能性,当本应促进便利的技术已经被人类的偏见渗透到框架中。

“人工智能是一个超级强大的工具,就像任何真正强大的工具一样,它可以用来做很多事情-其中一些是好的,有些可能是有问题的,”开发人工智能软件的现代Hire创新执行副总裁埃里克·西德尔说。

Sydell说:“在这种新技术的早期阶段,你会发现很多公司都在努力想办法把它引入他们的业务中。”

人工智能往往是一个包罗万象的术语,用来描述计算机执行的通常需要人类完成的任务,如语音识别和决策。

不管是有意还是无意,人类做出的判断可能会溢出到为人工智能创建的代码中。 这意味着人工智能可以包含隐含的种族、性别和意识形态偏见,这推动了一系列联邦和州的监管努力。

6月,哥伦比亚特区众议员Don Beyer对一项众议院法案提出了两项修正案,该法案将阻止联邦资金通过执法手段覆盖面部识别技术,并要求国家科学基金会向国会报告人工智能的社会影响。

“我不认为我们应该禁止所有的联邦资金做所有的人工智能。 Beyer今天对美国说:“我们只需要深思熟虑。 他说,电脑学习和面部识别软件可以使警察错误地识别某人,从而促使警察在极端情况下对枪支进行攻击。

Beyer说:“我想很快我们就会要求禁止在身体凸轮上使用面部识别技术,因为这是实时的问题。” “当数据不准确时,可能导致局势失控。

人工智能用于预测分析,其中计算机显示一个人有多可能罪。 虽然这并不完全符合汤姆·克鲁斯科幻片《少数民族报告》中的“预先调查”警察单位的程度,但这项技术已经面临过多的考验,无论是改善安全还是简单地延续不平等。

今年,美国AI治理中心和牛津大学人类未来研究所(Oxford University of Humanity Institute)的一项研究表明,美国人对人工智能应用的支持程度参差不齐,大多数人(82%)认为应该对人工智能进行监管。

具体说到面部识别,美国人说执法机构会很好地利用这项技术。

尸体摄像头不会让警察变得更好:大学学位和更高的标准

许多研究表明,自动化将破坏人类的工作。 例如,牛津大学的学者卡尔·本尼迪克特·弗雷(CarlBenedikt Frey)和迈克尔·奥斯本(MichaelOsborne)估计,到20世纪30年代中期,47%的美国工作岗位面临着自动化的高风险。

由于工作人员担心被电脑取代,其他人也因为人工智能软件而被雇用。

这项技术可以吸引那些拥有特定工作环境的理想技能的雇主,因为他们可能太忙,无法让人筛选候选人。

现代Hire使用从测试、音频面试和简历收集的数据来预测一个人在工作中的表现。

西德尔说:“有意义的信息包括:“一个人将如何工作,他们将停留多久,他们将是一个顶级的销售人员或高素质的工人。”

使用人工智能,“我们可以摆脱工作不好或冗余的过程。 我们可以通过在整个过程中给候选人实时反馈给他们更好的体验。

他说,如果人工智能部署得不好,它可能会使工作环境恶化,但如果做得周到,它可能会导致更公平的工作场所。

机器人偷工作不是问题:这是问题。

无论是好是坏,人工智能都会影响人们做出的财务决策,而且它已经存在了多年。 专家说,它在交易员投资中发挥着越来越重要的作用,而且它在防止信用卡欺诈方面特别有效。

事情有问题的地方是当技术用来决定你是否值得从银行借钱。

AppZen的联合创始人Kunal Verma说:“每当你申请贷款时,可能会有人工智能来确定是否应该发放贷款。”AppZen是一个AI平台,它的客户包括We Work和Amazon。

这项技术通常被吹捧为对潜在贷款借款人的更快、更准确的评估,因为它可以在几秒钟内筛选出大量数据。 不过,还有出错的余地。

如果输入到Analogrithm中的信息表明你生活在一个很多人拖欠贷款的地区,系统可能会确定你是不可靠的,Verma说。

佛玛说:“这一地区也可能有许多少数民族或其他特征的人,这可能导致算法的偏差。”

人工智能的问题? 研究表明,白人和男性太多,需要更多的女性和少数民族

偏见几乎可以在深度学习过程的每一个阶段蔓延;然而,算法也可以帮助减少由于人类判断力差而造成的差异。

一种类型的解决方案涉及数据集中对变化敏感的属性来抵消结果。 另一个是预筛选数据以保持准确性。 无论哪种方式,一家公司拥有的数据越多,人工智能就越公平。

赛德尔说:“谷歌、Face book和亚马逊之所以是人工智能领域的领导者,是有原因的。 “这是因为他们有大量的数据要处理。 其他公司可以访问相同类型的AITechnology,但它们可能没有大量的数据可供使用和应用。 这就是绊脚石。

想监管人工智能的政治家比耶(beyer)赞成让人类对计算机所做的决定进行双重检查,“直到技术完美(如果有的话)。”

他说,也许值得质疑的是,人工智能是否应该成为每一个问题的直接解决方案,包括是否有人入狱。

“当它完美的时候,我们必须开始考虑隐私问题。 比如,拍一张某人的照片并通过一个数据库进行运行是否合理? 贝尔说。 如果人工智能能比人类更快、更准确、更少偏见地读取X射线,那就太好了。 如果我们给AI宣战的能力,我们就有大麻烦了。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。