首页 >科技 > 内容

专家说 在算法决策中需要公平

科技 2020-03-12 11:42:35

多伦多大学博士 D.学生David Madras说,今天的许多算法都擅长做出准确的预测,但不知道如何很好地处理不确定性。 如果一个校准不好的算法做出错误的决定,它通常是非常错误的。

计算机科学系的机器学习研究员马德拉斯说:“人类用户可能比计算机更能理解一种情况,不管它是因为它的性质非常定性而无法获得的信息,还是现实世界中发生的没有输入到算法中的事情。

“两者都可能非常重要,并可能对应当作出的预测产生影响。

马德拉斯本周在温哥华举行的国际学习代表大会上发表了他的研究报告,题为“可预见的:通过学习来提高公平性”。 这次会议的重点是机器学习的方法和性能,并汇集了该领域的领导。

马德拉斯说,他和T的计算机科学和数学系U的教授兼计算理论专家ToniannPitassi,以及T的计算机科学教授兼矢量研究所的研究主任Richard Zemel,在考虑到公平的前提下开发了他们的模型。 如果有一定程度的不确定性,算法必须有选择来回答“我不知道”,并将其决定推迟到人类用户。

马德拉斯解释说,如果Face book使用一种算法自动标记图像中的人,如果标记做错了,可能就不那么重要了。 但是,当个人的结果影响很大时,风险可能更大。 他说,该模型尚未应用于任何特定的应用,但研究人员正在考虑它可以在现实世界中使用的方式。

“在医疗环境中,输出一些可以解释的东西是很重要的——在预测的过程中存在一定的不确定性,医生应该决定是否应该给予治疗。”

马德拉斯的研究生导师Zemel今年夏天将担任NSERC机器学习工业研究主席,他还在研究如何使机器学习更具表现力、可控和公平。

泽梅尔说,基于历史数据的机器学习,如银行贷款是否获得批准或刑期长短,自然会产生偏见。 他说,数据集中的偏差可以在机器的预测中发挥作用。

在本文中,我们对外部决策者有很多思考。 为了培养我们的模式,我们必须使用决策者做出的历史决策。 由现有决策者作出的这些决定的结果本身可能有偏见或在某种意义上不完整“。

马德拉斯认为,除了隐私、安全和安全问题外,更多地关注算法的公平性,将有助于使机器学习更适用于高风险的应用程序。

“它提出了一个重要的问题,一个自动系统的作用,正在作出重要的决定,以及如何使[他们]预测的方式,我们希望他们。”

马德拉斯说,他继续思考公平和相关领域的问题,比如因果关系:两件事可能是相关的——因为它们经常发生在一起——但这并不意味着一件事导致另一件事。

如果一个算法正在决定何时给某人贷款,它可能会发现,生活在某一邮政编码中的人不太可能偿还贷款。 但这可能是不公平的根源。 他说:“生活在特定的邮政编码中并不会让你不太可能偿还贷款。”

“这是一组有趣而重要的问题需要解决。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。