如何判断人工智能是否按照我们想要的方式工作
大约十年前,深度学习模型开始在各种任务上取得超人的结果,从击败世界冠军棋盘游戏玩家到在诊断乳腺癌方面优于医生。
这些强大的深度学习模型通常基于人工神经网络,这些神经网络在20世纪40年代首次提出,并已成为一种流行的机器学习类型。计算机学习使用模拟人脑的互连节点或神经元层来处理数据。
随着机器学习领域的发展,人工神经网络也随之发展。
深度学习模型现在通常由许多层中的数百万或数十亿个互连节点组成,这些节点经过训练以使用大量数据执行检测或分类任务。但是由于这些模型非常复杂,即使是设计它们的研究人员也不完全了解它们是如何工作的。这使得很难知道它们是否正常工作。
例如,也许一个旨在帮助医生诊断患者的模型正确地预测了皮肤病变是癌性的,但它通过关注一个不相关的标记来实现,当照片中有癌组织时,该标记恰好经常发生,而不是癌组织本身。这被称为虚假相关性。模型的预测是正确的,但它这样做的原因是错误的。在真正的临床环境中,该标记不会出现在癌症阳性图像上,这可能导致错过诊断。
由于这些所谓的“黑匣子”模型周围有如此多的不确定性,人们如何才能解开盒子里发生的事情呢?
这个难题导致了一个新的、快速增长的研究领域,研究人员开发和测试解释方法(也称为可解释性方法),试图揭示黑盒机器学习模型如何做出预测。
什么是解释方法?
在最基本的层面上,解释方法是全局的或局部的。局部解释方法侧重于解释模型如何做出一个特定的预测,而全局解释则试图描述整个模型的整体行为。这通常是通过开发一个单独的,更简单的(并且希望可以理解的)模型来完成的,该模型模仿更大的黑盒模型。
但是,由于深度学习模型从根本上以复杂和非线性的方式工作,因此开发有效的全局解释模型尤其具有挑战性。这导致研究人员将他们最近的大部分注意力转向局部解释方法,计算机科学与人工智能实验室(CSAIL)交互式机器人小组的研究生Yilun Zhou解释说,他研究可解释机器学习中的模型,算法和评估。
最流行的局部解释方法类型分为三大类。
第一种也是最广泛使用的解释方法类型称为特征归因。要素归因方法显示模型做出特定决策时哪些要素最重要。
特征是馈送到机器学习模型并用于其预测的输入变量。当数据为表格时,将从数据集中的列中提取要素(使用各种技术对其进行转换,以便模型可以处理原始数据)。另一方面,对于图像处理任务,图像中的每个像素都是一个特征。例如,如果模型预测X射线图像显示癌症,则特征归因方法将突出显示该特定X射线中对模型预测最重要的像素。
从本质上讲,特征归因方法显示了模型在进行预测时最关注的内容。
“使用这个特征归因解释,你可以检查虚假相关性是否是一个问题。例如,它将显示水印中的像素是否突出显示,或者实际肿瘤中的像素是否突出显示,“Zhou说。
第二种类型的解释方法称为反事实解释。给定输入和模型的预测,这些方法显示如何更改该输入,使其落入另一个类。例如,如果机器学习模型预测借款人将被拒绝贷款,那么反事实解释显示了需要改变哪些因素才能接受她的贷款申请。也许她的信用评分或收入,模型预测中使用的两个特征,需要更高才能让她获得批准。
“这种解释方法的好处是,它准确地告诉你需要如何改变输入来翻转决策,这可能具有实际用途。对于正在申请抵押贷款但没有得到抵押贷款的人来说,这种解释会告诉他们需要做些什么才能实现他们想要的结果,“他说。
第三类解释方法称为示例重要性解释。与其他方法不同,此方法需要访问用于训练模型的数据。
示例重要性解释将显示模型在进行特定预测时最依赖的训练样本;理想情况下,这是与输入数据最相似的样本。如果观察到一个看似不合理的预测,这种类型的解释特别有用。可能存在影响用于训练模型的特定样本的数据输入错误。有了这些知识,就可以修复该样本并重新训练模型以提高其准确性。
如何使用解释方法?
开发这些解释的一个动机是执行质量保证和调试模型。例如,随着对特征如何影响模型决策的更多理解,人们可以识别模型工作不正确并进行干预以解决问题,或者将模型抛出并重新开始。
另一个最近的研究领域是探索使用机器学习模型来发现人类以前从未发现的科学模式。例如,一个优于临床医生的癌症诊断模型可能是错误的,或者它实际上可能在X射线图像中发现了一些隐藏的模式,这些模式代表了癌症的早期病理途径,这些途径要么人类医生不知道,要么被认为是无关紧要的,周说。
然而,对于该研究领域来说,现在还为时过早。
警告语
虽然解释方法有时对机器学习从业者有用,当他们试图捕捉模型中的错误或理解系统的内部工作原理时,最终用户在尝试在实践中使用它们时应该谨慎行事,CSAIL的助理教授兼健康ML小组负责人Marzyeh Ghassemi说。
随着机器学习被越来越多的学科所采用,从医疗保健到教育,解释方法被用于帮助决策者更好地理解模型的预测,以便他们知道何时信任模型并在实践中使用其指导。但Ghassemi警告不要以这种方式使用这些方法。
“我们发现,解释使人们,无论是专家还是非专家,都对特定推荐系统的能力或建议过于自信。我认为对人类来说,不要关闭内部电路,要求'让我质疑我
得到的建议'是非常重要的,“她说。
她补充说,根据最近的其他工作,科学家们知道解释会让人们过于自信,并引用了微软研究人员最近的一些研究。
远非银弹,解释方法有其问题。首先,Ghassemi最近的研究表明,解释方法可能会使偏见永久化,并导致弱势群体的更糟糕的结果。
解释方法的另一个陷阱是,通常无法首先判断解释方法是否正确。Zhou说,人们需要将解释与实际模型进行比较,但由于用户不知道模型是如何工作的,所以这是循环逻辑。
他和其他研究人员正在努力改进解释方法,以便他们更忠实于实际模型的预测,但周警告说,即使是最好的解释也应该谨慎对待。
“此外,人们通常认为这些模型是类似人类的决策者,我们容易过度概括。我们需要让人们冷静下来,让他们退缩,真正确保他们从这些局部解释中建立的广义模型理解是平衡的,“他补充道。
周永康最近的研究就是要做到这一点。
机器学习解释方法的下一步是什么?
Ghassemi认为,与其专注于提供解释,不如研究界需要做更多的努力来研究信息如何呈现给决策者,以便他们理解它,并且需要制定更多的监管措施,以确保机器学习模型在实践中得到负责任的使用。更好的解释方法本身并不是答案。
“我很高兴看到人们认识到,即使在工业界,我们也不能仅仅利用这些信息,制作一个漂亮的仪表板,并假设人们会表现得更好。你需要在行动上有可衡量的改进,我希望这能带来真正的指导方针,以改善我们在医学等这些深度技术领域的信息显示方式,“她说。
除了专注于改进解释的新工作外,Zhou还希望看到更多与特定用例的解释方法相关的研究,例如模型调试,科学发现,公平性审计和安全保证。通过识别解释方法的细粒度特征和不同用例的要求,研究人员可以建立一种将解释与特定场景相匹配的理论,这可以帮助克服在现实世界场景中使用它们所带来的一些陷阱。
免责声明:本文由用户上传,如有侵权请联系删除!
猜你喜欢
- 庆余年哪集是范闲背诗的(庆余年范闲背诗第几集简介介绍)
- 西游记里面的故事简介(西游记的故事有哪些简介介绍)
- dnf男街霸三觉(dnf86级男街霸\/千手罗汉\/暗街之王二觉刷图加点)
- 产品整体概念的主要内容是什么(什么是产品整体概念简介介绍)
- 英雄联盟手游内测怎么申请内测申请攻略(LOL英雄联盟手游内测在哪申请)
- 剑灵一个南天国金币可以换多少银币(剑灵南天国铁币,银币在哪获得)
- 凯里欧文到底多高(凯里欧文的身高体重是多少简介介绍)
- 申请工伤认定所必需的材料是什么(申请工伤认定所必需的材料是)
- 生日歌歌词(蝶变新生的主题歌歌词)
- 中餐与西餐有什么区别(中餐与西餐有什么区别)
- 索爱k506c(用索爱k510的进一下)
- 我们结婚了初恋夫妇表演舞台(我们结婚了初恋夫妇(泰民)
最新文章
- 中国好声音如果没有你李昊瀚(山野中国好声音李昊瀚唱的那么好为什么淘汰)
- 被套的尺寸是多少(被套尺寸一般是多少简介介绍)
- 怪物x联盟复刻版攻略(怪物x联盟复刻祥云马)
- 阳历是快的还是慢得(快的和慢的哪个是阳历简介介绍)
- 英雄联盟赵信特战先锋(特战先锋德邦总管赵信)
- 凤凰传奇有一首歌叫什么(凤凰传奇有一首歌歌词有)
- 为什么腾讯视频看不了直播(腾讯lpl视频看不了怎么办)
- Blue(Da(Ba Dee) 歌词)
- 联想z475开机黑屏(联想Z475开机超慢怎么回事)
- 吴建豪舞林大会跳的舞(2011舞林大会吴建豪怎么没有看见进复赛)
- 海清结婚了吗现在怎么样了(海清结婚了吗)
- 开十字绣店到哪里进货(开十字绣店在哪里进货怎么进货呢)
- 卫庄大战六剑奴是哪一集(卫庄哪集说的六剑奴是值得一战的对手)
- 微信六年来第一次开始“变脸”为什么
- iphone怎么看已连接wifi密码(iPhone怎么越狱啊)
- 求K233次列车(15车厢的座位号)
- 能链综合能源港里的充电站为何成为香饽饽
- 鸡蛋怎么做比较有营养(鸡蛋怎么做比较好吃)
- lol手游霞怎么出装(LOL新英雄霞与洛逆羽霞如何出装霞怎么出装)
- 穿越火线什么时候上架(穿越火线什么时候能玩)
- 北比臼舅怎么读(北比臼日怎么读)
- 创世之柱任务有什么用(创世之柱任务怎么做)
- 徐磊的歌曲(写给你的歌 徐磊乐演唱作品)
- 广州市经济适用住房准购证明怎么办理(如何取得广州市经济适用住房准购证明)