Deloitte引入可信赖的AI框架 以指导组织在当今时代道德应用技术

人工智能2020-09-29 21:13:25
最佳答案德勤(Deloitte)对企业AI采用者的第三版企业版AI的最新研究发现,95%的受访者担心该技术的道德风险。此外,超过56%的研究受访者认为,由于新

德勤(Deloitte)对企业AI采用者的第三版企业版AI的最新研究发现,95%的受访者担心该技术的道德风险。此外,超过56%的研究受访者认为,由于新兴风险,其组织正在放缓AI技术的采用。为了帮助公司积极应对AI道德和诚信问题,德勤AI研究所宣布了其Trustedy AI™框架。该框架旨在指导组织如何在企业中负责任地和道德地应用人工智能。

德勤会计师事务所(Deloitte&Touche LLP)AI联合负责人艾尔凡·赛夫(Irfan Saif)表示:“高级管理人员和董事会必须就技术的道德使用提出棘手的问题,并提供积极的治理以维护其组织的声誉并维护内部和外部利益相关者的信任。“组织必须展示出准备好应对人机协作带来的新型风险。我们值得信赖的AI框架提供了一种通用语言,可以帮助组织制定适当的防护措施并以道德的方式使用AI。”

德勤的可信赖AI框架引入了六个维度,供组织在设计,开发,部署和操作AI系统时考虑。该框架有助于管理与AI道德和治理相关的常见风险和挑战,包括:

1) 公平和公正的使用检查:关于AI的一个普遍关注的问题是如何避免人类在编码过程中引入的偏见。为避免这种情况,公司需要确定构成公平的内容,并在其算法和数据中积极识别偏差,并实施控制措施以避免意外结果。

2) 实现透明度和可解释的AI:为了使AI值得信赖,所有参与者都有权了解如何使用其数据以及AI系统如何做出决策。组织应准备好构建可供检查的算法,属性和相关性。

3) 责任感和责任感:可信赖的AI系统需要包含明确确定谁对他们的输出负责和负责的政策。这个问题集中体现了AI的未知领域:开发人员,测试人员或产品经理的责任?是了解内部工作原理的机器学习工程师吗?还是将最终的责任提升到更高的级别–对于首席信息官或首席执行官,他们可能不得不在政府机构面前作证?

4)设置 适当的安全性:为了值得信赖,必须保护AI免受可能导致物理和/或数字伤害的风险,包括网络安全风险。公司需要彻底考虑和解决各种风险,然后将这些风险传达给用户。

5) 可靠性监控:要使AI能够被广泛采用,它必须与它正在增强的传统系统,流程和人员一样强大和可靠。公司需要确保其AI算法对于每个新数据集都能产生预期的结果。他们还需要建立已建立的流程,以处理出现的问题和矛盾之处。

6) 保护隐私:可信赖的AI必须遵守数据法规,并且仅将数据用于其陈述和同意的目的。组织应确保尊重消费者的隐私,不会超出其预期和规定的用途来利用客户数据,并且消费者可以选择加入和退出共享其数据。

可信赖的AI框架还旨在帮助企业增加品牌资产和信任度,这可以导致新客户,员工保留和更多客户选择共享数据。其他潜在的好处包括由于更好的数据源以及减少的法律和补救成本而通过更准确的决策来增加收入和降低成本。

Deloitte Consulting LLP的AI联合负责人Nitin Mittal说:“采取适当的措施来利用AI的力量,同时管理风险,可以帮助组织获得指数级的收益。” “正确的保护措施不仅有助于维护信任,还使组织能够在Age of With ™方面进行创新,突破界限并取得更好的结果。”

除了帮助客户在其组织内推动可信赖的AI之外,德勤还通过在其自己的组织内注入道德思维来实践框架的原则。这是通过内部开发计划实现的,其中包括“技术精明”计划,该计划使从业人员不断学习破坏性技术,并将合乎道德的AI纳入项目审查流程。德勤还聘请外部道德专家和学术机构进行全面的客户对话,并推进有关AI道德的思考,以确保考虑所有观点。

德勤AI研究所德勤咨询有限公司执行董事Beena Ammanath说:“准备好接受AI的组织必须以信任为中心。“我们不仅致力于帮助客户了解AI道德,而且致力于维护我们自己组织内的道德心态。”

免责声明:本文由用户上传,如有侵权请联系删除!