未来将如何在道德上使用人工智能AI责任实验室有计划

人工智能2022-06-30 14:31:54
最佳答案随着人工智能在所有行业和社会几乎每个方面的使用增长,越来越明显地需要对负责任的人工智能进行控制。负责任的人工智能是关于确保以一种不

随着人工智能在所有行业和社会几乎每个方面的使用增长,越来越明显地需要对负责任的人工智能进行控制。

负责任的人工智能是关于确保以一种不道德的方式使用人工智能,这有助于尊重个人隐私,并且通常也避免偏见。似乎有源源不断的公司、技术和研究人员在处理与负责任的人工智能相关的问题。现在,恰如其分的AI责任实验室(AIRL)也加入了这场斗争,宣布了200万美元的种子前资金,同时推出了该公司的任务控制软件即服务(SaaS)平台。

领先的AIRL是该公司的首席执行官拉姆齐·布朗(Ramsay Brown),他在南加州大学接受过计算神经科学家的培训,在那里他花了很多时间绘制人脑图谱。他的第一家创业公司最初被称为多巴胺实验室(Dopamine Labs),更名为Boundless Mind,专注于行为工程以及如何利用机器学习来预测人们的行为方式。Boundless Mind于2019年被Thrive Global收购。

在AIRL,布朗和他的团队正在研究人工智能安全问题,确保以不损害社会或使用该技术的组织的方式负责任地使用人工智能。

“我们创立了公司,并为Mission Control构建了软件平台,首先帮助数据科学团队更好,更准确,更快地完成工作,”布朗说。“当我们环顾负责任的人工智能社区时,有些人正在研究治理和合规性,但他们并没有与数据科学团队交谈,也没有发现真正有害的东西。

数据科学团队需要什么来创建负责任的 AI

布朗强调指出,没有一个组织可能开始构建一个故意有偏见的人工智能,并以不道德的方式使用数据。

相反,在具有许多移动部分和不同人员的复杂开发中,通常发生的事情是数据被无意中误用或在不完整的数据上训练机器学习模型。当 Brown 和他的团队询问数据科学家缺少什么以及哪些因素损害了开发工作时,受访者告诉他,他们正在寻找项目管理软件,而不是合规性框架。

“那是我们重要的'啊哈'时刻,”他说。“团队实际上错过的不是他们不了解法规,而是他们不知道他们的团队在做什么。

Brown 指出,二十年前,随着 Atlassian 的 Jira 等仪表板工具的发展,软件工程发生了革命性的变化,这些工具帮助开发人员更快地构建软件。现在,他的希望是AIRL的任务控制中心将成为数据科学的仪表板,帮助数据团队通过负责任的AI实践构建技术。

使用现有的 AI 和 MLops 框架

如今,组织可以使用多种工具来帮助管理AI和机器学习工作流程,有时将其归入MLops的行业类别。

流行的技术包括AWS Sagemaker,Google VertexAI,Domino Data Lab和BigPanda。

布朗说,他的公司在构建任务控制服务时学到的一件事是,数据科学团队有许多不同的工具,他们更喜欢使用。他说,AIRL并不打算与MLops和现有的AI工具竞争,而是为负责任的AI使用提供覆盖层。AIRL所做的是开发了一个开放的API端点,以便使用Mission Control的团队可以从任何平台通过管道传输任何数据,并将其最终作为监控过程的一部分。

AIRL的任务控制为团队提供了一个框架,以临时方法采取他们一直在做的事情,并为机器学习和人工智能操作创建标准化流程。

Brown说,Mission Control使用户能够将数据科学笔记本变成可重复的流程和工作流程,这些流程和工作流程在配置的参数范围内工作,以便负责任地使用AI。在此类模型中,数据连接到监视系统,该系统可以在违反策略时向组织发出警报。例如,他指出,如果数据科学家使用策略不允许用于特定机器学习操作的数据集,则Mission Control可以自动捕获该数据集,向经理升起标志并暂停工作流程。

“这种信息集中化创造了更好的协调和可见性,”布朗说。“它还降低了具有真正粗糙和不良结果的系统最终投入生产的可能性。

展望2027年和负责任的人工智能的未来

展望2027年,AIRL制定了路线图计划,以帮助解决有关AI使用和人工智能(AGI)潜力的更高级问题。该公司2027年的重点是实现一项名为“合成劳动激励协议”(SLIP)的努力。基本思想是拥有某种形式的智能合约,以便在经济中使用AGI驱动的劳动力。

“我们正在研究人工智能的出现,作为物流业务和社会层面的关注点,需要不是用”科幻术语“来谈论,而是用实际的激励管理术语来谈论,”布朗说。

免责声明:本文由用户上传,如有侵权请联系删除!