首页>生活 >内容

谷歌研究人员探索确保未来人工智能系统安全的方法

生活2021-08-26 08:03:51
最佳答案对未来人工智能系统问题的担忧引起了谷歌研究人员的注意。在该公司的DeepMind团队宣布将与牛津大学的研究人员合作开发流氓AI系统的查杀开关

对未来人工智能系统问题的担忧引起了谷歌研究人员的注意。在该公司的DeepMind团队宣布将与牛津大学的研究人员合作开发流氓AI系统的查杀开关后不到两周,谷歌发布了一篇专门解决AI安全风险的技术论文。

这篇题为“人工智能安全的具体问题”的论文是与斯坦福大学、加州大学伯克利分校和致力于人工智能研究的非营利公司OpenAI的研究人员合作撰写的。

它概述了五个基本问题,研究人员表示,这些问题在今天相对较小,但随着机器在未来变得越来越智能,预测将具有更大的重要性。

谷歌研究员克里斯奥拉奇(Chris Auracher)在该公司的研究博客上表示,本文探索了解决这些问题的实用方法,并确保人工智能系统的设计能够以可靠和安全的方式运行。

奥拉说:“尽管可能存在的AI安全风险已经引起了公众的广泛关注,但之前的大多数讨论都是非常假设和投机的。”他说:“我们认为,关注真实机器学习研究中的问题并开始为工程AI系统开发实用方法非常重要。”

机器学习和人工智能是谷歌的重要领域。该公司表示,希望利用这些领域的进展来提高其核心技术。它在一些应用中应用了人工智能和机器智能技术,包括谷歌翻译、谷歌照片和语音搜索。

该公司首席执行官桑德尔皮帅表示,谷歌希望看到人工智能从根本上改变人们的出行方式,完成日常任务,并解决医疗保健和气候变化等领域的问题。

OpenAI研究人员Paul Christiano和Greg Brockman在他们的博文中指出,先进的AI意味着让AI系统变得更智能、更安全,并在最新发布的技术论文中宣布了该公司的角色。研究人员表示,这意味着“确保人工智能系统能够做人们真正想让它们做的事情”。

新发布的谷歌技术论文中研究的五个问题之一是一种确保AI系统在执行功能时不会对环境产生负面影响的方法。例如,奥拉指出,清洁机器人应该被编程为不撞倒花瓶,即使它可以更快地完成任务。

其他问题包括寻找方法来确保机器人不会从事有负面影响的活动,例如将湿拖把插入电源插座,或者以适当和安全的方式在不同的环境(如车间或办公室)中运行。

OpenAI的Christiano和Brockman说:“许多问题并不新鲜,但本文是在尖端系统的背景下讨论的。”

这份新的技术论文似乎是解决人工智能安全相关问题的日益关注的一部分。例如,谷歌和牛津大学的研究重点是确保未来的超智能AI系统永远不会主动阻止运营商的干扰。目的是确保工程师能够以不稳定或不安全的方式开始安全关闭人工智能系统。

免责声明:本文由用户上传,如有侵权请联系删除!