三三文章网 - 科技知识大全是专业科技新媒体网站。网站著眼于新一代科技新闻的全面及时处理报导,让网民在外面第二时间交待全球新一代的科技资讯。内容涵括AI+、互联网、IT、创业投资、核定、区块链、智能硬件等领域

OpenAI宣布成立新团队来控制“超级智能”

  • 时间:
  • 浏览:0

美国当地时间7月6日星期三,人工智能初创公司OpenAI宣布,将组建一个新的团队,开发一种引导和控制“超级智能”AI系统的方法。该团队由OpenAI的首席科学家兼联合创始人Ilya Sutskever领导。在一篇博客文章中,Suskville和OpenAI协调团队负责人Jan Leike预测,在未来十年内,我们将看到比人类更智能的AI。他们警告说,人工智能并不总是对人类友好的,我们需要研究如何控制和限制人工智能。Suskville和Lake说:“目前还没有解决方案来操纵或控制潜在的超级智能人工智能,控制或防止它失控。当前从人类反馈中调整人工智能的技术,如强化学习,都依赖于人类监督人工智能的能力。然而,人类无法可靠地监督比我们聪明得多的人工智能系统。为了推动“超级智能对齐”领域的发展,OpenAI将创建一个新的超级对齐团队,由Suskville和Lake共同主持,该团队将能够访问OpenAI高达20%的哈希资源。该团队将与OpenAI先前合作部门的科学家和工程师以及该公司其他部门的研究人员合作,在未来四年内解决控制超级智能AI的核心技术挑战。那么,我们如何才能确保比人类聪明得多的人工智能系统遵循人类的意图呢?这就需要Suskville和Lake所说的“人类水平的自动对齐研究人员”。高级目标是使用人类反馈来训练人工智能系统,训练人工智能来帮助评估其他人工智能系统,并最终构建一个人工智能来进行对齐研究。这里的“对齐研究”是指确保人工智能系统不会达到预期的结果或偏离研究轨道。OpenAI的前提是,人工智能可以比人类更快、更好地进行对齐研究。“随着这一进展,人工智能系统将接管越来越多的对齐工作,最终将使我们能够构思,实施,研究和开发比现在更好的对齐技术,”Lake和他的同事John Schulman和Jeffrey Wu在之前的博客文章中假设。“他们将与人类合作,以确保他们的继任者永远与人类保持一致。人类研究人员将越来越多地专注于审查人工智能系统所做的对齐研究,而不是自己进行研究。当然,没有确定的方法。Lake、Schulman和Jeffrey Wu都承认,OpenAI的方法有很多局限性。研究人员表示,在评估中使用人工智能可能会加剧人工智能的不一致性、偏见和脆弱性。因此,对齐问题中最困难的部分可能与工程学完全无关。然而,萨斯克维尔和莱克认为这值得一试。“从根本上说,超智能对齐是一个机器学习问题,我们认为,要解决这个问题,一个好的机器学习专家(即使他们还没有开始研究对齐)是必不可少的。我们将广泛分享这项工作的成果,并将促进OpenAI以外模型的一致性和安全性视为一项关键任务。(资料来源:网易科技)