OpenAI组建专家团队应对超智AI的风险
OpenAI组建专家团队应对超智AI的风险

OpenAI组建专家团队应对超智AI的风险

在各国政府就如何监管AI技术展开辩论之际,OpenAI宣布成立一个专门团队来管理超智AI的风险。超智能是指一种假设中的AI模型,比最聪明最智能的人类更厉害,并且在多个领域的专业知识上都表现出色,而不像之前的某些模型只擅长一个领域。OpenAI认为这样的模型可能在本世纪末出现。“超智能将是人类有史以来最具影响力的技术,可以帮助我们解决许多世界上最重要的问题,”这家非营利组织表示。“但是,超智能的巨大能力也可能非常危险,很可能导致人类失能甚至灭绝。”

新团队将由OpenAI首席科学家Ilya Sutskever和研究实验室的部门负责人Jan Leike共同领导。此外,OpenAI表示将把其目前已获得的计算资源的20%用于这一倡议,目标是开发一种自动化的对齐研究人员。这样的系统在理论上将协助OpenAI确保超智能的安全使用,并与人类价值观保持一致。“虽然这是一个非常雄心勃勃的目标,我们不能保证一定会成功,但我们对集中精力进行努力可以解决这个问题持乐观态度,”OpenAI表示。“已有许多在初步实验中表现出潜力的想法,我们在工作进展方面有了越来越有用的指标,而且我们可以使用现有的模型来研究这些问题。”该实验室还补充说将在未来分享一份计划图。

周三的声明是在全球各国政府考虑如何监管新兴的AI产业之际发布的。在美国,OpenAI的首席执行官Sam Altman在最近几个月里已经与至少100名联邦议员会面。Altman公开表示AI监管是“必要的”,而OpenAI则“渴望”与决策者合作。但我们对这类声明以及OpenAI的Superalignment团队等努力应持怀疑态度。通过将公众的注意力集中在可能永远不会实现的假设风险上,像OpenAI这样的组织将监管的重担转移到了遥远的未来,而不是当前的现实问题。AI与劳动力、错误信息和版权之间的矛盾存在更加迫切的问题,政策制定者需要现在解决,而不是将来。