AI的发展速度足够快,它可能带来的危险也足够明显,OpenAI的领导层认为,世界需要一个像监管核能一样的国际监管机构,而且速度需要尽快。但是,监管的速度也不能太快,需要适度。
OpenAI的创始人和管理团队在博客文章中解释说,AI创新进展的速度是如此之快,现有机构无法充分遏制这项技术。尽管他们的言论中含有一定的自我赞美,但是任何中立的观察者都清楚,这项技术(最明显的是OpenAI广受欢迎的ChatGPT对话机器人)既代表着特有的威胁,也代表着无价的资产。
尽管该博客文章在细节与承诺方面较为薄弱,但仍然承认AI技术不会自行管理:
我们需要在AI领域的主要开发工作之间进行协调,以确保超级智能的安全与社会融合发展。最终,我们可能需要一个类似于国际原子能机构的超级智能监管机构。任何超出一定门槛的超级智能开发工作都需要接受该机构的监管与约束。该机构的监管措施包括检查系统、要求审计、测试安全标准等。
IAEA可以作为超级智能监管机构的参考模型,尽管其行动力可能受限。该机构可以制定与跟踪标准,这是一个起点。OpenAI指出,跟踪AI研究投入的算力与能源是少数可衡量的指标,应该进行监测与审计。小公司可以豁免以鼓励创新。
领先的人工智能研究员和评论家Timnit Gebru在接受《卫报》采访时说了类似的话:“除非有外部压力采取不同行动,否则公司将不会自我监管。我们需要监管,我们需要比仅利润动机更好的东西。”
OpenAI明显支持后一种观点,这让许多人失望,他们希望其履行承诺,但作为行业领导者,其也呼吁在治理方面采取行动,超越表面功夫。虽然该建议实际上是“也许我们应该做点什么”,但它启动了行业内的讨论,并表示行业巨头支持行动。我们急需监管,但还不知如何设计。