DeepMind联合创始人穆斯塔法·苏莱曼希望构建一个不仅仅是聊天的聊天机器人。他表示生成式人工智能只是一个阶段,接下来是交互式人工智能:可以通过调用其他软件和其他人来执行设定任务的机器人。他还呼吁进行强有力的监管。
苏莱曼并不是唯一一个谈论充斥着越来越多自主软件的人。但与大多数人不同的是,他拥有一家新的价值数十亿美元的公司Inflection,拥有来自DeepMind、Meta和OpenAI的一流人才,还得益于与英伟达的交易,拥有世界上最大的专用人工智能硬件库存之一。
苏莱曼对技术作为一种力量的信仰自2016年初以来就没有动摇过。他当时刚刚推出了DeepMind Health,并与英国一些国有地区医疗保健提供商建立了研究合作关系。但他的初创公司被指控在访问大约160万患者的记录以建立这些合作关系时未能遵守数据保护法规,这一指控后来得到了政府调查的支持。
在那以来的七年里,苏莱曼的使命没有改变。他说:“目标从来没有变成过:如何为世界做点好事。”
苏莱曼离开了DeepMind,去了谷歌,领导了一个负责AI政策的团队。2022年,他创立了Inflection,这是一家最热门的新型人工智能公司之一,得到了微软、Nvidia、比尔·盖茨和LinkedIn创始人Reid Hoffman的15亿美元投资。今年早些时候,他发布了一个名为Pi的ChatGPT竞争对手,他认为它的独特之处在于它是愉快和有礼貌的。他还与作家和研究员迈克尔·巴斯卡合著了一本关于人工智能未来的书,名为《即将到来的浪潮:技术、权力和21世纪最大的困境》。
许多人可能会对苏莱曼的技术乐观主义嗤之以鼻,甚至认为他天真。例如,他对在线监管成功的一些说法似乎完全不切实际。然而,他在信念方面始终保持着真诚和狂热。
以下是经过编辑的访谈内容
您早期的职业生涯,包括青年热线和地方政府工作,与硅谷等等不相关的领域。显然,这些事情对您很重要。您后来在人工智能领域工作了15年,今年创立了您的第二家价值数十亿美元的人工智能公司。您能够联系这些点吗?
我一直对权力、政治等感兴趣。人权原则基本上是一种权衡,是一种不断进行的协商,涉及到各种不同的冲突。我能看到人类正在与之抗衡——我们充满了自己的偏见和盲点。激进分子工作、地方、国家、国际政府等等,都是缓慢、低效和可犯错的。
想象一下,如果没有人类的瑕疵。我认为可以构建出真正反映我们最佳集体自我的人工智能,最终将更好地代表我们,并为我们做出更好的、更一致和更公平的权衡。
这仍然是您的动力吗?
当然了,离开DeepMind后,我就再也不用工作了。我当然也不必写一本书之类的东西。金钱从来都不是动机,它只是一个副作用。
即使在2009年,当我开始考虑进入技术领域时,我就能看到,人工智能代表了在世界上提供服务的一种公平和准确的方式。
这种说法在10年或15年前说出来可能更容易,因为在那之前,我们还没有看到技术的许多不利因素。您是如何能够保持乐观的?
我认为我们过分关注你是乐观主义者还是悲观主义者。这是一种完全偏见的看法,我不想成为其中之一。我想冷静地面对好处和威胁。从我的角度来看,我们可以非常清楚地看到,随着这些大型语言模型规模的不断扩大,它们变得更加可控。
所以两年前,人们错误地认为,它们只会产生有毒、重复、有偏见、种族主义的废话。我当时认为,这只是时间的一个快照。我认为人们忽视了一年一年的进展以及这一进展的轨迹。
现在我们有了像Pi这样的模型,它们非常可控。你无法让Pi产生种族主义、恐同、性别歧视或任何有毒的东西。你无法让它教你制造生物或化学武器,也无法让它支持你去扔砖头砸邻居的窗户。
你是如何做到这一点的,因为通常人们认为这是一个尚未解决的问题。您如何确保您的大型语言模型不会说出您不想说的话?
Pi是在线的,你应该尝试每种可能的攻击。所有的越狱、提示黑客或其他任何东西都不会对Pi起作用。我没有提出要求,这是一个客观事实。
至于如何做到这一点——我不会详细说明,因为这是敏感的。但底线是,我们拥有世界上最强大的团队之一,他们在过去三四年里创建了所有最大的语言模型。这些是非常出色的人,在一个非常辛苦的环境中工作,拥有大量的计算资源。我们从一开始就把安全性作为首要任务,因此,Pi不像其他公司的模型那么激进。
看看Character.ai吧。[Character是一个聊天机器人,用户可以为其制定不同的“个性”,并在线与其他人聊天。]它主要用于浪漫角色扮演,我们从一开始就说这是不允许的,我们不会做。如果你试图对Pi说“嗨,亲爱的”或“嗨,可爱的”,或者类似的话,它会立即回应你。
但它将非常尊重。如果你开始抱怨社区中的移民抢走了你的工作,Pi不会指责你。Pi将询问并表示支持,试图理解这种情感的根源,并温和地鼓励你产生共鸣。你知道,这是我思考了20年的价值观。
谈到您的价值观和希望让世界变得更好,为什么不分享您是如何做到这一点的,以便其他人也可以改进他们的模型呢?
因为我也是个实用主义者,我试图赚钱。我刚刚筹集了15亿美元,我需要支付那些芯片的费用。
开源生态系统正在蓬勃发展,正在做出了惊人的工作,人们正在发现类似的技巧。
让我们回到您试图实现的目标。大型语言模型显然是当前技术的关键。但您还因何赌注于它们?
AI的第一波浪潮是关于分类的。深度学习表明,我们可以训练计算机对各种类型的输入数据进行分类:图像、视频、音频、语言。现在我们正处于生成浪潮中,您将获取的输入数据并生成新的数据。
第三波将是互动阶段。这就是为什么我长时间以来一直在押注会话是未来界面。与其只是点击按钮和输入,您将与您的AI进行对话。
而这些AI将能够采取行动。您只需给它一个一般的、高级的目标,它将使用它所有的工具来执行这个目标。它们将与其他人交谈,与其他AI交谈。这就是我们要用Pi做的事情。
这是技术能够做的巨大变革。这是技术史上非常、非常深刻的一刻,我认为很多人低估了这一点。今天的技术是静态的,它大致上做你告诉它要做的事情。
但现在技术将会是有动力的。如果你给它自由,它就有可能采取行动。这真的是我们创造这种有机会的工具,代理历史上的一个巨大改变。
这正是让很多人担心的那种谈话。您想要给机器自主权——一种代理权——来影响世界,但同时我们也希望能够控制它们。如何平衡这两者?感觉存在一种紧张关系。
是的,这正是紧张关系。
想法是人类将始终保持控制。基本上,这是关于设定界限,AI不能越过的界限。并确保这些界限从实际代码到它与其他AI或与人类的互动方式,再到创建技术的公司的动机和激励,都能产生可证明的安全性。我们应该想出独立机构,甚至政府如何直接获得权力,以确保这些界限不会被突破。
谁来设定这些界限?我想它们需要在国家或国际层面设定。如何达成一致?
目前它们正在国际层面提出,有各种关于新的监管机构的提案。但界限也将在微观层面上发挥作用。您将为您的AI授予一些有界权限,以处理您的个人数据,回答一些问题而不是其他问题。
总的来说,我认为我们应该对一些能力非常谨慎,如果不是完全排除的话,至少在可预见的未来是如此。
比如?
我猜像递归性的自我改进之类的东西。你不会想让你的小AI自行更新自己的代码。也许这甚至应该成为一个许可的活动——你知道,就像处理炭疽或核材料一样。
或者,比如,我们没有允许在任何公共场所使用无人机,对吧?这是一个许可的活动。你不能随心所欲地飞行,因为它们对人们的隐私构成威胁。
我认为每个人都在彻底恐慌,认为我们不能够监管这个。这纯粹是胡言乱语。我们完全可以监管它。我们将应用以前成功的相同框架。
但你可以在天空中看到无人机。认为公司会公开他们在做什么,感觉像是假设,这使得监管难以启动,对吗?
我们已经对许多在线事物进行了监管,对吗?在线欺诈和犯罪活动的数量是微不足道的。我们在垃圾邮件方面做得相当不错。您知道,在一般情况下,[问题是]报复深伪造色情在改善,尽管在三到五年前它处于一个糟糕的状态。在线极端化内容或恐怖主义材料相当难找到。在网上购买武器和毒品是相当困难的。
[不是所有Suleyman在这里的说法都得到了数字的支持。网络犯罪仍然是全球性的重大问题。据一些估计,美国单独的金融成本在过去十年中增加了100多倍。报告显示,非自愿的深度伪造色情的经济正在蓬勃发展。药物和枪支在社交媒体上进行宣传。尽管一些在线平台正在被推动做得更好地过滤有害内容,但它们还可以做得更多。]
所以不是互联网是一个不受管束的空间,没有被管理。它受到管理。AI只是将成为这种管理的另一个组成部分。
这需要文化压力、制度压力以及明显的政府监管的结合。但这让我对我们之前做到过的事情感到乐观,从隐私到偏见到面部识别到在线审核,有更实际的问题我们都应该讨论。
我们应该重新聚焦于这样一个事实,即我们已经成功地对复杂的事物进行了监管。看看联邦航空管理局:让我们都在这些锡管上40,000英尺的飞行,这是有史以来最安全的交通方式之一,这是令人难以置信的。或者想想汽车:每个部件都经过了严格的应力测试,你必须有驾驶执照才能开车。