ChatGPT在2023年获得了主流关注,改变了科技巨头公司对人工智能(AI)的态度。这标志着AI战争的重大转折点,这是一场领先科技公司竞相开发最先进AI技术的竞赛。
尽管人工智能的研究和发展已有数十年历史,但大型语言模型(LLMs)却成功吸引了消费者市场的注意。如今,谈话型和生成型AI似乎变得越来越像人类,尤其是现在模型正在使用大量数据集进行训练。
主流媒体在解释LLMs是什么以及它们实际能做什么时,常常关注这些AI模型能力中最令人担忧的方面。AI会取代我们的工作吗?AI会导致世界末日吗?AI会滥用个人数据吗?
在今天的文章中,我们将揭示许多媒体关于AI的观点,并从微软AI首席执行官Mustafa Suleyman的见解中获得更多了解。
“通用人工智能(AGI)是危险的,值得担忧。”
Suleyman解释道,人们往往过于关注超级智能的概念——一种能够比人类更快、更好地完成所有任务的人工通用智能(AGI)。
“人们倾向于认为AGI是不可避免的、值得追求的,并且它会在明天就到来。但我认为这两种观点都不正确。AI是一种前所未有的技术,作为一个物种,我们需要建立一种新的全球治理机制,以确保技术始终服务于我们,使我们更健康、更快乐、更高效,并为世界增添价值。”Suleyman这样解释道。
尽管理论上是可能的,但AGI(通用人工智能)可能永远不会实现。我们应该继续认真对待与通用人工智能相关的安全风险,倡导安全和伦理,但这并不是因为《终结者》的Skynet是一个真实的可能性。因为AGI可能变成Skynet而感到恐惧,就像因为一个完成了锁匠学徒训练的人可能会渗透到五角大楼并窃取政府机密而感到恐惧一样。
真正的危险已经在我们身边:选举虚假信息、虚假新闻的迅速传播、伪造的图片和视频、金融诈骗等等。在一个AI被民主化的世界里,任何人都可以轻松访问AI,它可以被用来影响和伤害人们,规模之大是以前无法想象的。唯一的保护措施就是治理。
“大型科技公司呼吁监管是一种保护性措施。”
许多科技行业领导人在参议院听证会上表达了对AI监管的支持,但媒体报道却像是这些呼吁不是真诚的,暗示这些只是为了在问题出现时保护自己而作出的空洞言辞。
在美国,政府监管通常是不受欢迎的。这就是为什么最近的科技行业治理例子(例如个人数据保护或充电标准)大多来自欧盟。然而,Suleyman并不害怕监管。
“自20世纪20年代以来,我们就开始对汽车进行监管,这使得汽车不断改进。监管不仅涉及汽车本身,还包括街灯、交通灯、人行横道,以及围绕汽车开发和驾驶的安全文化。因此,这是一个我们需要鼓励的健康对话。”
尽管如此,他也承认,糟糕的监管也可能成为问题,因为它可能会拖慢创新的步伐。例如,苹果公司对他们不得不淘汰Lightning接口的方式提出了批评:当欧盟强制制造商使用USB-C时,下一代充电端口的创新是否会受到影响?
“在AI安全问题上投入的资源还远远不够。”
虽然AI研究和开发中的资源呈指数级增长,但人们对这些资源是否被正确用于解决安全问题存在分歧。一些人认为,解决这一问题的唯一方法是投入人力专门研究如何实现断电安全机制,但实际上,许多重大问题可以通过更多的计算能力来解决。
“在过去的十年里,每次你增加10倍的计算能力,都会带来可测量的能力提升,模型产生的幻觉减少了,能够吸收更多的事实信息,能够整合实时信息,并且在风格控制方面更具开放性,从而可以调整它们的行为。”Suleyman说道。
今天的模型还不能实时核查政治辩论,因为它们仍然无法区分事实与虚假信息,后者通常来自未经验证的来源。但我们离实现实时自动化事实核查的目标越来越近,特别是因为我们有能力让人类确认这些来源是否可信。
人类推理是通过行为观察形成的。当我们一再看到或做同样的事情时,我们往往会获得信任,并变得更加可靠。AI模型的工作方式类似,需要大量数据和记忆来保持足够大的上下文,以便它们能够确定性地回答问题,避免产生幻觉。
“AI公司窃取了世界的知识产权。”
AI模型需要在大量信息上进行训练,这些信息传统上来自开放网络。问题是,什么是开放网络?它的边界在哪里?
几十年来,我们一直在将数据上传到免费的在线服务:Facebook、Twitter、YouTube、WordPress以及数千个其他发布网站。现在很明显,一些公司一直在抓取在线内容用于训练。当个人内容,如YouTube视频,被转换为可以用于AI训练的文本时,谁应拥有这些知识产权(IP)?
“对于已经存在于开放网络上的内容,自90年代以来的社会契约一直是公平使用。任何人都可以复制、再现或重新创造这些内容。这一直是共识。有一个单独的类别是网站、出版商或新闻组织明确表示‘不要抓取或爬取我,除非是为了索引’。这是一个灰色地带。”
Suleyman对开放网络有非常宽松的解释,他建议通过诉讼来解决这些灰色地带的问题。他认为,信息经济即将发生根本性变化,因为知识生产的成本正在趋近于零边际成本。实际上,这已经在发生——AI正在帮助科学家加速他们的研究、发现,最终实现他们的发明。
但如何对之前的艺术和研究进行归属和引用呢?当AI的训练数据是一个难以管理的大块数据时,这个问题如何解决?还有商业案例,其中数据被用来产生利润却没有回馈给原始来源?不幸的是,这些问题没有令人满意的答案。Suleyman建议诉讼作为解决方案似乎不太现实,因为它在大规模应用时效果有限。
“AI将消除学习和写作论文的需要。”
大型语言模型(LLMs)正在彻底改变人们创造内容的方式;写一篇专业的文章、邮件或论文变得前所未有的简单。教师和家长正在遭受其后果,担心他们的孩子没有学到成人生活中所需的关键技能。
“谁能掌握多种社交语言?谁能迅速适应?这种灵活性将成为最有价值的技能之一,与开放的心态一起,不要对即将到来的事物抱有偏见或恐惧,拥抱技术。[…] 我认为,我们必须对害怕每种工具的负面影响保持一些谨慎。”
Suleyman将AI在教育环境中的使用与使用计算器即时解答方程式进行比较。他认为,不进行心算并不会让我们变得更愚蠢,并迅速转向了这样一个观点:拥抱技术并以灵活的方式进行治理,是对新发明的最佳反应方式。
“AI技术中存在着权力过度集中的问题。”
可以说,社会的许多层面上存在着权力过度集中的现象——新闻组织、金融机构,以及科技公司。这使得在需要大量经济资源的新领域(如AI)进行创新变得复杂。虽然将先进模型开源可以帮助企业家,但科技巨头是否是创业创新的守门人呢?Suleyman似乎认为是这样的。
“实际情况是,随着时间的推移,权力会积累。它有倾向吸引更多的权力,因为它可以生成知识和金融资源来取得成功,并在开放市场中脱颖而出。所以,虽然在微软、Meta、谷歌等公司之间看起来是一种极具竞争的局面,但也很明显,我们能够进行在企业历史上前所未有的投资。”
Suleyman继续辩称,一些最优秀的AI模型已经开源,但他为使用私有源代码的大型模型辩护,这些模型需要巨大的计算能力和能源,并且可以提供令人愉悦的用户体验,从而使科技巨头在AI战争中相较于小型或新兴公司具有优势。
“AI给能源网格带来了前所未有的负担。”
所有主要智能手机制造商都将AI作为其2024年旗舰设备的亮点之一。三星、谷歌和苹果都在押注于将设备上的AI计算与对在线AI计算的战略依赖相结合,以提升照片、文本和文档的处理能力,同时应对更复杂的查询。
几年前,没人谈论大型语言模型(LLMs),而今天,我们正面临着代理爆炸:AI机器人能够理解我们的需求,并代表我们执行任务,组织生活、优先排序并进行规划。
这些新功能和能力有一个共同点,那就是满足计算需求所需的巨大能量。每个AI查询都有一个明确的成本,每家公司都需要支付,这转化为土地、水资源和电力成本,最终用户通过订阅费用或购买新AI设备时承担这些费用。
Suleyman提到,“微软将于今年年底实现100%使用可再生能源,到明年年底实现100%可持续水资源使用,并计划在2030年实现完全净零碳排放。”其他科技巨头也有类似的环保目标。
但这并没有改变AI对处理数据中心所在地区的能源基础设施产生日益增长的影响。以当前的增长速度,科技巨头需要更直接地投资,以帮助改善地方基础设施,避免能源危机。
随着AI的持续发展,公司和消费者在这场技术变革中必须保持警觉和责任感。虽然潜在的好处巨大,但挑战也同样严峻:AI不仅将影响我们未来的设备,还将影响整个社会。