人工智能失控了吗?政府或行业本身是否需要阻止它?我们与下个月将在奥克兰举行的“2023未来状态”的一些演讲者进行了交谈,以收集他们的观点。
如果你在科技或创意产业工作,最近几个月你将无法避免使用“AI”这个词。从像DALLE这样的AI艺术生成器到Chat GPT,微软已经花费了数亿美元将其整合到Bing搜索和Office软件中,AI似乎正在接管任何地方。
当然,受影响的不仅仅是创意人员和技术人员。它正在影响整个社会。人工智能现在可以自动生成令人信服的文章和报告,尽管它们经常充斥着不准确之处(有时被称为“幻觉”)。人工智能还可以创建虚假的照片和视频,甚至可以令人信服地模仿自然对话,以至于很难分辨您是在与机器人还是在电话中与真人交谈。这种变化的速度让很多人感到担忧。
我们谈论的不仅仅是那些不懂技术或只是害怕任何新事物的普通笨蛋。我们谈论的是那些首先对这种软件的出现负有广泛责任的科技巨头。
具体来说,上个月,埃隆·马斯克资助的生命未来研究所起草了一封信,呼吁暂停六个月开发“比GPT-4更强大”的人工智能系统,并利用这段时间制定安全协议。信中说,否则,各国政府应该介入并执行暂停。
包括埃隆·马斯克、史蒂夫·沃兹尼亚克、埃文·夏普、克里斯·拉森、加里·马库斯和安德鲁·杨在内的签署者表示,他们之所以发出警报,是因为担心不受限制的人工智能发展可能导致“地球生命史的深刻变化”。具体的担忧包括人工智能宣传的可能性、失业以及对社会可能失去控制的普遍担忧。大约在同一时间,意大利政府禁止OpenAI处理用户数据,并对ChatGPT展开调查。
总之,人工智能的快速发展给人类社会带来了深刻影响。一些科技界领袖和机构呼吁暂停发展某些强大的人工智能系统,以确保其安全性。部分政府也开始介入,限制人工智能在某些方面的应用。然而,人工智能发展势头如火如荼,要么被利用,要么被滥用,这无疑将是人类未来面临的一大挑战。
“民主需要保护。”
剑桥大学人工智能伦理与社会教授Jonnie Penn博士,他认为对Chat-GPT等大型语言模型存在很多误解。“这些系统被称为’单词计算器’,虽然这是一个令人兴奋的比喻,但它也具有误导性,”他解释道。
“无论你多久使用一次计算器,它都不会改变数字是什么。数字保持不变。不幸的是,这些“人工智能”模型的使用将污染我们的日常语言,其方式非常难以发现,并且后果会很严重。不过,值得庆幸的是,通过严格的监管,这种结果是可以避免的。
简而言之,他认为现代科技产业无法再自我监管。
“我更喜欢立法,而不是暂停人工智能。”
虽然阿迪达斯数字体验设计全球总监康斯坦丁·加夫里洛克同意人工智能需要受到监管,但他并不相信阻止其发展的想法。“就个人而言,作为早期采用者,我想到的第一件事就是’不’;当然,我们现在不应该放慢脚步,“他说。“当整个话题在多个层面获得前所未有的牵引力时,从政府和机构到企业,再到个人,我们可能不应该阻止它。”
康斯坦丁补充说,他理解为什么不同的政党试图按下暂停按钮。“尽管人工智能已经存在了几十年,但由于计算能力的提高,现在它正在达到新的能力。这会导致恐惧和担忧,而恐惧和担忧只会随着信息传递的访问和速度的提高而放大。尽管如此,作为技术界的一员,加夫里洛克相信他们有能力引入理想的变革。
“我们需要一个长期的方法。“
康尼夫对科技巨头建议暂停人工智能发展的做法感到惊诧和愤慨。
他认为,这些技术公司试图将人工智能发展置于拘束,就像父母告诉孩子们他们喜欢的音乐“不再是真正的音乐”一样。他反问,这些技术公司在最初推动技术发展时,考虑过什么道德框架?最终导致了如此高的焦虑程度,并以此为名收集个人数据?
现在,这些技术公司被自己培养的一代人用威胁到的技术超过,却把“道德问题”归咎为“道德问题”。康尼夫认为,任何明智的人都会觉得,最好是将少数富人送到荒芜的星球,而不是为那些本来宜居的星球制造越来越棘手的解决方案。
康尼夫的观点可以概括为:技术公司推动科技发展,却在发展超出控制时对其“道德”产生疑问,这是自相矛盾的。作为技术推动者,他们应为技术发展的后果负责,而不应推诿责任或阻碍发展以解决问题。真正的解决之道在于找到平衡,使技术以负责任和可持续的方式服务人类,而非制造更多问题。
“我们正处于拐点”
科技行业普遍认同,不受限制和随心所欲的人工智能发展方式是不可取的。
丹妮尔·克雷特克·科布创立谷歌同理心实验室,现离开谷歌并共同创立非营利组织“祖母AI”。她并不盲目拥护人工智能技术。在一线,她意识到需要解决的问题,并认为讨论暂停只会分散注意力。
她认为,暂停虽好过盲目发展,但这是一种思维技巧。当务之急是如何优先考虑人工智能培训中的情感和文化方面——如何扩大这些讨论,包括新视角和新的认知方式。
大型语言模型的训练语料库中缺失大量重要数据:强调新兴社会科学的要点,广泛的文化表达,心智和自然智慧。人工智能目前还没有优先考虑这些方面。