我们很快就会习惯使用AI工具来帮助解决日常问题和任务。我们也应该习惯质疑他们背后的动机、激励机制和能力。
要真正信任和依赖AI系统,它们必须透明且受我们控制。我们需要理解它们的工作原理,而不仅仅是它们的功能。只有当我们知道这些系统背后的公司和实体时,我们才能判断它们的建议是否受到偏见或意识形态的影响。如果其工作方式不透明,我们就无法确定它们是在为我们服务,还是在为其他未知目的服务。
此外,如果只有少数几家公司控制这些系统,它们就很难为大众所信任。这些公司可能会根据自己的商业利益操纵和开发这些系统,而不是考虑到对社会有利的方式。要建立可信的AI,就必须在广泛的社会参与下开发它,让更多的利益相关者参与进来,而不仅仅是少数几家大公司。
一个高度个性化的AI助手可以让我们的生活更轻松高效,我们可以专注于真正重要的事情。它可以代表我们执行日常任务,理解我们的偏好和兴趣,并为我们提供个性化的帮助。与此同时,它还可以帮助促进更有意义的人际交往,通过翻译陌生语言,识别和过滤不良内容,让讨论保持在主题内。
当然,要实现这一愿景,还需要克服许多技术和社会障碍。我们需要更强大,更通用的AI技术,能够理解语言和代表我们执行复杂任务。我们还需要找到办法让这些系统真正个性化,理解每个人的需求和偏好。而且,最重要的是,我们需要建立信任,让人们相信这些系统会以安全,负责任和符合伦理的方式使用他们的信息和代表他们行事。
今天,大技术公司拥有他们开发的AI系统和产生的大量数据。他们根据自己的商业利益运营这些系统,而很少考虑其对社会的影响。这种模式阻碍了广泛的社会参与,难以建立真正的信任。相比之下,开源软件由全球开发者构建,可以由所有人审查和改进。开放数据也可以让更多人浏览和研究,找出任何偏差或误导。
从敬畏和急切使用到怀疑再到失望,这是科技行业司空见惯的过程。20年前,谷歌的搜索引擎迅速获得垄断地位,因为它具有变革性的信息检索能力。随着时间的推移,该公司对搜索广告收入的依赖导致其降低了这种能力。今天,许多观察人士期待搜索范式的终结。亚马逊也走了同样的道路,从诚实的市场变成充满劣质产品的市场,这些产品的供应商付费让公司向您展示。我们可以做得更好。如果我们每个人都有一个AI助手每天帮助我们完成基本活动,甚至代表我们行事,我们每个人都需要知道它会考虑到我们的利益。建立可信的AI将需要系统性的变化。