生成式AI不能信任?但并不意味着我们应该害怕它
生成式AI不能信任?但并不意味着我们应该害怕它

生成式AI不能信任?但并不意味着我们应该害怕它

尽管ChatGPT的发布引起了关于生成式人工智能对技术的革命性影响的许多讨论,但人们也同样关注该技术的一些缺点。事实上,关于生成式人工智能对社会可能造成危害的影响、其可能的负面应用以及其发展所带来的重大伦理问题已经引发了一些激烈的辩论。

从IT和软件开发的角度来看,人们对生成式人工智能在处理关键和创造性任务方面的可信度问题产生了许多讨论。许多人预测生成式人工智能在这方面将产生最显著的影响,但其中一个问题一直困扰着人们:企业到底能够多少信任这项技术来处理他们的关键和创造性任务?

目前来说,实际上并不多。这项技术存在很多不准确性和可靠性问题,缺乏企业完全依赖的真实世界背景。同时,对于其安全漏洞也存在合理的担忧,尤其是恶意使用者如何利用这项技术制造和传播具有误导性的深度伪造内容。

所有这些担忧确实需要企业质疑它们是否能真正确保生成式人工智能的负责使用。但这些担忧也不应该让企业感到恐惧。当然,企业必须始终平衡谨慎与技术的无限可能性。但企业决策者,尤其是技术专业人员,应该已经习惯了在面对承诺颠覆整个行业的新创新时负责任地行动。

让我们来具体分析为什么要这样做。

从过去的创新中学习

生成式人工智能并非第一个受到恐惧和怀疑的技术。即使是云计算,自从远程工作革命开始以来一直是救命稻草,也曾在企业领导层中引起警觉,担心数据安全、隐私和可靠性问题。由于对未经授权访问、数据泄露和潜在的服务中断的担忧,许多组织实际上犹豫不决,不敢采用云解决方案。

然而,随着云服务提供商改进安全措施、实施强大的数据保护协议,并展示了高可靠性,组织逐渐接受了云计算。

开源软件(OSS)是另一个例子。最初,人们担心它在质量、安全性和支持方面无法与专有替代品相比。由于对未受监管的代码修改和缺乏问责制的担忧,怀疑态度仍然存在。但开源运动逐渐获得了势头,导致了高度可靠和广泛采用的项目的发展,如Linux、Apache和MySQL。如今,开源软件在IT领域无处不在,提供了经济实惠的解决方案、快速创新和社区驱动的支持。

换句话说,在经历了最初的谨慎后,企业采用并接受了这些技术。

应对生成式 AI 的独特挑战

这并不是要贬低人们对生成式人工智能的担忧。毕竟,这项技术围绕着一长串独特且合理的问题。例如,在企业真正信任这项技术之前,必须解决公平性和偏见的问题。生成式人工智能模型是通过现有数据进行学习的,这意味着它们可能会无意中延续训练数据集中存在的偏见和不公平做法。这些偏见反过来可能导致歧视性或偏颇的输出结果。

事实上,对400位首席信息官和首席技术官进行的关于他们对生成式人工智能的采用和看法的调查中,当被问及他们对伦理问题的关注时,“确保公平和避免偏见”被认为是最重要的伦理考虑因素。

不准确或微妙的“幻觉”是另一个威胁。虽然这些不是巨大的错误,但它们仍然是错误。例如,当让ChatGPT告诉我关于我的企业时,它错误地列举了三家特定的公司作为过去的客户。

这确实是一些必须解决的问题。但如果你深入挖掘,你会发现一些问题可能被夸大了,比如那些猜测这些由人工智能驱动的创新将取代人类人才的观点。你只需要进行一次快速的谷歌搜索,就能看到关于前十个岗位面临风险或为什么人们对人工智能感到焦虑的头条新闻。通常,它对软件开发的影响是一个特别热门的话题。

但如果你问IT专业人士,这真的不是一个值得担心的问题。失业排在首席信息官和首席技术官在之前提到的调查中的伦理考虑因素的最后一位。此外,超过88%的人表示他们相信生成式人工智能无法取代软件开发人员,有一半的人表示他们认为它实际上会增加IT领导者的战略重要性。

破解生成式AI未来的密码

企业需要意识到在应对生成式人工智能时需要谨慎,就像他们在应对其他新兴技术时一样。但他们可以这样做,同时庆祝这项技术在推动IT行业和其他领域的进步方面所带来的变革潜力。事实上,这项技术已经在改变IT和软件开发领域,企业将永远无法阻止它的发展。

而且他们也不应该希望阻止它,因为它有望增强他们最优秀的技术人才的能力,并提高软件的质量。这些能力是他们不应该害怕的。同时,这些能力只有在解决生成式人工智能的缺陷时,才能完全发挥出来。只有这样,他们才能最大限度地利用生成式人工智能的力量来支持IT和软件开发,提高效率,并构建更先进的软件解决方案。