观点 | 何以为战?关注人工智能发展带来的伦理问题

PC
本文作者 | Patrice Caine,泰雷兹集团董事长兼首席执行官

 

 人工智能是否将取代人类?它会否与人类为敌?或者对我们构成威胁?

随着生成式人工智能工具的大规模部署和少数公众人物耸人听闻的言论表态,类似这样的问题层出不穷,引起了广泛的公众讨论和媒体关注。尽管从哲学角度来看,这些猜测都很有趣,但大多数专家普遍认为,现在谈论这些问题还为时过早。

诚然,人工智能具有巨大的潜力。这一技术不仅可以实现大量任务的自动化,还能催生新的服务,并最终提高经济效率。生成式人工智能的出现标志着这一潜在趋势开启了一个新阶段,而我们在探索其应用方面尚处于开端。

然而,一个不容忽视的事实是,尽管人工智能系统具备卓越的性能,但其本质仍然是机器,只不过是内置于处理器中吸收大量数据的算法而已。

经常有报道称,这些新工具能够通过图灵测试。这或许是真的,但这项曾经被视为区分人类智能和人工智能的测试,早已失去了实际意义[1]。这些机器不具备完整意义上的人类智能(即涉及敏感性、适应环境能力、同理心……)、反射性和意识,而且可能在未来很长一段时间内都是如此。人们不禁会想,那些想象人工智能工具很快就会具有这些特征的人,是受到了科幻小说和神话人物的过度影响,比如普罗米修斯或魔像(Golem),毕竟这些形象总是让人着迷。

如果我们以平常心看待就会意识到,由日益重要的人工智能引发的伦理问题并不是什么新鲜事,而ChatGPT等工具的出现只是让这些问题变得更加紧迫。除了就业方面,这些问题还涉及人工智能及其使用的训练数据造成或放大的歧视,以及错误信息的传播(无论是故意传播还是受“人工智能幻觉”影响)。长期以来,这两个问题一直是算法研究人员、立法者和相关领域企业关注的问题,他们也已经着手实施技术和法律解决方案来抵御相关风险。

首先,让我们来看看技术解决方案。伦理原则正在被纳入到人工智能工具的开发中。以泰雷兹为例,我们一直致力于在设计人工智能系统时打破“黑箱”,制定了确保系统透明和可解释的指导方针;还尽力通过改进所使用的训练数据、打造多元化团队,来最大限度地减少算法设计中的偏见,特别是性别和外貌方面。

其次是法律解决方案。在这方面,欧盟无疑起到了带头作用。欧盟委员会和欧洲议会在过去两年多的时间里致力于起草一项法规草案,旨在通过立法限制将人工智能用于最危险的用途。

不过,只有通过教育和真正的社会变革,我们才能有效防范滥用人工智能的固有风险。我们必须齐心协力,成功摆脱随着数字技术到来而兴起的“即时文化”,这种文化很可能会因新工具的大规模传播而进一步加剧。

众所周知,生成式人工智能可以很容易地制作出高度病毒式传播但不一定值得信赖的内容。随之而来的风险是,它将放大社交媒体运作方式中公认的缺陷,比如推广有问题、有分歧的内容,并触发公众第一时间的反应和对抗。

此外,这些系统会让我们习惯于获得“现成”答案,而不去搜索、验证或多方查证,这让我们的大脑变得懒惰,并进一步削弱我们的批判性思维。

因此,虽然目前尚未达到威胁人类存亡的关键时刻,但我们确实需要敲响警钟,必须设法制止这种有害的即时倾向。近二十年来,这种倾向一直在破坏民主,并为阴谋论提供温床。

魁北克媒体和信息教育中心推出了一门非常棒的培训课程,名为“思考30秒”。花点时间了解背景并评估内容的可信度,进行建设性对话而不是简单的即时反应,这些都是健康数字生活的构成要素。我们需要确保世界各地的教育系统优先教授这些理论并指导实践。

如此应对这一挑战,我们终将能够充分发挥这项技术的巨大潜力,推动科学、医学、生产力和教育的进步。

————————————

[1] 美国哲学家约翰·塞尔(John Searle)在1980年提出的“中文房间”思维实验揭示了图灵测试的缺陷。