人工智能的利弊,近几年掀起不少热议。远的不说,就在过去一年里,ChatGPT以它的“伶牙俐齿”回答形形色色的问题,一方面让不少人啧啧称奇,另一方面也引发学术道德及“电脑会否取代人类”等担忧。

75岁的电脑科学家杰弗里·欣顿(Geoffrey Hinton)花了50多年的时间,钻研人工神经网络和人工智能。但就在过去一周,这名被誉为“人工智能教父”的电脑界泰斗突然抛出震撼弹,郑重地发出警告:人工智能科技会对人类构成深远的风险。

即使在人类可控的范围内,人工智能也不见得就有百利而无一害。人工智能这样的利器落入不良行为体手中,可以用于制造和传播错误信息。这或许是欣顿更担心的,即在人工智能几乎能以假乱真的信息环境里,人类还有没有办法识别什么是事实。

但欣顿对人工智能系统未来发展趋势的担忧,还不止于人工智能是否会超越人类智慧。毕竟从乐观派的观点出发,人工智能的发展越超前,就越能帮人类减轻琐碎工作的负担,让人类把精力放在更高层次的工作。然而,这个美好远景的假设,是人工智能受控于人类智慧。在欣顿看来,人工智能在一些方面已超越人类智慧,人类应该慎重考虑如何不被它控制。

面对巨大突破带来的颠覆性影响,人类社会的经验是,在经过一番探索与磨合后,设立管制框架。国际社会在上世纪60年代,经过冗长的磋商后,谈成了《核不扩散条约》;美苏在1991年也历史性地签署了首份《削减战略武器条约》。这些条约没有完全销毁所有核武器,但反映了人类社会在制约先进科技,和允许先进科技存在之间,找到的折中。

对人工智能所带来的深远风险表示关注的不只欣顿一人。今年3月,数百名科技巨头在一封公开信中,呼吁各个人工智能实验室,对强大的人工智能系统的训练工作,暂停至少六个月。

(作者是《联合早报》高级记者)

这不由得让人联想到1945年7月,有“原子弹之父”之称的奥本海默,在见证人类史上首次核试炸后,脑海中浮现《博伽梵歌》中的一句:“我现在成了死神,世界的毁灭者。”他过后也多次反对使用核武器。

人工智能的发展,会遵循这样的模式吗?这道题无论交给人类或ChatGPT来回答,都未必有个准数。但可以肯定的是,这个领域的发展不会因为欣顿的警告或科技巨头的公开信而中止,因为它已然成为一场新竞赛的赛场。

以欣顿的成就,目前正是他可以为自己数十年的心血和付出验收并感到自豪的时候,然而他却对自己的工作感到后悔,闻者唏嘘。

人类社会已步入与人工智能共存的新常态。如何在使用与防范人工智能之间取得折中,是不可回避的命题。欣顿以他对人工智能领域的深刻认知,提出了切实的隐忧,但用意不是为了要大家丧胆,而是要让更多人正视这一系列挑战。好的技术还得配上好的用法,才不至于让教父和诸多巨人的智慧结晶,反成为他们良心的谴责。

和人工智能今时今日带来的挑战一样,人类近80年前在研发核武器后也发现,自己面对的是个“自己创造的恶魔”。核弹标志着人类在科技上的重大突破,但也引发美苏的军备竞赛,使相互保证毁灭的灾难性后果愈发成为可能。