新技术的研发是人类的智慧结晶,包括人脸或声纹辨识等科技,今天已在多方面广泛使用,并被视为更安全的保障。但技术更新越来越精密,掌握技术能力者一旦拿来做坏事,绝大多数人都无法分辨真伪;而透过AI所制造的信息战,无论是政治类、商业类或存心的诈骗,对很多人也都是风险。因此除了期待发达国家早日建立周全的监管框架,我们也有必要根据自己的国情,尽快完善监管规划,把风险降到最低。

延伸阅读

关注AI发展的国际专家积极发出警觉和感到不安,主要理由包括几点:一是在技术上,目前的AI与过去的任何科技突破有本质上的不同,不再是单纯反映人类意志与思维的产品;例如印刷业再怎么发展,都须要根据人类创作的内容去印刷与传播,从新闻内容到宗教文献都一样,但AI已经有了自主操作与生成内容的可能,或许不太久,甚至能编造自己生成的各类内容,而人类无法分辨真假;二是在自由思想上,AI的发展比各种类型的宣传机器更强大,可能在商业与政治领域被利用来进行无意识的渗透和影响,破坏民主制度的公平性和自主性;三是在经济上,即便法律规范能消除前面的顾虑,但AI为产业所带来的强大效率,可在短时间内让低端产业重新在发达国家出现,例如用不着大量人工的传统制造业可重新回到发达国家,全球化的分工进一步瓦解,将导致依赖这些产业的穷国经济一夕崩溃。另外,无论是在先进或落后国家,它都极可能夺走人们的饭碗,甚至摧毁掉不少的行业。这些问题已经超出法律规范,而亟需国际社会在“适者生存”的商业规则之外,建立更多共识。

除了类似的公共事务,AI研发实力最强大的美国业界,主动出面要求监管,也说明背后很可能存在必须及时关注的各种人文与法律等漏洞,须要公权力介入。美欧学界和业界都发现,如果任由AI产业像其他产业一样,让企业之间自由竞争,最终的后果或许无人可以承担。

近期以来因为美国硅谷科企推出的ChatGPT等相关产品引发风潮,AI的发展分外受到世人关注。但AI科技带来的远超过聊天机器人。一般人多相信它能产生突破性的正面效果,包括医疗技术、生产能力、无人驾驶等等;也有更多人在讨论它可能带来的经济变局、就业冲击等等。但同样在美国,一群研发AI的科技企业家和研究者,却不断发出警告并联署公开信,要求政府介入监管AI的研发与应用,显示AI的演进已经到了关键时刻,稍有不慎,可能出现失控的风险,而人类中的专家可能无法应对后果。

欧盟正在草拟第一部监管人工智能(AI)的法律框架,以确保欧洲人在未来使用AI时,能有安全和可信赖的环境。建议的框架除了要能对一套AI系统进入市场之前进行合格评定,以及投入使用后能采取执法行动等措施,特别关注AI系统可能产生的风险,为此定义了四个层级:无法接受的风险、高风险、有限风险,以及低或无风险。

欧盟网页在解释制定框架的原因时就举例:人类常常无法了解AI系统为什么做出某种决定或预测,并采取某个行动,因此可能很难判断在诸如聘用决定或公共福利计划中,有没有不公平现象。

两个月前,数以千计的AI业者和关注者集体发出公开信,要求企业界暂停研发至少半年,以便人类后退一步,制定规范,其中顾虑便是AI的演进速度之快,可能从根本上颠覆人类所能想象的局面。美欧等先进国家试图制定法律规范,是重大的进展,但在世界处于断链与脱钩的情况下,相关的规范如果因大国的猜疑与相互排斥,不能取得全人类共识,甚至敌对的科技大国铆足全力争相研发与利用AI技术,会不会在10年内演变成新型而更强大的AI“战争”,恐怕更令人警惕。

由于涉及尖端技术,绝大多数国家在AI领域都只能是接受者,作为积极迈向智慧国的新加坡,近年来使用涉及AI产品的深度与广度越来越大,也出现一些行业数码化的受害者,因此对国际社会在这方面的发展应该密切关注,同时有必要普及民众知识,避免科技不断突破却被歹徒利用,国人成为跨国受害者。