生成式人工智能日益深入人们的生活,但若不妥善管控,会衍生假信息、侵犯版权等问题。我国探讨采用“营养标签”,让人们像了解食材那样可掌握各种人工智能模型的“成分”,使用时就更安全放心。

人工智能验证基金会(AI Verify Foundation)和资讯通信媒体发展局(IMDA)星期二(1月16日)提出生成式人工智能(Generative AI)治理框架草案,并向国内外征求意见,致力于在国际范围打造更可信的人工智能环境。

此外,驱动生成式人工智能的数据对成品的质量有很大影响,因此治理框架建议,使用可信赖的数据集(dataset)并维护个人信息和版权。

文告说,人工智能也关乎为公众和商家赋予能力,让他们借助人工智能改善生活。治理框架因此建议,探讨如何在涉及公共领域、劳动力和可持续发展方面,善用生成式人工智能,让更多群众受益。

为了防止生成式人工智能被滥用于传播假信息,文告说,多国政府正在探讨使用数码水印和密码源头这两种标记科技,来标明可信赖或原创内容。用户就可掌握内容来源和生成方式,减少误解。

防生成式AI传播假信息 多国政府探讨用科技标明可信赖内容

从即日起至3月15日,决策者、业者、学者和公众可电邮到info@aiverify.sg,针对生成式人工智能治理框架提供意见,当局会根据反馈调整框架内容,并在年中正式推出,希望促进这方面的国际交流与合作。

通讯及新闻部长杨莉明说,生成式人工智能的发展目前仍处于初期阶段,须有实际建议为基础才可逐步完善,并推动国际就此交流。

对于生成式人工智能的开发和运用,治理框架主张借鉴食品营养的机制,为不同模型(models)贴上标签,明确列出开发过程中使用的数据与测试等一系列重要信息。模型指的是ChatGPT、DALL-E等生成式人工智能系统的基础,它们通过大量的数据分析进行机器学习,进而产生内容。

针对假象、版权和价值观等新课题,治理框架呼吁通过国际合作,加速对生成式人工智能风险的研究。

杨莉明:人工智能领域刚起步 须有国际对话参与

人工智能治理框架 料今年中正式推出

她也提到,人工智能的治理不能只在国家层面进行,而要有国际对话。 “部分原因是这个领域刚刚起步。我们相信,为了取得进展,必须有人提出一些建议,并把它们摆到桌面上,然后才能进一步丰富全球对话的内容。”

延伸阅读

人工智能验证基金会和媒发局的联合文告指出,生成式人工智能的开发过程涉及各类业者,因此须制定明确的问责机制。治理框架建议,这方面由模型开发者负责协调,确保每个环节的业者承担应有的责任。

人工智能验证基金会和资媒局指出,没有措施是万能的,上述课题环环相扣,须采取务实和全面的角度加以分析。

人工智能验证基金会是媒发局成立的一个独立机构。它充当联系政府、私人企业和学术专家的平台,促进各界的交流。据早前报道,基金会目前有超过50名成员,包括淡马锡人工智能卓越中心Aicadium、国际商业机器公司(IBM)、谷歌、星展银行和新加坡航空公司等海内外机构。

杨莉明在瑞士达沃斯参加世界经济论坛,17日会在论坛上与国际代表讨论治理框架的内容。她在场边接受《海峡时报》访问时说,由于许多生成式人工智能的运用仍处于试用阶段,因此治理框架目前主要着眼于指导原则和识别重点。

鉴于任何系统都可能出现纰漏,治理框架也提出一系列关于举报、测试和安全的机制。

治理框架共分为九大方面,即问责、数据、开发与运用、举报、测试、安全、内容来源、研究,以及公共利益,这相信是全球首个针对生成式人工智能的多面治理框架。探讨采用“营养标签”,是针对开发与运用提出的其中一个建议。