生成式人工智能渗透日常生活,若不加以管控,可能会造成假信息、侵犯版权等问题。我国探讨采用“营养标签”,让人们能像了解食材一般掌握不同模型的“成分”,使用时更加安全放心。
另外,驱动生成式人工智能的数据对成品的质量有很大的影响。因此,治理框架建议使用可信赖的数据集(dataset),并维护个人信息和版权内容。
对于生成式人工智能的开发和运用,治理框架提议借鉴食品营养的机制,为不同模型贴上标签,明确列出开发过程中使用的数据、测试等一系列重要信息。模型(models)指的是ChatGPT、DALL-E等生成式人工智能系统的基础,通过大量的数据分析进行机器学习,进而产生内容。
若把生成式人工智能比喻成一道美食,不同食材会经过种植、收割、运输、烹饪等多个步骤才被端上餐桌,过程中哪一步出差错都会造成一连串的食品安全问题,导致最后吃下食物的人身体不适。文告指出,开发生成式人工智能的过程涉及不同业者,须制定明确的问责机制,鼓励他们对用户负起责任。
任何系统都可能出现纰漏,治理框架因此也提出一系列的举报、测试和安全机制。
人工智能验证基金会(AI Verify Foundation)和资讯通信媒体发展局(IMDA)星期二(1月16日)推出生成式人工智能(Generative AI)治理框架草案,并向国际社会征求反馈意见。联合文告说,生成式人工智能与传统人工智能大不相同,现有的治理框架不完全适用,因此须评估和加强条例,并带动决策者、业者、学者和公众一同参与。
延伸阅读
生成式人工智能治理框架开放给决策者、业者、学者和公众提供意见,当局会根据反馈调整框架内容并在年中正式推出,望促进国际交流和合作。
治理框架共分为九大方面,分别是:问责、数据、开发与运用、举报、测试、安全、内容来源、研究,以及公共利益。