LLM是生成式人工智能技术的重要基础模型,它经过大量数据训练,能够理解和生成自然语言和其他类型的内容,以执行各种任务。

微软亚洲总裁马扎里(Ahmed Mazhari)在对报告结果评价时指出:“生成式AI工具在工作场所中的使用率增长迅速,员工为了提升工作效率,往往会采用各种容易上手的新型工具,他们也并不会因为雇主的种种政策而停止使用个人AI工具。”

“当员工们将这些数据资料输入AI服务工具时,他们可能不会意识到数据将被送到什么地方进行处理,当然也不知道谁会看到。”

南洋理工大学计算机与数据科学学院博士生刘艺,曾参与研究多款人工智能聊天机器人存在的漏洞。他在受访时说:“如果员工用ChatGPT润色还未发布的财报,那么财报中的敏感信息就有可能会被用作大语言模型(LLM)的训练数据。下次别的用户问到这个问题,就有可能获得相应的机密信息。”

据彭博社去年5月报道,三星(Samsung Electronics)在发现员工将公司敏感内部代码输入到ChatGPT后,便禁止员工使用ChatGPT等AI工具。

这是微软和领英最近联合公布的2024工作趋势指数报告中的一项发现,该报告的相关调查于今年2月至3月在美国、中国、新加坡等31个地区进行,每个地区有1000名受访者完成了20分钟的网络问卷。

在新加坡,88%受访者说在工作中使用了人工智能工具。他们当中,84%会在工作中使用ChatGPT等个人AI工具,超过全球平均的78%。

新加坡国立大学文学暨社会科学院哲学系讲师沈耀发,建议雇主通过有效沟通,让员工们更好地理解将公司资料上传到个人AI工具上的潜在危险。

企业机密泄漏至服务平台 或被服务商利用及用作训练数据

刘艺解释,在ChatGPT开放给使用者的过程中,会收集与使用交互数据。这些数据会被LLM“记住”并用来训练。当别的用户问到相关问题的时候,机器会把记住的消息回复出来,一些企业还因为资料泄露而禁止员工使用AI工具。

德国软件公司思爱普(SAP)在新加坡的AI实验室董事经理萨哈(Manik Saha),在接受《联合早报》采访时指出,倘若缺乏有效的安全措施,员工在工作中使用个人AI工具,会不可避免地将企业内部保密资料泄漏到AI服务平台,并可能被服务商利用。

“一些员工并不明白在AI工具上泄漏公司数据的严重后果,另一些尽管知道,但由于找不到更好的AI平台解决问题,所以仍然会那样做。”

88%的本地人在工作上会使用人工智能(AI)工具,当中有八成会把个人使用的AI工具带入工作,专家指出,这种行为会影响企业的数据安全。

延伸阅读