对了解目前Gen AI科技局限的心理学研究员来说,这现象或许并不太令他们感到意外。因为人类的大脑本就有自动“修复”或“补充”记忆的重构功能。大脑会对已有的知识和经验,通过模式填补、语境和线索,甚至想象、推理和社交暗示等活动,填补记忆空缺。在与由大语言模型驱动的Gen AI如ChatGPT和Gemini对话时,机器不但不会纠错,还会迎合与适应对话者提问的语气和感情,也会通过诱导和暗示,甚至对错误的答案发出鼓励性的反馈等方式交流。这无形中会增强对话者的错误记忆,影响、填补、更改他的记忆。

从科技上来说,目前Gen AI在处理海量的与文本、图像、音频和视频等有关资料的能力,效率已高于人类。在某些特定应用情况下,如对大量简单口供的前期处理或初步筛选等,Gen AI可以被发展成有效的辅助工具,但完全依赖它来审问嫌犯和记录口供,就存在极大的风险。Gen AI目前只适合在专业审问员的监督和指导下,作为辅助工具提供支持,还不能替代人类。除了在查案录取口供,Gen AI在医疗的应用,尤其是认知缺陷和心理治疗方面,则有极大的潜能。

不断对Gen AI存疑和测试是正确的。通过理性的试验和科研,我们可以更早发现和了解新科技的局限和缺陷,除了避免误用和滥用,也可补充和完善它。这样才能让新科技的发明回到初衷,适当地为人类服务。

试验模拟犯罪目击者的采访,探究在人与AI互动中,通过暗示提问,如何诱导证人产生错误记忆。试验队伍把200名受试者平均分成四组:对照组、调查问卷组、预设脚本的聊天机器人组,以及使用大型语言模型的生成式聊天机器人组。受试者在看了一段匪徒干案的短片后,立刻接受盘问,然后在一周后再盘问一次。第一组的问卷有20道题,后面三组则加入五道有诱导性的问题。但第三组的机器人只是询问和记录答案,没有与受试者交流,只有第四组的机器人会与受试者对话交流。

不断对Gen AI存疑和测试是正确的。通过理性的试验和科研,我们可以更早发现和了解新科技的局限和缺陷,除了避免误用和滥用,也可补充和完善它。

现在,几乎谁都可以轻易地用Gen AI生成文本、影像、音频和视频影片。不法之徒则更加先进,早已用这些工具来诈骗,制造假信息假新闻,写色情小说甚至伪造色情视频等不法勾当,威胁恐吓敲诈受害者。Gen AI就如过去许多新科技发明后的历程一样,在未发挥造福人类的初衷原旨之前,已先被滥用来破坏人类的生活。

(作者是电子工程师)

试验结果显示,第四组比第一组(对照组)所形成的错误记忆,明显增加两倍以上,比第二组则高出1.7倍。有36.4%的受试者在与生成式聊天机器人互动中被误导,在一个星期后,他们对错误记忆的信心仍然比对照组高。

正当各界在加速研发人工智能(AI)所带出的各类应用之际,ChatGPT在2022年11月30日的横空出世,开启AI新纪元。类似的以大语言模型为基础的人工智能科技突飞猛进地发展,才短短一年多后,以生成式人工智能(Generative AI,以下简称Gen AI)开展的应用、工具和产品已充斥市场。

我国近日引入新版法律网LawNet AI,用人工智能撰写新加坡法律摘要,帮助律师提高工作效率。不久前又有乐龄护理中心用Gen AI“回忆走廊”(MemoryLane),为年长者编撰人生回忆录。这些听起来都是相当正面的运用,都无可厚非,不过细读一篇在今年8月8日,由麻省理工学院发表的实验报告后,不禁对Gen AI被普遍应用的现象产生隐忧。那不是危言耸听,而是目前应用Gen AI要关注的大问题。

虽然实验报告的标题有点长,不过却很清楚表明试验结果:《用大语言模式驱动的对话式人工智能在与证人交流时,放大了他们的错误记忆》(Conversational AI Powered by Large Language Models Amplifies False Memories in Witness Interviews)。从心理学来说,这里说的错误记忆(false memory)或虚假记忆,就是指大脑对没有发生过的事件,或者在回忆时偏离实际情况的事件,显示出发生过的记忆。

试验小组还探索一个有趣的“调节因素”,就是那些熟悉AI科技但不熟悉聊天机器人,却又热衷于参与查案和破案的人,更容易受到错误记忆的影响。这些发现无疑凸显在敏感环境如罪案调查和证人盘问时,使用Gen AI技术的潜在风险,有削弱或损害目击者证词可靠性的隐忧。