科技公司Blackbird.AI总裁卡利德指出,AI克隆的语音几乎与人类声线无异,网上已有大量可截取人声样本的免费应用程序,模拟出的声音还可用来发送语音邮件和语音信息。骗子还能让AI拟音采用不同的口音、男声或女声任选,甚至模仿亲人的说话方式,制造出更令人信服的假象。
AI拟音骗局在美国日益猖獗。诈骗犯用AI工具克隆某人的声音,对他的家人发送“求救信息”,当中夹带索取巨额资金的要求,而收到“亲人”求救的家属往往难以识破骗局。
加州大学伯克利分校信息学院教授法里德说,如今生成逼真的克隆语音不是难事,因此几乎所有上网的人都容易受到攻击,AI语音诈骗的阴影还在不断蔓延。
来自亚利桑那州的蒂斯特法诺就是AI拟音诈骗的受害者之一。她曾接到“女儿”的求救电话,称在滑雪时遇到麻烦,向她索要一大笔钱。蒂斯特法诺对此深信不疑,因为电话里的声音跟女儿哭起来时一模一样。
老年人是AI语音诈骗一大受害群体
人工智能(AI)技术发展迅猛,但也带来各种安全问题。专家指出,AI技术最大的危险在于能够打破现实与虚构之间的界限,从而让不法分子钻空子,以成本低、见效快的科技来传播虚假信息。
以色列网络安全和风投公司Team8首席技术官霍赫伯格说,人们很快无法再相信互联网上的所见,需要有新的技术来帮助确认网络对面到底是不是自己认识的人。
美国一些参议员5月联合致信联邦贸易委员会,要求为老年人制定保护政策,避免他们沦为AI诈骗受害人。
美国联邦贸易委员会(FTC)3月发布警告揭露这种骗术,提醒老人切勿轻信电话里的声音,并对网络转账请求保持警惕。许多老人在这则声明下留言,称自己曾经上过当。
老年人是美国AI语音诈骗潮的一大受害群体。芝加哥19岁男子埃迪的爷爷曾受害,骗子用AI拟音打电话给他的爷爷,声称发生车祸,急需钱应急,让爷爷出钱解难。老人信以为真,甚至险些为此再抵押房产。这类“祖父母骗局”日益频发。
网络安全公司麦卡菲实验室(McAfee Labs)以美国等九个国家的7000人为对象展开一项调查,结果显示四分之一的人遇过、或知道有人经历过AI语音诈骗;70%的受访者说,他们没有信心“分辨克隆的和真实的声音”。
(华盛顿综合电)在美国,不法分子利用人工智能语音技术对民众实施诈骗的案件有上升的趋势。不法分子只要取得几秒钟的受害人声音样本,就能生成该受害人的声音来伪造他已遭绑架,并对他的亲人进行勒索或骗取信息。