
【大纪元2025年10月06日讯】(大纪元记者陈俊村报导)可能有不少人认为,人工智能(AI)生成的说话声听起来很不自然,就像语音助理Siri或Alexa一样。但英国的研究发现。AI技术已经发展到能让其仿制的声音酷似真人声音,一般人难以分辨。这引发了人们对不肖分子利用AI仿制声音从事诈骗等犯罪活动的担忧。
英国伦敦玛丽王后大学(Queen Mary University of London)在上个月发布的新闻稿中指出,该校心理学资深讲师拉班(Nadine Lavan)表示,AI生成的声音如今已遍布我们身边。我们都曾与苹果公司的Siri或亚马逊公司的Alexa对话,或让自动客服系统接听电话。
拉班说:“这些声音听起来不太像真正的人声,但AI技术开始产生自然、类似人类的语音只是时间问题。我们的研究表明,这个时刻已经到来,我们迫切需要了解人们如何看待这些逼真的声音。”
由拉班主导的研究团队将真人的声音与两种不同类型的合成声音进行了比较,这两种合成声音均由最先进的AI语音合成工具产生。
其中一些合成声音是从真人的录音中“克隆”(复制)而来,其目的在模仿真人的声音;另一些合成声音则由一个大型语音模型生成,没有模仿特定的人。

研究人员给参与者听80种不同的声音样本(40种AI生成的声音和40种真人的声音),并要求他们标明哪些是真实的,哪些是AI生成的。
就平均而言,只有41%、由语音模型生成的AI声音被误认为是人类声音。这表明在大多数情况下,人们仍然可以将它们与真人的声音区分开来。
然而,从真人的录音中仿制而来的AI声音大多数(58%)被错误地归类为人类声音。只有62%的真人声音被正确归类为人类声音。
研究人员因而得出结论说,人们在区分真人声音和仿制的AI声音的能力方面没有统计上的差异。换言之,一般人难以分辨真人声音和AI仿制的声音。
拉班指出,其研究团队轻松和迅速地使用市售软体创造出真人(在获得本人同意的情况下)的仿制或深度伪造(deepfake)声音。
她说:“这个过程几乎不需要专业知识,只需几分钟的录音,而且几乎不需要任何费用。这说明AI语音技术已经变得多么普及和成熟。”
她提到,AI发展的速度非常快,已对伦理、版权和安全产生了许多影响,尤其是在虚假资讯、诈骗和冒充等方面。
如果犯罪分子使用AI来仿制你的声音,那么通过银行的语音认证或欺骗你的亲人转账就会变得更容易。

这样的诈骗案件已经在世界各地发生过。举例来说,美国佛罗里达州女子布莱特维尔(Sharon Brightwell)在今年7月就曾被AI仿制的声音诈骗了1.5万美元。
据WFLA电视台报导,布莱特维尔接到一通电话,电话号码看起来像是她女儿的。一名女子在电话中哭着说,她遭遇了车祸,而她的声音很像她女儿的声音。
该名女子说,她开车时因为发简讯而撞到一名孕妇,她的手机被警察没收了。随后,一名男子接过电话告诉布莱特维尔说,他是她女儿的律师。她的女儿被警方拘留了,需要1.5万美元的保释金。
布莱特维尔不疑有他,随即依据对方提出的付款方式支付了1.5万美元。她说:“没人能说服我那不是她。我知道我女儿的哭声。”
那些嫌犯后来又再度来电。他们声称该名孕妇的胎儿已经死亡。如果布莱特维尔不想让女儿挨告,就必须支付3万美元的赔偿金。
但这一次,布莱特维尔的亲友直接打电话给她女儿,不但证实了她女儿平安无事,也拆穿了那些嫌犯的谎言。
布莱特维尔的家人相信,嫌犯利用她女儿在脸书等社交媒体上的影片仿制了她女儿的声音,进而对她进行诈骗。
布莱特维尔说:“我祈祷这种事不要发生在其他人身上。我先生和我刚退休,那笔钱是我们的积蓄。”
布莱特维尔敦促人们针对这种诈骗活动采取预防措施,例如使用暗号,以便在紧急情况下通过电话验证身份。如果打电话来的人无法说出暗号,就直接挂电话。
责任编辑:李琳#
抢先评论