现在有些骗子利用AI技术,可以模仿你的亲人的声音,给你打电话,让你汇钱或者做一些危险的事情。这种诈骗方式已经在加拿大多发,导致很多老年人上当受骗,损失惨重。下面就让我们一起来了解一下这种诈骗方式是怎么实现的,以及如何防范吧!
AI声音诈骗是怎么实现的?AI声音诈骗是利用AI语音生成软件来模仿目标人物的声音。这种软件只需要几秒钟的对话录音,就可以准确地复制某人的声音特征,包括语调、口音、语速等。然后,骗子就可以用这种合成的声音来给目标打电话,冒充他们的亲人或者朋友,编造一些紧急情况或者借口,让他们汇钱或者做一些危险的事情。
AI声音诈骗有多严重?据央视网报道,近日,加拿大犯罪分子利用AI技术合成亲人声音实施诈骗,3天内至少8人上当,受害者多为老年人。有受害者表示,犯罪分子使用的声音和她儿子的声音简直一模一样。在美国,类似的诈骗案件近期也呈上升趋势。美国联邦贸易委员会公布的数据显示,电信诈骗是美国最常见的诈骗形式,2022年相关涉案金额已达26亿美元,其中很多案件都借助了AI技术。
如何防范AI声音诈骗?面对这种高科技的诈骗方式,我们应该如何保护自己呢?以下是一些防范建议:- 不要轻信陌生电话。如果接到一个自称是亲人或者朋友的电话,要求你汇钱或者做一些危险的事情,一定要保持警惕,不要轻易答应。- 与对方核实身份信息。如果对方声称是你认识的人,你可以问一些只有你们两个才知道的问题,比如生日、密码、昵称等。如果对方回答不上来或者支支吾吾,那就有可能是骗子。- 联系真正的亲人或者朋友。如果对方说他们遇到了紧急情况或者困难,你可以先挂断电话,然后用其他方式联系真正的亲人或者朋友,如果对方说他们遇到了紧急情况或者困难,你可以先挂断电话,然后用其他方式联系真正的亲人或者朋友,比如微信、QQ、短信等。如果真正的亲人或者朋友说他们没有打过电话给你,那就说明你刚才接到的是一个诈骗电话。- 向警方报案。如果你发现自己遭遇了AI声音诈骗,或者有人试图用这种方式骗你,你应该立即向警方报案,提供相关的证据和信息,帮助警方追踪和抓捕犯罪分子。
AI声音诈骗是一种利用AI技术模仿亲人声音的高科技骗局,已经在美国和加拿大多发,老年人是主要受害者。我们应该提高警惕,不要轻信陌生电话,与对方核实身份信息,联系真正的亲人或者朋友,向警方报案。希望大家都能保护好自己的财产安全,不要被骗子欺骗。
幸福老年养老网 www.xingfulaonian.com |
作者: 文章来源: 连云港市广播电视台
版权声明:本文的版权归原作者所有,不代表幸福老年养老网观点和立场。
本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,请发送邮件至 shayyl@qq.com 举报,一经查实,本站将立刻删除。