丧心病狂!这些人利用AI声音冒充亲人诈骗1100万美元

玩机攻略 2023-03-17 20:48:22   点击量 : 4676  

作者 : 生活常识网

电信诈骗的套路大家都很熟悉,一般来说,我们可以轻易地分辨出对方是什么来头。不过,正所谓“道高一尺魔高一丈”,有些诈骗分子已经开始利用AI技术进行犯罪。

据外媒报道,目前,AI语音生成软件可以让骗子模仿亲人的声音,诈骗者利用AI声音冒充亲人窃取了大量钱财,光是在2022年,这些假冒行为导致人们在2022年被骗走1100万美元,而且老年人占目标人群的大多数。

近段时间以来,人工智能一直是科技圈的中心话题,因为微软在其产品中注入ChatGPT,而谷歌则通过推出自己的人工智能产品来跟上潮流。虽然人工智能有潜力做一些让人令人印象深刻的事情,比如根据一行文本生成图像,但这项几乎不受监管的技术的更多缺点也开始浮现出来。最新的例子是,人工智能语音发生器被用来骗取人们的钱财。

人工智能语音生成软件一直受到业界关注,最开始,这种软件需要几句话才能令人信服地再现扬声器的声音和语气。现在,该技术已经发展到只需几秒钟的对话就足以准确模仿某人的程度。

根据外媒公布的报告,数以千计的受害者声称他们被冒充亲人的顶替者所欺骗。这类冒名顶替诈骗已成为美国第二大热门的欺诈类型,2022年提交的案件超过36000起。

FTC官员进一步表示,在这36000起案件中,超过5000名受害者通过电话被骗走钱财,损失总额达1100万美元。

和其他地方一样,这些诈骗者主要针对老年人。这并不奇怪,因为在涉及金融诈骗时,老年人是最脆弱的群体之一。

本文来自网络,不代表生活常识网立场,转载请注明出处:http://sdsy56.com/wjgl/16197.html

上一篇:

下一篇:

声明: 我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理,本站部分文字与图片资源来自于网络,转载是出于传递更多信息之目的,若有来源标注错误或侵犯了您的合法权益,请立即通知我们(管理员邮箱:15053971836@139.com),情况属实,我们会第一时间予以删除,并同时向您表示歉意,谢谢!

Copyright © 2022-2024 生活常识网 版权所有
生活常识网所有文章及资料均为作者提供或网友推荐收集整理而来,仅供爱好者学习和研究使用,版权归原作者所有。
如本站内容有侵犯您的合法权益,请和我们取得联系,我们将立即改正或删除。客服邮箱:15053971836@139.com

备案号:鲁ICP备2022001955号-6 联系方式:15053971836@139.com

网站地图