设为首页
收藏本站
请登录
立即注册
论坛首页
BBS
充值赞助
申请提现
提现排行榜
排行榜
Ranklist
友链申请
搜索
本版
文章
帖子
群组
用户
请
登录
后使用快捷导航
没有账号?
立即注册
友情链接
当前位置:
»
论坛首页
›
YOLO图像识别
›
前言资讯
›
丧心病狂!这些人利用AI声音冒充亲人诈骗1100万美元 ...
收藏
0
回复
丧心病狂!这些人利用AI声音冒充亲人诈骗1100万美元
IP属地:
香港
123
0
脆脆鲨
2023-9-26 22:32:59
|
显示全部楼层
|
阅读模式
【CNMO新闻】电信诈骗的套路大家都很熟悉,一般来说,我们可以轻易地分辨出对方是什么来头。不过,正所谓“道高一尺魔高一丈”,有些诈骗分子已经开始利用AI技术进行犯罪。据外媒报道,目前,AI语音生成软件可以让骗子模仿亲人的声音,诈骗者利用AI声音冒充亲人窃取了大量钱财,光是在2022年,这些假冒行为导致人们在2022年被骗走1100万美元,而且老年人占目标人群的大多数。
电信诈骗
近段时间以来,人工智能一直是科技圈的中心话题,因为微软在其产品中注入ChatGPT,而谷歌则通过推出自己的人工智能产品来跟上潮流。虽然人工智能有潜力做一些让人令人印象深刻的事情,比如根据一行文本生成图像,但这项几乎不受监管的技术的更多缺点也开始浮现出来。最新的例子是,人工智能语音发生器被用来骗取人们的钱财。
人工智能
人工智能语音生成软件一直受到业界关注,最开始,这种软件需要几句话才能令人信服地再现扬声器的声音和语气。现在,该技术已经发展到只需几秒钟的对话就足以准确模仿某人的程度。
根据外媒公布的报告,数以千计的受害者声称他们被冒充亲人的顶替者所欺骗。这类冒名顶替诈骗已成为美国第二大热门的欺诈类型,2022年提交的案件超过36000起。FTC官员进一步表示,在这36000起案件中,超过5000名受害者通过电话被骗走钱财,损失总额达1100万美元。
和其他地方一样,这些诈骗者主要针对老年人。这并不奇怪,因为在涉及金融诈骗时,老年人是最脆弱的群体之一。
版权所有,未经许可不得转载
回复
使用道具
举报
提升卡
置顶卡
沉默卡
喧嚣卡
变色卡
千斤顶
照妖镜
返回列表
发新帖
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
脆脆鲨
管理员
关注
4885
主题
0
粉丝
0
关注
这家伙很懒,什么都没留下!
OCR文字识别工具和文件整合包
2024-8-28
Topaz Video AI v3.4.4 人工智能视频画质增强和修复软件
2024-8-28
VITS_fast_finetune 语音模型一键训练整合包
2024-8-28
Stable Diffusion整合包v4.9发布!解压即用 防爆显存 三分钟入门AI绘画 ☆更新 ☆训练
2024-8-28
Yolo_v8轻量版全套工具及易模块和例子支持CPU CUDA10 11
2024-8-28
发新帖
24小时热帖
Topaz Video AI v3.4.4 人工智能视频画质增
2024-08-28
VITS_fast_finetune 语音模型一键训练整合
2024-08-28
Stable Diffusion整合包v4.9发布!解压即用
2024-08-28
Yolo_v8轻量版全套工具及易模块和例子支持C
2024-08-28
AI再显神通!将大脑信号转为语音 准确率最
2023-09-20
Copyright © 2001-2025
Discuz Team.
Powered by
Discuz!
X3.5
|
网站地图