更新时间:2024-10-22 18:41
AI换脸,科技术语,是指通过AI人工智能技术,把别人的脸换成自己的脸。
AI换脸脸部表情自然,效果逼真,整个过程你只需要通过一张照片,然后用AI技术可以在ZAO软件上使用自己的照片替影视剧或者小视频中的人物,从而生成以自己为主角的视频。
2023年3月7日,据美国“截击”网站报道,美军特种作战司令部正计划利用“深度伪造”等技术,开发新一代“军事信息支持作战”工具,新技术将被用于数字欺骗、通信干扰及制造传播虚假信息等活动。深度伪造技术常见的方式有AI换脸、语音模拟、视频生成等。
2023年6月14-16日,中国互联网协会将组织举办“2023年电信网络诈骗治理工作培训”,解读电信网络诈骗治理法律法规,分析研判电信网络诈骗治理的重点工作和发展形势,助力企业落实防范治理电信网络诈骗责任,提高管理能力,促进行业健康发展。
2023年5月,内蒙古包头警方发布一起利用AI实施电信诈骗的典型案例:2023年4月,福建一家科技公司的法人代表郭先生被骗子通过AI换脸和拟声技术,佯装好友对其实施诈骗。在10分钟内,先后分两笔把430万元转到了对方的银行账户上。
2023年5月22日,AI换脸诈骗事件再次发生。安徽一男子9秒被骗132万。
2023年6月,浙江省杭州市萧山区检察院对一起利用“AI换脸”技术侵犯公民个人信息案,依法向杭州互联网法院提起民事公益诉讼。
2023年8月10日消息,为防范和打击此类新型犯罪,公安机关联合国家重点实验室等单位,开展人脸识别与活体检测技术安全测评,覆盖了境内用户量大、问题隐患突出的即时通讯、网络直播、网络社交、电商平台、金融支付等重点APP,及时发现人脸识别验证系统存在的风险隐患,通报运营主体升级安全保护措施和人脸识别算法。同时依托“净网”专项行动,组织专项会战,严打泄露身份证照片等图像信息的犯罪源头,破获“AI换脸”案件79起,抓获犯罪嫌疑人515名,有效遏制了该类犯罪势头。
2024年5月消息,辽宁网安部门接到群众报案,称自己的银行账户里少了三千块钱,还多了几笔向陌生账户转账的记录。接到线索后,辽宁网警迅速开展工作。经过几个月的持续侦查,一个以AI技术为支撑的犯罪团伙浮出水面。该犯罪团伙以任某某为头目,4名“信息员”、“联络员”为骨干成员,另有27名“辅助人员”进行支撑。经查,该团伙非法收购公民面部照片50余个,银行卡、电话卡100余张,帮助境外电诈犯罪分子洗钱流水7000万元并从中非法获利。
2024年6月20日,北京互联网法院一审开庭宣判了两起北京市首例“AI换脸”软件侵权案件,认定使用他人视频“换脸”后制作模板再提供“换脸”服务的网络服务提供者侵害了他人的个人信息权益。
2023年5月24日,中国互联网协会发文提示“AI换脸”新骗局。今年以来,ChatGPT和GPT-4等技术的应用,成为了信息科技领域的热点,引起公众对AI技术的广泛关注和热情。但伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频,进行诈骗、诽谤的违法行为屡见不鲜。
近期,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信网络诈骗的案件。不法分子利用AI技术,通过声音合成,伪造成特定人物的声音,通过AI换脸,伪装成特定人物,实时与他人进行视频通话。更换后的面部表情自然,以假乱真,能够冒充他人身份联系被害人,博取被害人信任后实施诈骗。
面对利用AI技术的新型骗局,广大公众需提高警惕,加强防范。
一、做好个人信息安全第一责任人
1、加强个人信息保护意识,防止信息泄露:不轻易提供人脸、指纹等个人生物信息给他人;不要轻易透露自己的身份证、银行卡、验证码等信息;不要贪图方便把身份证、银行卡照片等直接共同存放于手机内。
提示:发现APP过度、强制收集个人信息,请至12321.cn投诉。
2、陌生链接不要点、陌生软件不要下载、陌生好友不要随便加、不明二维码不要随便扫。管理好自己的朋友圈,不要向陌生人开启手机屏幕共享。
3、做好个人防护,安装安全软件,防止手机和电脑中病毒;对个人账户的安全状况保持警惕,尤其是陌生设备的登陆情况,防止微信、QQ等被盗号给亲朋好友带来麻烦。
4、对于不常用的APP,建议卸载前注销个人账号。
提示:APP不提供个人账号注销方式,或为注销账号设置各类障碍的,请至12321.cn投诉。
二、远程转账务必多重验证,把好“钱袋子”
如果有人自称“家人”“朋友”“老师”“领导”通过社交软件、短信、电子邮件等以“手机掉水里了,学校需要紧急交辅导班学费”“人在境外旅游需要帮忙买机票”“给领导办私事需紧急转账”“遭遇车祸需要马上手术”“情况特殊,需要过桥资金拆借”等各种方式和理由诱导你转账汇款,务必第一时间提高警惕。在AI时代,文字、声音、图像和视频都有可能是深度合成的,在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款!无论对方是谁!
提示:遭遇诈骗信息,请至12321.cn反诈专栏举报,如发生资金损失请及时报警。
一直以来,中国互联网协会不断推进行业自律,积极开展防范治理电信网络诈骗工作。2023年6月14-16日,中国互联网协会将组织举办“2023年电信网络诈骗治理工作培训”,解读电信网络诈骗治理法律法规,分析研判电信网络诈骗治理的重点工作和发展形势,助力企业落实防范治理电信网络诈骗责任,提高管理能力,促进行业健康发展。
2024年3月15日,2024年中央广播电视总台3·15晚会曝光了AI换脸诈骗的现象,在视频中穿插了一段对“AI换脸”的科普,实际上,视频通话AI换脸诈骗已经不是什么稀罕事了,为了更好地防诈骗,大家在怀疑对方换脸时可以让对方摸脸、按鼻子等,这样可以更容易地识别AI换脸视频。此外,AI换脸、变声功能虽然看起来很强,但诈骗分子由于训练数据不足、技术能力欠缺等硬伤,基本都会在几秒钟后挂断视频/电话。
2024年6月消息,深圳市民吴先生突然收到一个陌生手机号码发来的彩信,点开一看竟然是他和一名陌生女子在酒店房间内的不雅照片。深圳警方接到报案后,立即对吴先生提供的线索进行侦查。通过梳理报案记录,警方发现全市有同样遭遇的不止吴先生一人,犯罪嫌疑人的敲诈勒索方式都如出一辙。于是警方立即对相似的案件进行串并处理。调查后,一个通过换脸技术合成不雅照,实施敲诈勒索的犯罪团伙逐渐浮出水面。
随着侦查工作的深入,警方发现这是一个以王某为首的犯罪团伙,团伙内分工明确,有人负责修图,有人负责寻找作案目标,有人负责发短信打电话联系收款。深圳坪山警方兵分多路,展开统一收网行动,在多地警方协助下成功抓获以王某为首的十多名犯罪嫌疑人。,王某等人已被检察机关提起公诉。案件正在进一步审理当中。
随着人工智能技术的迅速发展,有些人利用这项技术的犯罪手段也越来越科技化。利用“AI换脸”进行违法犯罪的行为屡见不鲜。警方提醒大众,不要在互联网上过多暴露自己的个人信息,包括照片、视频、语音等信息。对外提供人脸照片时,需要慎之又慎,特别是在互联网上使用小众软件进行身份认证时,在开启定位服务、输入身份证号码、录入指纹信息、录入人脸信息的时候,需要慎之又慎。
AI换脸等违法行为的最关键原因是个人隐私信息的泄露。因此,在日常上网过程中,要尽量避免人脸、指纹等个人生物信息的过度公开和分享。如果接到“家人”“领导”等转账、汇款的视频,一定要仔细甄别真伪。“如有必要可以要求对方做快速地抬头、点头、转头的动作,进一步判断视频是否有异常的细节,来确认这个视频是真实的。”
不要公布手持身份证或手持白纸照
这些照片中会包含个人姓名、身份证号码、住址等敏感信息,一旦泄露,不法分子可能利用这些信息进行身份盗用,办理信用卡、贷款等金融业务,甚至进行违法活动。另外,手持白纸或手持报纸等照片常被用于验证身份,如果被不法分子获取,可能被用于制作假证件或进行网络诈骗,会给个人带来经济损失和名誉损害。
不要发布各种票据类的照片
很多人出差、旅游都喜欢拍火车票或飞机登机牌,发到自己的朋友圈分享。这些票据上不仅会包含姓名、出发地、目的地等信息,而且在条纹码或者二维码中也会含有乘客的个人信息,存在被不法分子破解并窃取的可能。
不要晒家门钥匙、车牌等照片
不法者通过技术手段,可以分析出发布者特定时间所处的特定位置,也会获取发布者相关的生活习惯。所以,最好的办法就是不要在照片中出现特征明显的物品,例如家门钥匙、车牌号码等。