三湘都市报·新湖南客户端5月23日讯(全媒体记者杨洁规)10分钟被骗430万!5月22日,一起利用人工智能(AI)实施电信诈骗的典型案例冲上热搜,引发全网关注。
(资料图)
“和你视频对话的,可能不是本人!”5月23日,记者从长沙市反诈中心获悉,长沙暂未接到“AI换脸”类型诈骗。但是,警方提醒,针对花样翻新的智能AI诈骗,公众要提高防范意识。
【体验】
一条30秒“AI换脸”视频,最低仅需5元
去年9月,长沙市反电诈中心曾发布过一份警方紧急预警,提醒大家谨慎使用“AI换脸”软件,以防造成个人信息泄露并被利用于电信网络诈骗。
技术改变生活,也改变了骗术。骗子很快就把新技术应用到了诈骗当中。骗子可以通过录音提取声音,利用AI“变声”技术对录音素材进行剪辑合成,用伪造的声音实施诈骗;通过收集发布的照片、视频,利用AI技术“换脸”,用伪造的照片或视频实施诈骗;通过AI技术收集个人信息并对人物性格、需求倾向等进行刻画,根据所要实施诈骗的方式对人群进行筛选,选出目标人群。
5月23日,三湘都市报记者以使用者的身份咨询了一家提供“换脸软件”网站。
该网站客服表示,如要实现实时换脸,则需要从零开始训练“数字人”,如果24小时挂机不停的训练模型,需要经过半个月到一个月的时间,才能达到可以合成视频的效果,费用在20万元一年。
比起定制“数字人”,更多人选择购买现成的模型。该网站客服称:“只是五官的替换,可以替换任意素材使用,不分张三李四。至于费用,处理量越大,费用越低,一条30秒以内的视频最低仅需5元。”
【提醒】
涉及资金转账时要通过多种方式确认
长沙市反电诈中心提醒,涉及资金转账时,市民要提高安全意识,通过多种方式确认对方是否为本人,也可将转账到账时间设定为 “24小时到账”,以预留处理时间。
针对支付软件以及网银软件,要使用多种登录及转账验证方式。针对花样翻新的智能AI诈骗公众要提高防范意识,应谨慎使用各类AI“换脸”、AI“变声”软件,加强个人信息保护意识,避免注册不需要的账号、填写不必要的个人信息,以防个人信息泄露。面对不断更新的网络技术和诈骗方式,市民要坚持不轻信、不透露、不点击、不转账。
记者了解到,随着技术迭代不断加速,与之对应的,对人工智能技术的法律规制和政策引导也在不断完善。今年1月,国家互联网信息办公室、工业和信息化部、公安部联合发布的《互联网信息服务深度合成管理规定》正式实施,为深度合成服务划定了“底线”和“红线”,强调不得利用深度合成服务从事法律、行政法规禁止的活动,要求深度合成服务提供者落实信息安全主体责任。
4月11日,国家网信办发布了《生成式人工智能服务管理办法(征求意见稿)》,共21条,对生成式人工智能产业给出较为详尽的规定,其中包括定义、准入资格、责任义务和处罚措施等。
责编:吴岱霞
一审:杨洁规
二审:丁鹏志
三审:周文博
来源:三湘都市报