AI,即人工智能的概念,其实早已经被大众所熟知。
但从去年开始,随着 AI 绘画、ChatGPT 等工具的出现,人们才意识到 AI 已经进化到如此强大的地步了。
如今,AI 不仅可以帮用户写方案、写代码、制作 Excel 表格等等,处理一些工作上的事情。
闲暇之余,AI 还会赋诗作画,和用户来一场灵魂深处的对话,新奇又好玩。
总而言之,AI 既可以辅助人类工作,大大提高我们的工作效率,还能做到基本和真人一样,进行聊天互动。
![]()
但科技是一把双刃剑,有优点就有缺点、有好处就有弊端。
在看不见的地方,有人正在利用 AI 干着不少龌龊事。
比如前段时间,女子地铁照被 AI 「一键脱衣」的事,就引爆了整个互联网。
这样的恶趣味,很明显侵犯了别人的名誉权,在一定程度上已经触犯到了法律。
![]()
要说「一键脱衣」已经够离谱了,比这更离谱的,是 AI 已经被用来诈骗了。
不得不说,不法分子想象力比普通人丰富多了,国内外已经有不少人上钩了。
据央视报道,美国和加拿大利用 AI 语音进行诈骗的案例,近期频繁发生。
以加拿大为例,短短 3 天内至少已有 8 人上当,受害者多为戒备心理较弱的老年人。
![]()
骗子的基本手段如下,先是寻找网络手机素材,利用 AI 合成声线,然后拨打电话给老人,冒充老人的孩子。
至于借口,无非就是在外面惹了大事,比如出车祸撞人了、自己受伤做手术急用钱了等等。
骗子利用老人心软的特点,稍微一声泪俱下,就能将对方引导进自己设下的陷阱。
毕竟孩子出事,短时间内想要保持理智非常不易,一着急自然就将款汇过去了。
![]()
据统计,近期类似事件的涉案金额已达数百万加元。
有受害者表示,犯罪分子使用的声音和自己的孩子一模一样。
美国类似诈骗案件,近期也呈上升趋势,单 2022 年相关涉案金额,就达到了 26 亿美元。
而在国内,估计不少人都接到过 AI 电话销售,聊天效果已经达到了以假乱真的地步。
如果不仔细分辨,根本不会以为对面是 AI。
![]()
去年,央视就曝光过一起为境外诈骗组织引流的团伙。
骗子利用 AI 自动打出 1700 多万通电话,最终筛选出 80 多万个「客户」,最终获得 1.8 亿佣金。
至于诈骗的方式,则是「荐股」,也就是推荐炒股的软件和股票,等用户投入进去后就收网。
![]()
除了 AI 合成语音,文章开头提到的 AI 换脸,也带来了类似隐患。
最常见的,就是不法分子利用 AI 换脸合成「果照」或不雅视频,然后拿着照片敲诈被害人。
如果不花钱了事,对方则会将「果照」散发给被害人的亲朋好友,瞬间「社死」。
有些受害人明知道是假的,但也会心里「发毛」,为了声誉不得不「破财消灾」。
![]()
除此之外,以 ChatGPT 为代表的的 AI 聊天,以及 AI 绘画,真真假假也让人难以分清。
以后网恋的对象,聊天的内容和发送的照片,用 AI 生成轻而易举。
因此「网恋需谨慎,小心杀猪盘」,也很有必要。
那么面对 AI 的以假乱真,难道我们就束手无策了吗?
当然不是,既然 AI 能被用来诈骗,那也就能被用来反诈骗,比如支付宝就推出了「蚂蚁 AI 全链路反诈」。
中科院声学团队,也开发出了「AI 反诈外呼数字人」等等。
![]()
当然,要想不被不法分子和 AI 欺骗,最重要的还是要提高自身的反诈意识。
比如加强自己的隐私保护,不听不信不转账,遇到紧急情况及时报警。
只要戒掉「贪嗔痴」,和钱有关的三思而后行,受骗的几率就要小上很多。