AI,即人工智能的概念,其实早已经被大众所熟知。
但从去年开始,随着 AI 绘画、ChatGPT 等工具的出现,人们才意识到 AI 已经进化到如此强大的地步了。
如今,AI 不仅可以帮用户写方案、写代码、制作 Excel 表格等等,处理一些工作上的事情。
闲暇之余,AI 还会赋诗作画,和用户来一场灵魂深处的对话,新奇又好玩。
总而言之,AI 既可以辅助人类工作,大大提高我们的工作效率,还能做到基本和真人一样,进行聊天互动。
但科技是一把双刃剑,有优点就有缺点、有好处就有弊端。
在看不见的地方,有人正在利用 AI 干着不少龌龊事。
比如前段时间,女子地铁照被 AI 「一键脱衣」的事,就引爆了整个互联网。
这样的恶趣味,很明显侵犯了别人的名誉权,在一定程度上已经触犯到了法律。
要说「一键脱衣」已经够离谱了,比这更离谱的,是 AI 已经被用来诈骗了。
不得不说,不法分子想象力比普通人丰富多了,国内外已经有不少人上钩了。
据央视报道,美国和加拿大利用 AI 语音进行诈骗的案例,近期频繁发生。
以加拿大为例,短短 3 天内至少已有 8 人上当,受害者多为戒备心理较弱的老年人。
骗子的基本手段如下,先是寻找网络手机素材,利用 AI 合成声线,然后拨打电话给老人,冒充老人的孩子。
至于借口,无非就是在外面惹了大事,比如出车祸撞人了、自己受伤做手术急用钱了等等。
骗子利用老人心软的特点,稍微一声泪俱下,就能将对方引导进自己设下的陷阱。
毕竟孩子出事,短时间内想要保持理智非常不易,一着急自然就将款汇过去了。
据统计,近期类似事件的涉案金额已达数百万加元。
有受害者表示,犯罪分子使用的声音和自己的孩子一模一样。
美国类似诈骗案件,近期也呈上升趋势,单 2022 年相关涉案金额,就达到了 26 亿美元。
而在国内,估计不少人都接到过 AI 电话销售,聊天效果已经达到了以假乱真的地步。
如果不仔细分辨,根本不会以为对面是 AI。
去年,央视就曝光过一起为境外诈骗组织引流的团伙。
骗子利用 AI 自动打出 1700 多万通电话,最终筛选出 80 多万个「客户」,最终获得 1.8 亿佣金。
至于诈骗的方式,则是「荐股」,也就是推荐炒股的软件和股票,等用户投入进去后就收网。
除了 AI 合成语音,文章开头提到的 AI 换脸,也带来了类似隐患。
最常见的,就是不法分子利用 AI 换脸合成「果照」或不雅视频,然后拿着照片敲诈被害人。
如果不花钱了事,对方则会将「果照」散发给被害人的亲朋好友,瞬间「社死」。
有些受害人明知道是假的,但也会心里「发毛」,为了声誉不得不「破财消灾」。
除此之外,以 ChatGPT 为代表的的 AI 聊天,以及 AI 绘画,真真假假也让人难以分清。
以后网恋的对象,聊天的内容和发送的照片,用 AI 生成轻而易举。
因此「网恋需谨慎,小心杀猪盘」,也很有必要。
那么面对 AI 的以假乱真,难道我们就束手无策了吗?
当然不是,既然 AI 能被用来诈骗,那也就能被用来反诈骗,比如支付宝就推出了「蚂蚁 AI 全链路反诈」。
中科院声学团队,也开发出了「AI 反诈外呼数字人」等等。
当然,要想不被不法分子和 AI 欺骗,最重要的还是要提高自身的反诈意识。
比如加强自己的隐私保护,不听不信不转账,遇到紧急情况及时报警。
只要戒掉「贪嗔痴」,和钱有关的三思而后行,受骗的几率就要小上很多。