科技观察|AI使造谣变得越来越容易?科技的边界也需法律来明确

作者:duke 日期: 分类:网络转载 浏览:4247

封面新闻记者 边雪

AI绘画,AI视频,AI对话……在AI正加速渗透现代人的生活的当下,以DALL-E、Midjourney和Stable Diffusion等AI图像生成器,或Bard、ChatGPT、Chinchilla和LLaMA等生成式 AI,正迎来裂变式增长的用户。

通过将智能的机器学习算法与数十亿条人类生成的内容相结合,这些系统似乎可以做任何事情:从根据字幕创建一个极度逼真的图像,或是通过已公开的用户照片合成一张新的自拍照,用视频中的一个人的肖像替换另一个人也只需要动动手指。

在这个由AI构成的“新世界”中,生成式AI创建的内容高度逼真,普通人越来越难准确区分真人和 AI 生成内容,伪造、扭曲现实、造谣将变得越来越容易,有图也不是真相,有视频可能也不是真相——它们需要先证明自己是真的才行。

Midjourney 生成的灾难现场照片。

只需几十张照片,AI就能精准复制出你的样子

人工智能技术日益发展,深伪技术(deepfake,即基于人工智能的人体图像合成技术)也在人们生活中更加常见,而且更常被滥用。

最近,喜欢拍照的王洛奇(化名)迷上了AI写真。“给自己拍照,老公怎么训练也练不出来,自从用上了AI生成软件,‘喂了’大概50张自己之前拍过的照片,并根据这些照片训练lora模型后,写真再也不愁没有好的摄影师拍了。”

王洛奇告诉封面新闻记者,使用AI生成的写真,相似度应该在95%以上。“我拿了一张AI生成的写真去问了女儿照片中的人是谁?孩子表示这就是妈妈呀,还问我什么时候拍的。”

因为在王洛奇进行AI写真训练时,使用的照片大多是在泰国旅行时拍的,还有几张穿泰服的,结果AI生成的写真极具异域色彩。“我尝试了用AI生成点赛博朋克风的照片,都是泰里泰气的,充满异域感的赛博朋克风。”

当被问到AI生成的照片是否有明显的缺点时,王洛奇想了想告诉封面新闻记者:“其实AI写真的近景和中景都很无敌了,要非说缺点,就是远景的全身照脸部会有点垮,不知道是不是训练素材数量不太够还是生成照片的像素太低导致的。”

制作真实人物的虚假视频技术正变得越来越容易获得。生成人工智能的进步将很快意味着,虚假但视觉上令人信服的内容将在网上激增,从而导致信息生态系统更加混乱。

近日,一位女网友在网上晒出自己在地铁列车的照片被别有用心的网友下载,并用AI技术“一键脱衣”,造谣图随后在网上广泛传播。此事引发网友关注并冲上热搜。

事实上,照片的女主角是一名博主,所谓的“裸照”是她去年7月在某平台分享的一张照片。原图中她衣着正常,没有任何不妥之处,但被人用AI软件一键脱衣,故意全网散播。

但更严重的是,如果AIGC内容不断训练后,将能够轻松地将视频或图片视为虽然虚假但难以分辨的伪证,来损害当事人的利益和名誉。

该名小红书博主发布穿着正常体恤和短裤的照片,却被人用AI软件“一键脱衣”并且将照片在网络上疯传。

AI时代,加水印能保护用户隐私吗?

据外媒报道,在 Dall-E 生成的特朗普被捕的假照片病毒式传播后,专门研究图像取证的计算机科学家、伯克利计算机科学教授Hany Farid主张对 AI 图像进行视觉指定:是时候该给这些数字照片贴上可识别的标签。

当社会关注聚焦于生成人工智能将如何进步,有合理且技术上可行的干预措施可减轻AI工具的滥用。Hany Farid在接受记者采访时表示:“我认为解决这个问题的有效方法之一,就是添加水印。”

标记文件和其他物品以证明其真实性、表明所有权和反伪造的历史由来已久。以庞大的图像档案库Getty Images为例,Getty Images为其目录中的所有数字图像添加了可见水印,允许客户在保护公司资产的同时自由浏览图像。

不可察觉的数字水印也可用于数字版权管理,将水印添加到数字图像中。例如,每次调整第10个图像像素,使其颜色(通常是 0 到 255 范围内的数字)为偶值。因为这种像素调整非常小,所以水印是难以察觉的。由于这种周期性模式不太可能自然发生,而且很容易验证,因此可用于验证图像的来源。

即使是中等分辨率的图像也包含数百万像素,这意味着可以将附加信息嵌入到水印中,包括对生成软件进行编码的唯一标识符和用户 ID,值得注意的是,这种相同类型的水印可以应用于音频和视频。

理想的水印是不易察觉的,并且对裁剪、调整大小、颜色调整和转换数字格式等简单操作也有弹性,这些水印可以通过在所有训练数据上添加,并被拷贝到生成人工智能系统中,这样在该软件上生成的内容将包含相同的水印。

根据OpenAI 公开发布的内容显示,该公司正在试验一个系统来为ChatGPT 的创作添加水印,但段落中的字符不能像数值那样进行调整,因此文本水印采用不同的形式。

基于文本的生成式AI是基于生成句子中产生下一个最合理的单词。例如,从“一个AI系统可以……”这个句子片段开始,ChatGPT将预测下一个单词应该是“学习”“预测”或“理解”。与这些单词相对应出现在下一个句子中出现的单词的可能性是有一定概率的。ChatGPT从它所训练的大量文本中学习这些概率。

生成的文本可以通过秘密地标记单词子集,然后将一个单词的选择偏向于同义词标记单词来标记水印。例如,可以使用带标签的单词“领悟”来代替“理解”。通过以这种方式定期选择偏置的单词,基于标记单词的特定分布为文本体加水印。

海外社交平台截图。

科技的边界也需法来明确

高水准“AI画师”Stable Diffusion曾为自己设置了一个Safety Checker,这是一个自动审核图片安全性的程序,一旦监测到生成的图像涉嫌违规,即它在内容政策里写明的不得用来生成的“引人不适的、色情、仇恨、暴力等图像”,机器就会拦下这张图片。

但开元的Stable Diffusion可以通过用户调节来管边自动审核功能,在关闭该功能之后,任何可能涉及仇恨、暴力、色情的描述违禁词都可以被作为生成照片的描述。

据外媒报道,旨在创建媒体认证标准的协作项目的内容来源和认证联盟( 以下简称:C2PA) ,最近发布了一个开放规范来支持视听内容可以被验证为人工生成。随着 Adobe、微软、英特尔、BBC 等多家技术公司加入这项工作,C2PA 已做好充分准备,以生产有效且广泛部署的身份验证技术。

对人类生成的内容和人工智能生成的内容进行联合签名和水印处理,虽然不能防止一切形式的滥用,但可以提供一定程度的保护。任何安全措施都必须不断调整和完善,因为“对手”会找到将最新技术武器化的新方法。

近日,江苏首例“人脸解封”侵犯公民个人信息案公开审理,郑某在被害人不知情的情况下从他人处购买包含姓名、身份证号码、照片、视频等个人信息然后操作图片形成动态视频来进行人脸核验解封他人账号,帮助诈骗团伙实施犯罪。

被告人郑某因犯侵犯公民个人信息罪被判有期徒刑八个月,缓刑一年,并处罚金人民币40000元,作案工具予以没收。该案目前已生效。

法官指出,侵犯公民个人信息犯罪是互联网黑灰产业链的上游犯罪,其直接侵害的是公民的隐私及信息安全,行为涉及面广、危害严重。此外,购买或下载非官方授权或当事人同意的个人信息文件后,在微信群等社交媒体上进行转载、传播,亦会侵犯公民隐私权甚至涉嫌违法犯罪。所以广大市民在看到相关涉及公民个人信息的名单时,不能进行转载、传播,亦应及时提醒亲戚朋友删除,避免二次传播给涉事公民造成更严重侵害。

“要遏制AI合成的乱象,得政府监管部门、平台、网民多方形成合力,多管齐下,一个都不能少。”北京航空航天大学法学院副教授、北京科技创新中心研究基地副主任赵精武曾表示,作为服务的提供者,AI合成平台必须承担主体责任。

《互联网信息服务深度合成管理规定》对AI合成的服务提供方作出了多项规定,比如,AI合成平台必须要求内容创作者实名认证,监督创作者标明“这是由AI合成”之类的标识,以免误导公众;在提供“换脸”技术前,应该征得“被换脸”者的同意;并完善数据管理、保障个人信息安全。

《互联网信息服务深度合成管理规定》要求深度合成服务提供者和技术支持者加强训练数据管理和技术管理。

如同垃圾邮件、钓鱼网站伴随着互联网的诞生而难以清除,在AIGC逐渐普及的当下,抵御在使用生成AI的各种形式的滥用,何为现实何为AI生成的“真假之辩”,似乎也是一场“持久战”。

举报/反馈

关键词: