Custom Thumbnail
题图:©FD Images,AI生成

AI生成的内容正在提升信誉的价值

很快,谁发布了内容将比发布了什么内容更重要

现在只需要轻点鼠标,就能生成虚假但逼真的内容。可能会是好玩儿的东西,比如,一个TikTok账号下五花八门的视频中,有一条是AI生成的汤姆·克鲁斯穿着紫色长跑,对着抱一只小狗的(真人)帕里斯·希尔顿演唱《小小舞者》,这个账号已经吸引了510万粉丝的关注。这也是一个深刻的社会变化:在此之前,人们长久以来都认为图像、视频、音频几乎等同于某物真实存在的铁证。而现在,那些电话诈骗的人只需要十秒钟的音频,就能假扮某人的亲人求救,AI生成的汤姆·汉克斯和泰勒·斯威夫特在网上为可疑产品代言,有政客露脸的虚假视频也是层出不穷。

根本的问题其实是个老问题。从印刷术到互联网,新技术往往使传播不实信息或冒充可信者变得更加容易了。通常情况下,人类会抓到某些破绽识别作假,比如,如果拼写错误太多,就表明这封电子邮件可能是网络钓鱼攻击。至于最近,AI生成的人物图像往往会因为奇怪的手部细节被识破,伪造的视频和音频有时会出现音画不同步的问题。现在,有悖于常理的内容,立刻就会引起那些清楚AI本领的人的怀疑。

麻烦在于,识别虚假的速度越来越难以跟上造假的速度了。随着计算能力和训练数据日益充裕,AI在不断进步。网页浏览器中内置的虚假内容检测AI软件,能否识别计算机生成的内容?可惜不能。生成与检测之间的军备竞赛更有利于伪造者。最终,AI模型很可能能够生成像素级别还原的赝品——假如它所呈现的事情真会发生,被记录下来的话也就会是这副样子了。即便最好的检测系统也可能找不出破绽,无从下手。可以强制受监管的公司在运营的模型里加入水印,但这并不会影响使用开源模型的骗子们,他们在家里的笔记本电脑上就能调整和运行这些模型。

可能会出现的反乌托邦场景俯拾皆是。一个很难避免的例子,就是有人可能会在自家地下室使用开源模型,将任何人的照片制作成色情内容,然后用于敲诈。也许任何人都能制作出某位总统或总理宣布发起先发制人核打击的视频,让世界瞬间进入紧张状态。冒充受害者亲属的诈骗者也会兴风作妖。

然而,社会也将适应造假者的存在。人们将认识到,图像、音频、视频并不能证明某件事发生过,就像一幅图画不能证明某事发生过一样。可以将信息收集任务可靠地众包出去的开源情报时代,可能不会长久了。在线内容将不再能自证真实性,因此,究竟谁发布了内容将变得与发布了什么内容一样重要。加入值得信赖的信息来源,能够继续通过URL、电子邮件地址、社交媒体平台安全可靠地证明自己的身份,声誉和内容出处就将变得前所未有地重要。

这听起来可能很奇怪,但这在历史上的大部分时期都成立。批量生产可信内容的时代才是个例外。人们可能很快就会难以找出AI这只看不见的手,但这并不意味着思想市场从此就要完蛋了。随着时间的流逝,能好好存活下来的虚假内容将主要是搞笑好玩儿的那些了。

本文采用AI编译,模型训练:讯鸟云服,原文作者:The Economist,审校排版:从林点击查看原文链接

翻译作品,原文版权归原作者所有。未来学人仅提供翻译服务,不对原文内容或观点进行任何修改或代表。如有侵权,请联系我们删除。

赞赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫

好文章值得赞赏

相关推荐

评论

登录后才能评论