请选择 进入手机版 | 继续访问电脑版
 找回密码
 立即注册
戴客 首页 科技资讯 人工智能 AI 查看内容

「五毛党」要失业,AI 水军已经能以假乱真

北极蚊子 2017-9-4 10:39

很多人在购物时会参考其他人的评论,因为同属消费者立场,对商品、服务的判断会相对可靠。一些商家为了提高自己的销量,会雇水军来刷假评论。人工水军也被称为「五毛党」,雇佣这种水军有一定的成本,不过所写评论相对「真实」,容易骗过其他人。还有一种假评论由机器批量生成,这种水军以量取胜,成本低廉但很容易被分辨出是机器。

点评网站对于假评论都有一定的审核机制,水军评论被局限在一个可控的范围内,不过这种情况很可能要被改变了。

以假乱真的「AI 水军」

芝加哥大学研究人员利用神经网络训练出一种 AI 水军,可以在亚马逊、Yelp 等网站下自动生成假评论,不但可以绕过机器检测,而且跟普通人的真实评论很像,几乎能以假乱真。

研究人员用网上已有的大量真实评论为素材,使用循环神经网络(RSS)进行训练,用语言模型来预测下一个单词的概率,从而生成新的文本。这种技术生成的评论不是简单从已有素材中进行复制,所以不会被机器检测到。

下面是这些就是由 AI 生成的评论。

  • 我已经来过这儿好几年了,每次的体验都很好。服务很棒!这儿的人都挺友善。我一定会再来的!
  • 这个地方很不错!调酒师十分厉害。意大利面很好,我喜欢他们的甜点,很赞。我也喜欢这里的早餐,工作人员很友好,价格也合理。没有遇到什么不好的体验。一定会再来!
  • 我喜欢这个地方。和我哥一起去的,我们点了素食意大利面,很好吃。啤酒也很棒,服务不错。我一定会推荐这个地方给其他人,很适合那些想找个地方吃早餐的人。

这些假评论不但绕过了系统的检测,甚至还被很多用户点了「有用」。研究人员将 AI 生成的评论与真实评论进行对比,让不同的人对其实用性进行评估。评分为 1-5(最没用-最有用),最终真实评论得分为 3.28,AI 生成的评论为 3.15。这表示 AI 水军生成的假评论已经和那些真实评论接近,可以影响用户的消费行为。

人工水军的存在已经极大地影响了网络信息的真实性,而 AI 水军会将这种情况无限放大。

AI 对文字评论的模仿相对容易实现。因为每条评论内容都很短,主题统一而简单,对表达方式也没那么严格。最重要的是,这些假评论隐藏在众多真实评论中,人们不会抱着质疑的态度去看。对于数量繁多的信息大多数人会一扫而过,而这些假的评论被重复无数次之后,就会对人产生潜移默化的影响。

「谣言重复多次就会成真」,这就是假信息带来的误导。

假信息可以防御

真实和虚假的界限正变得模糊,不过目前生成的假评论并没有那么完美。研究人员提到,他们能够开发可以删除 AI 假评论的技术。因为假评论和真实评论使用字词的频率是不同的,AI 要尽可能保持逻辑通顺、流畅,所以对于字词的选择会更保守,这些细微的变化一般人无法发现,但通过技术还是有方法可以识别。

从技术上说未来的神经网络只会越来越复杂,AI 生成的假评论也将更加多样化,不过如果这种技术成本高到一定程度,「批量」生成假评论这件事也就没了意义。

水军评论只是 AI 技术在文本生成上的应用,从内容形式上看,AI 能模仿的不仅是文字。

  • 图像:Prisma 可以让普通照片变成艺术画作。
  • 声音:Adobe 展示过 Project VoCo 软件,可以在一段声音里直接插入和改动某几个单词,将声音进行重构和创造。
  • 视频:华盛顿大学最新研究,将人说话的声音转化为对应嘴型,然后将其移植到一个现有的视频素材中,生成一段全新的视频。

这些技术有的已经实现,有的还在研究阶段,未来在网上分辨真假信息会变得越来越难。不过,这些模仿都只是停留在内容形式上,人类的复杂行为又岂是那么容易模仿的?对假信息的分辨,总会有方法。

社交平台上的机器人账号是导致虚假信息泛滥的一个重要原因,打击虚假信息也是每个社交平台都在做的事情。美国印第安纳大学和东北大学研究人员前段时间推出了 Botometer 系统,可以区分 Twitter 机器人和真实人类。

Botometer 系统用超过 1000 项指标来监测用户行为,从推文发布的设备、时间、地点,到内容的原创比例,还有粉丝的构成等,这些数据最终会计算出一个分数,根据用户行为可判断账号有多大概率是机器人。

AI 能做的事越来越多,这些技术对社会产生什么影响取决于人如何使用。

很多人认为 AI 最大的危险是毁灭人类,但那些科幻电影中的情节离现在还太远,很多真正的威胁往往来自身边,来自一些平常注意不到的地方。芝加哥大学的研究人员认为:「AI 技术进步的速度很快,如果现在还不开始考虑主动防御,未来可能会陷入无法控制的局面。」

文章点评