为了更好的体验,请使用竖屏浏览

你被AI假新闻骗过吗?

AI应用使用不当或被追究刑事责任

来源:珠江时报2024年11月21日    

近年来,人工智能(AI)技术发展迅速,成为全球科技领域的热点。AI已经从单纯的学术研究发展成为改变人类生活方式的重要力量。然而,却有一些别有用心之人将其变为造谣、敛财的工具。

专家表示,AI造谣具有定制化、门槛低、识别难、破坏大等特点,亟须加强监管。同时,可以通过设置AI生成内容提示标识、严格落实网络实名制等技术手段进行治理。

AI假新闻特征门槛低、识别难、危害大

今年6月,一条“广东省五华县华阳镇一70多岁老人被殴打致昏迷,其孙子为此跳河自杀,打人者一审被判九年十个月”的短视频在互联网平台传播,引发大量网民关注、讨论。经公安网安部门开展调查发现,该视频的图文内容系移花接木、肆意编造的网络谣言。据造谣人员任某供述,这段长达几分钟、声色并茂的视频全是由AI合成的。

此事件并非个案,随着AI技术应用越来越普遍,一些网民为博眼球、蹭热度,将AI技术用以编“伪消息”、造“假新闻”,以此来获得网民关注和点赞量,进而实现流量变现。

今年8月,一则“福建南平松溪县遭遇严重大风袭击,造成枣岭街一人死亡”的消息在网络上迅速传播。这则消息图文并茂,甚至还有逼真的视频片段,一时间引得大量网民关注和转发。但经公安机关核查发现,这也是用AI编造而成的网络谣言视频。

“当前AI网络谣言具有仿真性和规模性的特征。根据输入指令的不同,AI在短期内能够批量生成大量内容不同的网络谣言,而且生成的网络谣言信息内容更加贴合人类表达方式,并结合深度伪造技术生成图片、视频、录音,使得社会公众越发难以辨识网络信息的真伪性。”北京航空航天大学法学院副教授赵精武说。

记者随机用“AI文案速成”小程序测试,在对话框内输入“火灾”这一主题有关的内容创作指令,便生成了一篇新闻报道,甚至包括现场救援细节,及消防安全提示,让人真假难辨。赵精武指出,AI网络谣言的危害性主要表现为扰乱社会公共秩序,削弱政府公信力、诱发电信网络诈骗等。

为牟取非法利益造假涉嫌构成多种罪名

个人或组织利用AI技术造谣背后的动机是复杂多样的,既包括部分网民为了寻求存在感、刺激感,故意编造AI网络谣言,也包括犯罪分子为了牟取非法利益,编造AI网络谣言,以便顺利实施电信网络诈骗等犯罪活动。

今年6月中旬,一家MCN机构的实际控制人王某某因利用AI软件生成虚假新闻并大肆传播,扰乱公共秩序,被警方行政拘留。据警方通报,王某某共经营5家MCN机构,运营账号842个,自今年1月以来,王某某通过AI软件生成虚假新闻,最高峰一天能生成4000至7000篇。

近日,浙江温州苍南公安成功打掉一个编传旧案谣言的MCN机构“网络水军”团伙。进一步侦查发现,相关账号和视频由某网络科技有限公司(实为以MCN模式运营的“网络水军”团伙)使用发布,该MCN“网络水军”团伙搜集全网敏感热点,随意设置虚假剧情,利用AI软件根据剧情自动生成多处关键情节虚假的文案,安排真人出镜解说,拼接网络中误导性素材后剪辑成所谓“原创”视频。该团伙明知上述视频充斥大量虚假、挑动群众情绪类信息,为博取流量、不法牟利,在多个平台公开发布,后造成虚假视频信息被大量浏览、传播,从而牟取非法流量返利。

中国人民大学刑法学博士、北京市京师律师事务所实习律师黄福涛说,编造虚假的险情、疫情、灾情、警情,在信息网络或者其他媒体上传播,或者明知是上述虚假信息,故意在信息网络或者其他媒体上传播,严重扰乱社会秩序的,处三年以下有期徒刑、拘役或者管制;造成严重后果的,处三年以上七年以下有期徒刑。如果行为人不仅制作、传播虚假信息,而且目的是骗取互联网平台上不特定多数人的财产,则涉嫌诈骗罪。

“加强AI领域的司法治理,需要立足于‘安全与发展并重’和‘分级分类监管’的基本原则,针对诸如生成网络谣言等技术滥用现象,既需要在事前阶段明确研发者、服务提供者以及网络平台的主体责任,还需要在事后阶段严格追究违法行为人的刑事责任、行政责任。”赵精武强调。

同时,他表示,也可通过技术手段进行治理,譬如设置敏感关键词,禁止生成显著违法的信息内容;严格落实网络实名制,并配合水印技术,实现对生成内容的有效溯源;或者平台设置AI生成内容提示标识等。

AI融入生活这些细节要警惕

AI工具泄露敏感数据

AI对话、文字创作等AI工具可收集并存储用户输入的信息,造成个人隐私数据泄露,甚至可能从一些涉密敏感人员数据中推断出敏感信息,相关数据如被境外间谍情报机关收集窃取,将造成国家安全风险隐患。

个性化推荐暗藏信息陷阱

AI推荐系统通过分析用户习惯,个性化推荐形成“过滤气泡”,形成互联网回音壁效应,对个人思想观念等产生影响,使受众陷入信息茧房。

仔细分析信息逻辑性

若存在明显漏洞、矛盾或与常理不符的地方,很可能是虚假信息。比如,一些谣言中事件的发展过程不符合常理,或者数据存在不合理的夸张等。

多个权威渠道验证信息

不要仅仅依赖单一的信息来源,应从多个权威渠道获取信息进行对比。对于一些热点事件,可以检索官方媒体的报道,以验证信息的真实性。

谨慎分享

在确定信息真实可靠之前,不要随意转发,以免无意中成为谣言传播的推手。

保护隐私

注意保护个人隐私,不随意泄露个人信息给不可信的网站或应用程序,防止个人信息被用于生成虚假内容。

法规链接

2023年1月10日起施行的《互联网信息服务深度合成管理规定》指出,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。

2023年8月15日起施行的《生成式人工智能服务管理暂行办法》规定,提供和使用生成式人工智能服务,应当遵守法律、行政法规,尊重社会公德和伦理道德。不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情,以及虚假有害信息等法律、行政法规禁止的内容。

◎延伸阅读

精准AI“新闻打假”离我们有多远?

为对抗社交媒体和新闻网站上虚假内容造成的危害,数据科学家们正变得越来越有创意。

用于创建聊天机器人(如ChatGPT)的大型语言模型虽然仍处于训练阶段,但已被用于识别假新闻。人工智能(AI)假新闻检测系统具有更好的识别能力,或许能够对深度伪造、鼓吹造势、阴谋论和虚假信息带来的严重危害进行示警,并最终消弭这种危害。

下一阶段的AI工具将对假消息识别功能提供个性化定制,并保护我们免受其害。为让AI实现这种以用户为中心的终极飞跃,数据科学需要求助于行为科学和神经科学。

最近的研究表明,我们可能并非总是有意识地察觉自己遇到了假新闻。神经科学有助于揭示在无意识的情况下所发生的一切。生物标志物(如心率、眼球运动和大脑活动)在面对虚假和真实的内容时,其反应似乎存在微妙差异。换句话说,这些生物标志物可能提供“信号”,显示我们是否上当了。

例如,当人们注视画面中的人脸时,眼球追踪数据显示,我们会注意对方眨眼的频率和血流引起的肤色变化。如果这些地方看起来不自然,就会促使我们断定自己在看一个“深伪”画面。这些知识会给AI带来优势——我们可以训练它模仿人类,在众多信息中寻找判断依据。

利用这些在人眼运动数据和脑电活动方面的发现,AI假新闻检测系统可以进行个性化定制。这些发现显示了何种类型的虚假内容对神经、心理和情感的影响最大,以及对哪类人群的影响最大。

通过了解我们的特定兴趣、个性和情绪反应,AI事实核查系统可以识别并预测哪些内容会引发我们最强烈的反应。这可能有助于了解人们何时会上当受骗,以及哪类素材最容易让人信以为真。

接下来要做的是量身定制保护措施。要保护人们免受假新闻之害,还需要建立干预系统——某种针对假新闻的数字反制措施。有些方法可以做到这一点,比如贴警告标签,附上专家认证的可信内容链接,甚至在人们阅读某项内容时建议他们考虑不同的观点。

个性化的AI假新闻检测器可以被设计成向每个人提供其中一种反制措施,以抵消网络虚假内容的危害。

这种技术已经在测试中。美国专业人员研究了人们与社交平台的个性化AI假新闻检测系统的互动。AI系统学会了减少某一类新闻推送的帖子数量,只保留它认为真实的帖子。作为概念验证,另一项使用社交媒体帖子的研究为每条媒体帖文定制了额外的新闻内容,以鼓励用户阅读不同的观点。

专业测谎系统的好坏取决于它们准确识别出谎言(命中)、将谎言误判为真话(失误),以及将真话指责为谎言(假警报)的频率。同样的逻辑也适用于假新闻检测。

对于检测假新闻的AI系统来说,要做到超级准确,命中率必须非常高(比如90%),因此失误率必须非常低(比如10%),同时假警报率也需要保持在低位(比如10%),不会把真新闻误判为假新闻。

正如最近一项调查所显示的,在某些情况下,新闻内容并非完全虚假或真实,而是部分准确。这可以想见,因为新闻周期的速度意味着,一度被认为是准确的新闻可能出现反转,反之亦然。因此,假新闻检测系统有大量工作要做。

(综合央视新闻、央广网、参考消息、澎湃新闻)

整理/佛山市新闻传媒中心记者黎国栋