爆料网 今日看料劲爆内幕全公开

爆料网 今日看料劲爆内幕全公开

即使在人工智能时代,眼见为实?

新华社柏林3月19日电 新闻分析|即使在人工智能时代,眼见为实?人工智能已经学会模仿人类书写、再现人类声音以及合成人脸。当这种技术被滥用时,人们就会被欺骗。这不禁让人思考:人工智能时代,我们还相信自己看到的东西吗?人工智能欺诈侵犯了公众记忆。近日,一段“以色列士兵躲在墙后哭泣”的视频在社交媒体平台上广泛流传,德国电视台2调查发现,该视频是典型的人工智能生成作品。视频中,士兵们佩戴的徽章时隐时现,其所包含的文字是一串模糊不清的字符。不少网友还指出,视频中的制服造型、哭泣音效、武器细节等与真实场景有很大出入。随着生成工具进入新闻制作过程,专业新闻机构的控制机制离子也面临挑战。今年 2 月,德国第二频道电视台传唤并解雇了其驻纽约记者,原因是在一份关于美国移民和海关执法局执法行动的报道中包含了由 Sora 视频生成模型生成的虚假视频。屏幕一角,空的水印清晰可见。事件发生后,德国电视网2宣布为员工开设强制性培训课程,以规范周期性信息中人工智能工具的使用。德国电视台 2 台主编贝蒂娜·肖斯坦 (Bettina Schosten) 表示:“忽视新闻标准造成的损害是巨大的。这会影响信息的可信度。”人工智能欺诈甚至侵犯了历史记忆。今年早些时候,包括达豪集中营和布痕瓦尔德集中营在内的约 30 个德国集中营纪念馆和博物馆联合签署了一封公开信,呼吁社交媒体平台打击利用人工智能生成大屠杀相关内容的行为泰德内容。德国历史学家埃莉斯·格罗泽克 (Elise Groszek) 表示,人工智能生成的图像和视频通常具有黑白背景、瘦弱的人物等。她说,这看起来很像历史照片,就像孩子们在铁丝网后面尖叫,但如果你仔细观察,你可以发现异常现象。这些图像和视频中的人看起来很相似,身高也很相似,而且都非常漂亮。 “人工智能让纳粹受害者变得更年轻、更美丽。这种美化歪曲了历史,但却利用了公众的同情心并广泛传播。”格罗泽克表示,此类虚假出版物损害了纪念碑、档案馆、博物馆和研究机构工作的权威和可信度。操纵创造“社会共识”比内容造假更危险。人工智能可以伪造“多数意见”。一个国际团队最近在美国《科学》杂志的政策论坛部分发表了一篇文章,认为数字操纵正在进入一个新阶段。它不再是一个s散布虚假信息的单个账户,而是冒充真实用户的人工智能组织。这些群体可以相互互动并对现实世界的情况做出反应。人们适应不断变化的情绪,并通过不断的协议和相互强化,在不存在的地方创造出“社会共识”。德国康斯坦茨大学研究员大卫·加西亚解释说,这种类型的人工智能集群由一组可以由个人或组织控制的人工智能代理组成。它们具有相对稳定的身份和记忆,可以模拟人类行为,围绕特定目标合作行动,并根据实时事件和用户反馈调整表情。这种类型的人工智能集群与早期的僵尸网络有很大不同。后者通常是机械工作的,因此更容易识别。另一方面,前者可以跨平台运行,并通过响应每个平台来不断扩大其影响力。她。加西亚认为,真正的风险不再局限于个人的错误信息,而是“操纵者”可以利用大规模模型来虚拟化“另一个社会”。 “通过一个缓慢而持​​续的过程,人工智能群体可以制造出一种特定立场得到广泛支持的假象,从而影响人们的观点,甚至改变社会规范,”他说。即使没有,也会形成占多数的假象。 “从被动辟谣到主动识别。面对这种能够形成“社会共识”的新威胁,研究人员和机构已经开始采取利用技术手段进行识别等措施,通过扎实的监督机制,及时识别和揭露虚假信息和内容。加西亚认为,为了更快地发现人工智能的群体操纵行为,必须利用模式识别等技术手段来检测是否存在异常同步、相互响应和协调的情况。内容中的平台之间。除了技术鉴定之外,研究人员还主张建立独立的监督机制,持续观察人工智能体如何影响各个平台上的公众辩论,并及时揭露虚假内容。加西亚说,这些网络暴露得越早,就越有可能削弱公众的信任,并使多样化的意见群体难以伪装成单一的共识。防伪检测工具目前仍处于测试阶段,旨在提高公众识别可疑内容的能力。与仅依靠像素异常来识别伪造迹象的传统方法不同,该工具不仅执行图像和音频取证,还执行基于上下文的交叉检查。用户只需点击两次即可将社交网络上的可疑​​照片发送到检测系统。系统分析材料和问题是否是由人工智能生成或被操纵的莱茵兰-普法尔茨州政治教育中心主任伯恩哈德·库卡奇评论说,“d”向用户发送了可能的虚假内容和相应的线索。他说,虚假信息已成为一个主要问题。识别和验证信息的能力尤其重要,因为公众每天都可能接触到被操纵的内容。

Leave a Reply

邮箱地址不会被公开。 必填项已用*标注