继“人工智能假拜登“打电话误导选民之后OpenAI、Meta等纷纷启用大模型水印
最近,人工智能领域出现一些令人鼓舞的消息。在令人沮丧的泰勒·斯威夫特深度伪造色情丑闻和政治深度伪造内容泛滥之后, 科技公司正在加紧行动,采取措施更好地检测人工智能生成的内容。
最近,有语音机器人正在伪装成美国总统拜登的声音,告诉选民待在家里,不要投票。
Meta公司表示将在Facebook、Instagram和Threads3个社交媒体平台上标记人工智能生成的图像。
当有人使用Meta的人工智能工具创建图像时,该公司会在图像中添加可见的标记,以及“烙印”在图像文件中的肉眼不可见水印和元数据。

Meta表示,其水印标准符合人工智能研究非营利组织Partnership onAI制定的实践规则。
其他大型科技公司也在大力支持一项有潜力的技术标准,该标准可以为图像、视频和音频添加一种“营养标签”。它被称为C2PA,是一种开源的互联网协议,依靠密码学来编码一段内容的来源细节,技术专家又将其称为“来源”信息。
C2PA的开发人员经常将该协议比作食品包装上的营养标签,它会说明特定内容来自哪里,以及是由什么人或工具创建的。
Meta表示它也参加了C2PA。拥有一个全行业统一的标准使公司更容易检测到人工智能生成的内容,无论它是用哪个系统创建的。
OpenAI公司也宣布了新的内容来源标注措施。该公司表示,将在其人工智能工具ChatGPT和DALL-E3生成的图像元数据中添加水印。
OpenAI表示,现在它将在图像中添加可见标识,以表明它们是用人工智能创建的。
这些举措是一个好的开始,给了人们希望,但并非万无一失。元数据中的水印很容易通过截图来规避,而图片上的标识可以被裁剪或编辑掉。
像谷歌SynthID这样的隐形水印可能更有希望,它可以巧妙地改变图像中的像素,使计算机程序可以检测到水印,但人眼无法识别出来。这种水印更难篡改。
但创造这些“溯源”工具仍然有价值。生成式人工智能专家亨利·阿杰德就如何杜绝深度伪造色情内容接受采访时表示,重点是给别有用心的人创造一个“坎坷的过程”。
换句话说,给深度伪造内容的生成和传播途径增加障碍,以尽可能地减少这些有害内容的创建和分享。一些真正图谋不轨的人可能仍然会推翻这些障碍,但只要它变得稍微困难一点点,就会有所帮助。
科技公司还可以引入许多非技术性的修复措施,来预防深度伪造色情内容之类的问题。谷歌、亚马逊、微软和苹果等主要云服务提供商和应用商店可以禁用那些与创建深度伪造色情内容有关的应用。
水印应该在所有人工智能生成的内容中全面普及,即使是开发该技术的小型初创公司,也应该参与其中。
除了这些自愿措施,我们也开始看到具有约束力的法规出台, 如欧盟的《人工智能法案》和《数字服务法案》。这些法案要求科技公司披露人工智能生成的内容,并更快地删除有害内容。
美国立法者也对通过法规来约束深度伪造技术和内容重新产生了兴趣。
在人工智能生成的“ 冒牌拜登总统”出现并以机器人语音电话的方式告诉选民不要投票之后,美国联邦通信委员会近日宣布,禁止在类似的语音电话中使用人工智能。
总的来说,这些政策指导方针和规则还是难以令人满意,因为它们不具备真正的问责机制,很多公司可以随心所欲地改变这些规则。
科技行业在自我监管方面一向表现非常糟糕。在残酷的、增长驱动的科技世界里,像“负责任的人工智能”这样的项目往往是第一个面临削减的。
尽管如此,这些新的溯源和水印举措还是非常受欢迎的。它们比维持现状好得多,因为现状几乎是一片空白。( 综合整理报道)(策划/克珂)