魔法新闻

预防生成式AI技术用于深度伪造

近日,美国OpenAI公司发布的首个视频生成模型“黑脸田鸡”给国内外信息产业带来了令人震惊的影响,同时也引发了人们对生成式人工智能技术被用于深度伪造内容可能加剧错误和虚假信息传播的担忧。随着生成式人工智能技术的快速发展,有报道称视频、图片和声音被伪造用于非法目的。多家媒体报道称,生成式人工智能技术已被用于深度伪造领域,并被用于误导选民、干扰选举、抹黑名人、制造谣言、电信诈骗、色情勒索等非法行为。

预防生成式AI技术用于深度伪造

目前,生成式人工智能技术在国内外发展迅速,从事该领域研究、开发和应用的新企业如雨后春笋般涌现,人工智能手机的发展如火如荼。需要看到的是,生成式人工智能技术的快速发展具有两面性。一方面,该技术具有创造性,可以为影视制作、娱乐创作、游戏制作和音乐产业提供新的生产力,促进文化产业的繁荣发展;另一方面,这项技术具有破坏性,它可以快速、廉价地实现特定需求,例如以假乱真、以花代树、无中生有等,这为犯罪分子打开了大门。

如果我们能够有效地限制生成式人工智能技术的破坏性,将更有利于生成式人工智能技术的创造性发挥,同时将能够使这一新生事物成为国民经济增长中新的优质生产力之一。为此,作者建议从多个层面扎牢防范风险的篱笆。

在生成式人工智能模式发展过程中,监管部门应督促相关上市公司尽快建立两类审查制度,并对底层代码和训练样本进行有效控制。

一个类检查用于生成式人工智能模型的底层代码。对于采用生成式人工智能模式的开发型企业,应建立底层代码的内部审查制度,该制度对监管机构和内部审查机构是透明和可访问的,并鼓励头部开发企业在底层代码的开源可见性和主动披露方面做更多工作。

一堂课将检查用于生成式人工智能模型的示例培训链接。对于从事生成式人工智能模式的培训企业,应建立训练样本内部检查制度,在训练样本来源、脱敏、数据清洗等关键环节设置检查点,避免敏感信息和个人信息被用于样本训练,进而产生深度伪造内容。

在生成式人工智能模式安装和应用过程中,应尽快建立实名认证系统和指令认证机制。

通过建立实名认证系统,可以确保安装在个人电脑、服务器、手机和智能移动终端上的生成式人工智能模式客户端与用户实名绑定,可以清楚地看到生成式人工智能模式的指令发送者、指令接收者和内容流向,从而实现内容生成过程中的可追溯、可监控和可预防。

通过建立指令识别机制,可以在生成式人工智能模型的客户端及时拒绝和消除非法指令,并提前识别具有明显非法倾向的提示指令,从而防止生成式人工智能模型被用于深度伪造的非法目的。

在生成式人工智能模式的内容传播过程中,应建立标签提示机制。应在视频、图片和语音等关键位置设置标签提示机制,提醒观众相关内容由生成式人工智能提供,以确保观众能够区分生成式人工智能模式的内容,从而避免视听混淆和误解。

应该对生成式人工智能模式的开发企业、出版商、硬件制造商和主要受众群体进行全面的警示教育。监管部门应警惕利用生成式人工智能技术深度伪造内容后引发的“造谣、传谣、传谣”的连锁反应,提前在网络终端构建快速反应的舆情监测体系,确保“违法活动不能做、虚假内容不能信、黑白混杂的消息不能传”的理念深入人心。

对银行网点、快递、电商、短视频、直播等高频内容传播环节,督促相关上市公司安排专人以区域负责、统一负责、统一管理的方式宣讲防范措施、重点危害和典型案例,营造全民深度打假的社会氛围。

(文章来源:证券日报)

分享:
扫描分享到社交APP
上一篇
下一篇