运动员代言土鸡蛋事件引关注,AI合成侵权频发如何筑牢防火墙?

AI世纪 2025-08-23
大模型 2025-08-23

以此次“运动员代言土鸡蛋”事件为例,违法者只需一款AI软件,再找一段清晰的语音样本,就能快速合成出自己设定好的内容。几位经常出现在公众场合的知名运动员的语音几乎随手就能搜到。侵权账号也属于难以辨别主体、数量庞大的“账号矩阵”之一,被发现侵权后立即清空,将内容迁移至别的账号上。维权者要想在信息浩若烟海的互联网上锁定数字账户背后的侵权者、固定侵权证据,难度在不断提高。

既然是违法乃至犯罪行为,不该也不能成为无解难题。随着技术发展,此类违法行为还会增加并不断变化,必须从技术和制度层面上筑牢防火墙,才能有效惩治违法行为,维护互联网安全。

以技术治理技术是一条可取之道。如今一些社交媒体平台已经开始试点在AI生成内容上标注提醒,今年9月1日起将实施的《人工智能生成合成内容标识办法》则明确要求“生成合成内容添加显式标识”“提醒用户主动声明发布内容中是否包含生成合成内容”。同时,平台也应利用AI技术和大数据信息,及时分析比对违法内容,主动拦截、及时下架并保存数据作为证据。

打击处理网络违法犯罪,绝不是平台一家之责。执法部门也应进一步和平台紧密配合、高效联动,将侵权报案、证据保存、账号锁定、落地追责等全过程打通,突破传统打击违法犯罪的区域概念,提高破案效率,让侵权者付出其应有的代价,以案例教育警醒更多人,技术不是违法犯罪行为的“隐身符”。

加强AI技术治理,绝不是限制技术发展。技术本无错,为牟利踩踏法律红线、践踏他人权益的是藏在技术背后的人。加强治理利用AI技术违法犯罪,不仅是保护个体权益,也是为AI健康发展铺平道路。将技术创新纳入法律规范之中,是未来发展的必由之路,也考验我们的治理智慧。

人工智能带来前所未有发展机遇,也带来前所未遇风险挑战。正如习近平总书记指出,要把握人工智能发展趋势和规律,加紧制定完善相关法律法规、政策制度、应用规范、伦理准则,构建技术监测、风险预警、应急响应体系,确保人工智能安全、可靠、可控。

AI