-
- 查看全部{{ item.replyCount }}条回复> 查看更多回复>
- 查看更多回复>
绘图/刘阳
□楚天都市报极目新闻记者 庞正 陈倩 王俐燃 涂梦蝶
日前,中央网信办发布2025年“清朗”系列专项行动整治重点,明确提出整治AI技术滥用乱象,突出AI技术管理和信息内容管理,强化生成合成内容标识,打击借AI技术生成发布虚假信息、实施网络水军行为等问题,规范AI类应用网络生态。
2月24日,今日头条“平台治理开放日”上发布的《2024年度治理报告》显示,去年平台拦截低质AI内容超93万条,处罚同质化发文超781万篇。
AI技术的应用让内容生成更便捷,但也伴生了技术滥用带来的乱象。如何规范技术应用,管住“智能造谣”?参加全国两会的全国人大代表和全国政协委员,纷纷为人工智能安全运用支招。
乱象一 AI换脸拟声恶搞名人
全国政协委员周鸿祎建议:以模制模保护大模型应用安全
日前,有网友发现一个视频号发了很多演员刘晓庆的视频,并怀疑相关视频由AI生成。刘晓庆本人在看了视频后回应称:“画面是我,声音很像我,但不是我!这是怎么做到的?”
一些商家在短视频平台带货时,通过AI模仿声音技术将主播“变”为知名女明星、知名医生,销售服装、保健品等相关产品,对消费者造成了严重误导。如国家传染病医学中心主任、复旦大学附属华山医院感染科主任张文宏接受媒体采访时曾表示,通过语音合成来模仿他的声音进行直播带货,这样的账号“不止一个,且一直在变”,他多次向平台投诉但屡禁不绝。胖东来创始人于东来的声音也曾频遭AI模仿,相关平台出现了大量与事实不符的合成视频。胖东来商贸集团为此发布声明称,多个账号未经授权擅自利用AI技术手段生成于东来的声音,加入误导性文案,对公众造成误导和混淆。此外,在社交平台上,通过AI模仿恶搞各领域名人的音视频不在少数。
在AI制造的谣言中,还有一种更具欺骗性的情况,那就是AI生成的内容,看似有理有据,但实际却是基于不真实数据的“幻觉”。这种“一本正经地胡说八道”,更加让人难以分辨。
人工智能系统生成的内容与真实数据不符或者偏离用户指令的AI“幻觉”问题,备受全国政协委员、360集团创始人周鸿祎关注。他在接受极目新闻记者采访时表示,当大模型渗透率提升时,应用安全问题也迫在眉睫。
今年春节期间,DeepSeek在全球异军突起,成为AI发展史上的重要里程碑。“在我看来,DeepSeek最大的成果不仅是让中国大模型在技术上赶上了美国大模型,同时在中国用户、企业和政府中做了一次人工智能的普及教育。由于DeepSeek免费、开源等特性,各行业纷纷开始采用DeepSeek降本增效,加速了中国爆发AI产业革命的步伐。”周鸿祎说,DeepSeek作为基座模型,也存在着AI“幻觉”等问题。大模型要在企业内部真正发挥作用,需要连上企业的专业知识库、打造智能体,调用企业各种IT系统,这进一步加剧了安全风险,而传统网络安全已经无法应对新挑战。他建议,应由既懂安全又懂AI的企业牵头,以模制模,通过打造安全大模型来解决大模型的应用安全问题。
周鸿祎分析,作为人工智能,DeepSeek本身一直存在着“幻觉”的“基因问题”。其实AI“幻觉”是一把双刃剑,它让大模型体现出更多的创造性和想象力,同时,大模型“幻觉”很难消除,但已经可以通过多个大模型交叉验证、搜索矫正以及企业知识库比对等方式进行纠正。筑牢网络安全根基,是为大模型发展铺路;而解决AI应用安全与“幻觉”问题,则是让技术真正转化为新质生产力。
乱象二 AI滥用侵犯公民个人信息
全国人大代表雷军建议:加快单行法立法强化行业自律
“使用AI时,也要注意保护个人信息。”3月4日,全国人大代表、湖北松之盛律师事务所合伙人李刚围绕人工智能(AI)的法律风险与监管路径发表了观点。
李刚提到,AI的出现给大家的生活和工作提供了便利,然而,换脸拟声等技术有时会被用于娱乐、恶搞甚至诈骗,存在严重的个人隐私泄露风险。
他建议,行政与司法部门应强化对该类情况的追责力度,此外,AI处理敏感数据时的泄露风险亦需防范,“企业应建立数据分级机制,防止恶意利用”。
全国人大代表、小米集团创始人、董事长兼CEO雷军也透露,将提出关于加强“AI换脸拟声”违法侵权重灾区治理的建议。
雷军表示,人工智能深度合成技术的快速发展,推动了“AI换脸拟声”在影视、广告、社交等领域的广泛兴起,成为喜闻乐见、传播力强、易成热点的技术应用。但同时,“AI换脸拟声”不当滥用正成为违法侵权行为的重灾区,易引发侵犯肖像权、侵犯公民个人信息以及诈骗等犯罪行为,不利于构建“以人为本、智能向善”的人工智能发展生态。
因此他建议,加快单行法立法进程,在安全与发展并重的基础上提升立法位阶;强化行业自律共治,压实平台企业等各方的责任和义务;加大普法宣传的广度和力度,增强民众的警惕性和鉴别力。
-
回复