这场骗局揭开了AI造假产业链的冰山一角。不法分子精准锁定高信任度公众人物,用技术克隆他们的音容笑貌,将其信誉变现为收割利器。除了李梓萌,奥运冠军全红婵的声音被用来卖土鸡蛋,医学专家张文宏的形象被合成推广蛋白棒。这些被伪造的名人推荐,利用的正是大众对权威的天然信赖。当88万粉丝的账号用AI李梓萌带货时,观众看到的不是技术合成的幻影,而是那个每晚准时出现在屏幕上的可信符号。事件发酵后,北京市海淀区市场监管局迅速介入,查实涉事产品仅为普通食品,根本不具备宣传中的疗效。涉事商家被依法处罚,账号也被封禁。央视官方紧急发文澄清,强调李梓萌从未参与任何商业推广。这场及时的介入不仅还了当事人清白,更暴露了AI时代的信任危机:当技术能完美复制一个人的声容笑貌,我们还能相信自己的眼睛吗?
事实上,国家早已布局应对这类风险。年初实施的《生成式人工智能服务管理办法》明确规定,AI生成内容需标注来源,不得侵害他人权益。就像给数字内容办身份证,让消费者能清晰分辨真实与伪造。但技术迭代的速度,总让监管面临新挑战。现在用一张照片就能合成逼真视频,普通人仅凭肉眼几乎无法识别,这让防骗难度陡增。这次事件也给公众敲响警钟:面对名人推荐,除了看脸听声,更要核查信息来源。那些打着权威背书旗号的产品,未必真有明星站台。就像这次被骗的消费者,以为央视主播推荐的肯定靠谱,结果栽在了AI克隆的坑里。而对公众人物来说,即便从未涉足商业领域,也可能成为骗子的数字傀儡,名誉随时面临无妄之灾。值得欣慰的是,从官方快速响应到法规逐步完善,我们正在为信任筑建防护网。当技术的双刃剑带来新风险时,既需要国家层面的制度约束,也需要平台加强内容审核,更离不开每个人的警惕之心。毕竟,在这个真假难辨的数字时代,保护信任,就是保护我们自己不被AI镰刀收割。



关于我们|版权声明| 违法和不良信息举报电话:010-84151598 | 网络敲诈和有偿删帖举报电话:010-84151598
Copyright © 2008-2024 by {当前域名}. all rights reserved



×