国内统一刊号 CN61---0053 社长:毕诗成

您的位置: 电子报 > 专题新闻 > 正文

你的声音被谁“偷”走了?

亲耳听到的就是真的吗?未必。记者调查发现,随着人工智能技术和语音大模型应用的发展,AI合成声音APP大量出现,只需十几秒便可“克隆”出来。与此同时,AI声音滥用现象愈发突出,不时引发争议。

AI声音滥用不时发生 有人通过“AI换声”诈骗

记者在某短视频平台以“AI克隆声音”为关键词检索发现,明星翻唱、新闻播报、吐槽点评等大量视频涉及AI声音,不少视频点赞和评论量过千。

在社交平台上,通过AI模仿恶搞各领域名人的音视频不在少数。一些商家在短视频平台带货时,通过AI模仿声音技术将主播“变”为知名女明星、知名医生,销售服装、保健品等相关产品,对消费者造成了严重误导。国家传染病医学中心主任、复旦大学附属华山医院感染科主任张文宏曾表示,通过语音合成来模仿他的声音进行直播带货,这样的账号“不止一个,且一直在变”,他多次向平台投诉但屡禁不绝。

记者了解到,有不法分子通过“AI换声”仿冒一位老人的孙子,以“打人须赔偿,否则要坐牢”为由,诈骗老人2万元。类似的诈骗案件在全国已发生多起,有的诈骗金额达到上百万元。

大量APP能进行AI合成声音 最快只需十几秒

AI声音在最近一两年时间内变得格外“流行”。清华大学新闻与传播学院教授沈阳说,人工智能技术的普及,让AI模拟声音的门槛大幅降低。通过一些开源软件和平台,没有专业知识的普通用户也能操作。

大量APP能够进行AI合成声音,最快只需十几秒。记者在应用商店搜索发现,相关APP有数十款,下载量最高超千万次。

记者联系了一款APP的客服人员,对方表示,花198元就能解锁付费会员,对着镜头说几遍“12345”,AI就会根据声音生成各类内容的出镜口播视频。记者操作后发现,通过这款软件生成的名人声音,基本可以以假乱真,且录入名人声音不需要提供任何授权证明。

业内人士告诉记者,AI模拟人声在互联网“流行”,有追逐流量和变现的目的。通过“克隆”名人声音制作的恶搞、猎奇类视频,在相关平台播放和点赞量均不低,有的甚至还被推上热搜。发布者也相应获得流量曝光、粉丝增长、广告收入等播放收益。

专家建议:多措并举强化治理

用AI生成他人声音,是否违法违规?专家表示,个人声音中包含的声纹信息具备可识别性,能以电子方式记录,能关联到唯一自然人,是生物识别信息,属于个人信息保护法规定的敏感个人信息之一。

2024年4月,北京互联网法院宣判全国首例“AI声音侵权案”,明确认定在具备可识别性的前提下,自然人声音权益的保护范围可及于AI生成声音。该法院法官认为,未经权利人许可,擅自使用或许可他人使用录音制品中的声音构成侵权。

专家认为,关于人工智能应用产生的造谣侵权、刑事犯罪、道德伦理等问题,建议有关部门细化完善相关规则,通过典型案例、司法解释等方式给予更为明确的规范指引,厘清法律法规边界。各类社交网络、短视频平台要强化主动监管意识,及时发现、处理可能涉及侵权的AI生成作品;相关部门应继续加大对利用AI技术进行诈骗等违法犯罪行为的打击力度,形成更加完善的常态化治理机制。 据“中国普法”

华商网版权与免责声明:

① 华商报、华商晨报、新文化报、重庆时报、大众生活报所有自采新闻(含图片)独家授权华商网发布,未经允许不得转载或镜像;授权转载应在授权范围内使用,并注明来源,例:“华商网-华商报”。
② 部分内容转载自其他媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
③ 如因作品内容、版权和其他问题需要同本网联系的,请在30日内进行。
联系方式 新闻热线:029-86519800