AI声音滥用现象展开调查。首先讲述了AI声音滥用事件不时发生的状况,包括在短视频平台上各种涉及AI声音的视频情况,以及商家利用AI模仿声音误导消费者、不法分子利用AI换声进行诈骗等情况。接着探究声音是如何被AI“偷”走的,阐述了AI依靠深度学习算法“克隆”声音的原理,还有AI声音“流行”的原因。最后提到了针对AI声音滥用现象多措并举强化治理的措施,如相关法律法规的出台、专家提出的完善规范指引建议以及各平台和个人应采取的措施等。
新华社北京2月12日电,在如今这个时代,亲耳听到的也未必就是真的。网络平台上,AI声音四处泛滥。从“张文宏医生”被AI合成声音用于推销蛋白棒,本人出来“打假”,到众多配音演员称声音被AI盗用维权,AI声音滥用的现象愈发凸显,争议不断。随着人工智能技术和语音大模型应用的不断发展,AI合成声音App如雨后春笋般大量涌现。在某短视频平台以“AI克隆声音”搜索,会发现明星翻唱、新闻播报等各类视频大量涉及AI声音,其中甚至不乏出现不雅词汇的视频,很多视频点赞和评论量轻松过千。AI声音滥用事件频频发生并引发广泛关注。在社交平台上,通过AI模仿恶搞名人的音视频屡见不鲜。比如短视频平台曾出现大量AI模仿某知名企业家声音吐槽热点话题的视频,个别视频还包含脏话,企业家本人都不堪其扰。商家在短视频平台带货时,利用AI模仿知名女明星、医生等的声音销售产品,严重误导消费者,张文宏就表示有很多账号用语音合成模仿他声音直播带货,他多次投诉却难以禁绝。胖东来创始人于东来的声音也被频繁AI模仿,出现很多不实合成视频。更有不法分子通过“AI换声”诈骗老人,类似案件在全国多有发生。中国社会科学院大学互联网法治研究中心主任刘晓春指出,未经授权和标注使用他人声音制作AI语音产品,尤其是公众人物声音,容易引发误解,侵害个人信息安全,扰乱网络生态和秩序。那AI是如何生成逼真声音的呢?专家表示,这主要依靠深度学习算法。它能在短时间内从采集的声音样本里提取频率、音色等关键特征,将其记录为数学模型后通过算法合成。中国科学院自动化研究所模式识别实验室工程师牛少东称,随着算法进步,在高性能设备和高精度模型助力下,AI生成的语音从之前容易被识破变得如今真假难辨。像大四学生耿孝存曾一直以为网络音乐播放器里的几首翻唱歌曲是某知名女歌手所唱,结果却是AI合成,可见其逼真程度。而且,AI声音在近一两年格外流行,清华大学新闻与传播学院教授沈阳表示,人工智能技术普及让AI模拟声音门槛大降,普通用户通过开源软件和平台就能操作。应用商店里有数十款相关App,下载量最高超千万次,有的App付费198元解锁会员,录入声音无需授权就能生成以假乱真的内容。业内人士透露,AI模拟人声流行是为了追逐流量和变现,而不法分子也受利益驱使利用AI声音诈骗。对于AI生成他人声音是否违法违规,专家表示个人声音中的声纹信息属于敏感个人信息。2024年4月北京互联网法院宣判全国首例“AI声音侵权案”,认定在具备可识别性前提下,自然人声音权益保护可及于AI生成声音。近年来,有关部门也出台了一些规定给AI技术使用划定红线。专家们认为应进一步细化完善相关规则,强化人工智能伦理规制,提前预判社会影响。2024年12月广电总局网络视听司发布管理提示要求严格审核。同时,各类平台要强化监管,相关部门要打击违法犯罪,个人也要注意保护自身生物特征信息。
本文总结了AI声音滥用现象的现状,包括在多个场景下的滥用情况以及由此带来的危害,如误导消费者、诈骗等。阐述了AI声音生成的原理及流行原因。还介绍了针对这一现象在法律、伦理方面的治理措施,包括已有法律法规、专家建议以及各主体应承担的责任等,强调了对AI声音滥用现象进行治理的必要性和多方面举措的重要性。
原创文章,作者:Wonderful,如若转载,请注明出处:https://www.gouwuzhinan.com/archives/15369.html