人工智能成为高频热词且应用频繁的现状,以娄勤俭点赞DeepSeek为例。同时阐述了AI在生活中变得可感可及的同时带来的风险,如虚假信息误导民众、造谣网暴等。还提到两会代表委员关注人工智能乱象治理这一焦点,如李东生对AI深度合成内容标识管理的规章制度建议,雷军对加快单行法立法进程的提议等内容。
近期,“人工智能”无疑是热度超高的词汇,人们使用人工智能也变得十分频繁。十四届全国人大三次会议新闻发言人娄勤俭在回应相关话题时对DeepSeek表示赞赏,当记者询问他是否使用DeepSeek时,他笑着回答:“我用呀,毕竟我是计算机专业出身的,对人工智能有着特殊的喜爱。”
确实,自2024年“人工智能 ”行动出现在政府工作报告之后,跟随其后的行业日益增多,AI在我们的日常生活中也变得愈发触手可及。然而,AI在成为人类得力助手的同时,也暴露出诸多风险。就像那张AI生成的“地震小孩被埋图”,让众多网友信以为真;还有一条AI生成的“张文宏带货”视频,致使许多老人购买相关产品;更有甚者利用AI大量造谣、实施网络暴力,严重扰乱网络信息生态。
娄勤俭在新闻发布会上也坦然提及当前人工智能带来的风险挑战。倘若对这些风险不闻不问或者管理不善,必然会对每个人、每个企业的经济、名誉等权益造成威胁,甚至会损害公众对政府、权威媒体的信任,破坏公共信息秩序和舆论环境。
由于人工智能相关的侵权、违法行为与普通人的生活联系越来越紧密,所以,如何整治人工智能的乱象,成为了今年两会上众多代表委员关心的核心问题。全国人大代表李东生提议尽快出台关于AI深度合成内容标识管理的规章制度,并且从人工智能服务商、用户、监管等多个主体出发,提出具体的管理方向。可以说,这个建议如果能够得以实现,就能够直接有效地在信息接收终端解决用户对AIGC(人工智能生成内容)误信误听的难题。
具体到规章制度的细节方面,有必要明确平台的审核机制。在“地震小孩被埋图”事件中,有媒体发现如果用户不主动添加标识,AI视频图片在发布大约1小时后才会出现标识。这种事后审核机制显然存在缺陷,不妨规定社交媒体平台实施事前审核,尤其可以引入“AI审核员”,以“魔法”对抗“魔法”,组建“AI + 人工”的审核队伍,由AI进行初审,存在疑问的内容交给人工复核,这样既能提高效率又能节省人力。
说起来简单,做起来却不容易。AIGC一经推广,就开拓出一条起号更容易、成本更低的流量赛道。其新颖的呈现形式和无限的可能性深受受众喜爱,相关的视频图片只要稍有特色就能收获大量的转发、评论和点赞。除了创作者和受众热衷于AIGC之外,平台同样能够在这场盛宴中收获颇丰。无论是广告分成、电商带货、知识付费,还是提供AI工具,只要依托AIGC,平台都能获取一定的利益。这三方都希望AIGC的数量不断增加,平台对于严格管理自然缺乏足够的动力。
所以,全国人大代表雷军建议加快单行法立法进程,在兼顾安全与发展的基础上提升立法的层级。在给予人工智能行业充足发展空间的同时,加快立法速度,通过精准的小切口阻击结合严厉的处罚措施形成威慑力,让不法分子不敢轻易作案,让公众能够放心观看相关内容。
文章围绕人工智能这一热点话题,从其在当下的热门程度出发,阐述了AI带来的风险,如误导民众、破坏秩序等。重点讲述了两会期间代表委员针对人工智能乱象治理提出的建议,包括规章制度的制定和立法进程的加快等内容,这些建议旨在让人工智能健康发展的同时,保护公众权益和社会秩序。
原创文章,作者:Daniel Adela,如若转载,请注明出处:https://www.gouwuzhinan.com/archives/29365.html