“清朗•2022年暑期未成年人网络环境整治”专项行动要点解读
作者:周杨 张燕 时间:2022-04-24

2022年3月17日,国务院新闻办公室举行关于2022年“清朗”系列专项行动新闻发布会,国家互联网信息办公室副主任盛荣华介绍2022年“清朗”系列专项行动有关情况并答记者问。

 

“暑期未成年人网络环境整治”专项行动是十大重点任务之一,今年的工作将围绕未成年人网络保护的两个主要问题,即怎样防止未成年人沉迷网络和涉未成年人网络乱象的治理。本文中,我们将结合前述重点问题的具体工作要求梳理监管脉络,并基于对行业现状的观察和分析为相关平台企业提出针对性的合规建议。

 

一、防止未成年人沉迷网络

 

(一)具体工作要求

 

盛荣华介绍,围绕防沉迷这项工作,今年重点在八个字,即“能用管用、好用爱用”。

 

“能用管用”,即进一步扩大青少年模式覆盖范围,未成年人常用平台应用、服务类型做到全推广、全覆盖,能覆盖的要尽量覆盖,力争覆盖所有的平台应用和所有的应用功能。还要通过精准识别,有效引导未成年人使用青少年模式。同时,要号召家庭和社会,监督、管理和教育家里的未成年人使用防沉迷系统。

 

“好用爱用”,就是要针对不同年龄阶段未成年人的一些特点和需求,在时间限制、功能设置、内容工具上,进行一些区分,使青少年模式这个功能更具有个性化、更具有吸引力,让未成年人、家长更加愿意使用这个模式。

 

(二) 监管背景

 

1. 规范性文件梳理

 

“防沉迷系统”肇始于网络游戏领域,2005年,为解决未成年人沉迷网络游戏问题,国家新闻出版总署发布《防沉迷系统开发标准(试行)》,推出“确定健康游戏时间标准”“促进使用者养成健康的游戏习惯”等多项举措,此后又陆续发布了相关配套文件推动网络游戏防沉迷系统在国内各网络游戏企业开发完成并投入使用。但囿于未成年人自控力较弱,企业缺乏响应动力以及网络游戏产业背后巨大的利益链条等诸多因素,解决未成年人网络游戏沉迷问题绝非一朝一夕,具体工作执行中不断遭遇新的挑战和问题。有鉴于此,近年来,针对此问题国家新闻出版总署及其他相关部门又陆续发布了相关通知文件,针对游戏时长、实名认证和充值消费等问题不断细化要求。

 

2019年3月28日,国家网信办指导组织“抖音”“快手”“火山小视频”等短视频平台试点上线青少年防沉迷系统,在网络短视频领域首次尝试开展青少年防沉迷工作,从使用时段、时长、功能和浏览内容等方面对未成年人的上网行为进行规范。在总结前期试点工作经验基础上,国家网信办后续又扩大了“青少年防沉迷系统”覆盖范围,除了全面覆盖短视频平台,还首次将主要长视频平台纳入防沉迷体系,实行统一标准。2021年2月9日,国家网信办等部门印发《关于加强网络直播规范管理工作的指导意见》的通知,标志着网络直播行业正式纳入防沉迷系统。

 

为方便读者有更宏观和系统的了解,我们整理下表以供参考:

 

 

2. 行业现状及典型案例

 

当今社会,未成年人触网低龄化趋势明显,根据中国互联网络信息中心发布的《第49次中国互联网络发展状况统计报告》,我国未成年网民已达1.83亿,互联网普及率为94.9%,远高于成年群体互联网普及率。防沉迷系统和青少年模式的应用也因此成为监管部门常抓不懈的重点问题,在2020年和2021年的清朗专项行动中也被作为工作重点被专门提及。目前未成年人使用的各大主流平台都已上线青少年防沉迷系统,但实施效果不尽如人意。

 

首先是除网络游戏外的其他类型平台尚缺乏统一的行业标准以及明确和有针对性的罚则,平台设置五花八门,执行力度不一,有些开启青少年模式后提供监护人身份证号码就可轻易关闭退出。其次,短视频平台等未强制用户进行实名身份认证,无法对未成年用户进行有效甄别,即便对于已识别到的未成年用户,启用青少年模式也并非强制,需要用户主动设置。最后,青少年模式的内容池亟需优化,相当一部分应用虽然设置了“青少年模式”,但内容质量堪忧,被用户诟病过于低幼、内容单调或者青少年模式下继续推送不适宜未成年用户观看的内容,不该看的没少看,甚至越防越沉迷。即便在防沉迷系统建设方面比较完备的网络游戏行业,因未成年人充值消费引发的纠纷和利用各种手段绕开身份认证的新闻也屡见报端。

 

相关处罚案例:

 

2020年“净网2020”专项行动开展中,由腾讯公司开发运营的“全民K歌”软件上线的青少年模式未发挥应有作用,青少年模式下仍能搜索到色情低俗信息。上述行为构成了提供含有宣扬淫秽、危害社会公德内容的互联网文化产品,违反了《互联网文化管理暂行规定》等规定。依此,深圳市南山区文化广电旅游体育局对产品运营公司作出了没收违法所得,并处以顶格罚款的行政处罚(根据《互联网文化管理暂行规定》第二十八条,罚款上限为人民币30000元),责令立即改正有关违法行为。

2021年8月,北京市海淀区人民检察院在履行职责中发现,深圳市腾讯计算机系统有限公司的微信产品“青少年模式”不符合《中华人民共和国未成年人保护法》相关规定,侵犯未成年人合法权益,涉及公共利益,依法对腾讯提起民事公益诉讼。

 

(三) 合规建议

 

我们建议平台企业从以下方面完善青少年防沉迷系统:

 

网络游戏平台应严格执行基于有效身份证件的实名认证规则并通过技术手段不断优化,按照监管要求设置时间管理、消费管理等功能。

通过身份认证措施提高精准识别未成年用户的能力,完善青少年模式的开启和关闭机制。上海网信办2021年推出《上海网络平台青少年模式设置指南(试行版)》,在实名认证环节,鼓励有能力的平台探索使用非采集类人脸识别、身份证比对等技术验证青少年身份;对于已注册用户,可以通过大数据、算法定位未成年人用户。上述做法可资借鉴。

优化专属内容池,区分未成年用户的不同年龄段提供丰富和优质的内容,不得在青少年模式下推送违法和不良信息。

本次专项行动将力争将“青少年模式”覆盖所有平台应用,建议各平台企业未雨绸缪,提早进行规划和部署。

 

二、涉未成年人网络乱象治理

 

(一)具体工作要求

 

对于怎样加强涉未成年人网络乱象的治理,盛荣华介绍,要努力做到“四个字”:严、深、细、实。

 

聚焦软色情、网络暴力等严重影响未成年人身心健康的突出乱象。

 

查找未成年人网络乱象的一些深层次的问题,把整治重点放在未成年人使用频率比较高的一些网站平台,把监管的触角深入到未成年人参与度高的一些互动环节当中去。

 

针对不同平台、不同应用的一些特点,细化举措,分类施策。比如说,针对直播、短视频平台,要重点解决好利用“网红儿童”吸引流量、不良导向引发未成年人跟风模仿的问题。针对社区群组的环节,要重点解决好未成年人社交欺凌等问题。

 

围绕一些重点问题,要督促整改,督促完善好内部的社区规则和制度,建立长效机制。

 

(二) 监管背景

 

1. 规范性文件梳理

 

互联网行业的特性和商业属性造就了其“流量为王”的天然价值导向,其在一定程度上与社会整体利益的相悖性需要监管部门的介入和干预。在内容治理方面,现行有效的法律法规和监管部门发布的规范性文件在提出了一般性监管要求的基础上,针对未成年人提出了更严格的保护要求。不完全统计,近年来相关部门在互联网信息内容管理方面发布的的主要规范性文件和自律规则如下:

 

上述文件从网络信息内容本身的合法合规性、各方主体的权利义务、罚则等各个方面进行了全方位的规定。

 

从内容本身来讲,鼓励网络信息内容生产者制作、复制、发布弘扬社会主义核心价值观,宣传优秀道德文化和时代精神,充分展现中华民族昂扬向上精神风貌等的优质内容。严禁发布反对宪法所确定的基本原则,危害国家安全,泄露国家秘密,颠覆国家政权,破坏国家统一等的违法信息。防范和抵制使用夸张标题,内容与标题严重不符,炒作绯闻、丑闻、劣迹等的不良信息。

 

同时,网络信息内容平台需要守土尽责,履行信息内容管理主体责任,加强本平台网络信息内容生态治理,健全用户注册、账号管理、信息发布审核、跟帖评论审核、版面页面生态管理、实时巡查、应急处置和网络谣言、黑色产业链信息处置等制度。制定并公开管理规则和平台公约,完善用户协议,明确用户相关权利义务,并依法依约履行相应管理职责。应当建立用户账号信用管理制度,根据用户账号的信用情况提供相应服务。

 

针对未成年人,相关法规进一步提出了更有针对性的保护要求。《未成年人保护法》以专门章节对“网络保护”进行规范,在第七十七条特别回应了社会关注强烈的网络欺凌行为,要求任何组织或者个人不得通过网络以文字、图片、音视频等形式,对未成年人实施侮辱、诽谤、威胁或者恶意损害形象等网络欺凌行为。遭受网络欺凌的未成年人及其父母或者其他监护人有权通知网络服务提供者采取删除、屏蔽、断开链接等措施。网络服务提供者接到通知后,应当及时采取必要的措施制止网络欺凌行为,防止信息扩散。2022年3月14日《未成年人网络保护条例(征求意见稿)》再次公开征求意见,在第三章规定了“网络信息内容规范”的内容,同时再次强调网络欺凌,要求网络产品和服务提供者应当设置便利未成年人及其监护人保全遭受网络欺凌证据、行使通知权利的功能、渠道。遭受网络欺凌的未成年人及其监护人有权通知网络产品和服务提供者采取删除、屏蔽、断开链接、限制账号功能、关闭账号等必要措施。

 

2. 行业现状和典型案例

 

正如前面我们提到的,青少年模式就是监管部门整治未成年人网络环境的一项重要举措,但目前效果不佳。在历次专项行动中,整治危害未成年人身心健康的有害信息一直被反复提及。炒作“网红儿童”行为、诱导未成年人打赏,散布暴力血腥、色情低俗内容,网络欺凌和暴力行为等不良社交行为和文化,凡此种种问题经过长时间的治理取得了一定成效但在网络社会依然广泛存在,需要继续深入治理。根据本次新闻发布会的介绍,今年的专项行动将继续对准直播、短视频、社区群组等未成年人高频率使用平台,同时深入到平台企业的具体运营环节进行监督检查和督促整改。

 

相关处罚案例:

 

2021年3月,北京市文化市场综合执法总队(以下简称“总队”)根据线索,成功查处北京市首例通过暗设隐蔽通道向用户提供含暴力、色情、低俗内容的网络动漫产品案件。总队责令尚科齐(北京)网络科技有限公司关停“动漫之家”平台“日漫频道”,删除全部违规网络动漫,并依法对该公司作出最高限行政处罚。

2021年7月,中央网信办针对快手、腾讯QQ、淘宝、新浪微博、小红书等平台传播儿童软色情表情包、利用未成年人性暗示短视频引流等问题,依法约谈平台负责人,责令其限期整改,全面清理处置相关违法违规信息和账号,并对平台实施罚款处罚。

 

(三)合规建议

 

我们建议平台企业从以下方面着手应对:

 

建立并完善内容审核规范,配备与服务规模相适应的审核编辑队伍,与网信部门、公安部门建立联动,及时掌握最新内容审核动态,获取工作指导,上报违法违规内容。及时采取警示、拒绝发布、删除信息、限制功能、暂停更新直至关闭账号等措施,并保存相关记录。

防范和抵制违法违规信息传播,坚持主流价值导向,优化信息推荐机制,加强版面页面生态管理。

​制定并公开管理规则和平台公约,建立《用户账号信用分级管理制度》,根据用户账号使用行为确定其信用等级,并基于用户的信用等级确定对其提供服务的范围和功能,对严重失信的用户应列入黑名单,停止对列入黑名单的用户提供服务。

​设置便利未成年人及其监护人保全遭受网络欺凌证据、行使通知权利的功能、渠道。

微信公众号 ×

使用“扫一扫”即可添加关注