一、算法是什么?
从技术视角看,算法是解决问题的方法,是思维模式与技术实现的组合。算法不是计算机领域的特有产物,其表现形式很多,可以是自然语言、流程图、伪代码与编程语言,比如一份菜谱就是一个算法。信息技术兴起以后,算法通常是指一系列解决问题的明确指令,通过输入符合一定规范的数据,在有限时间内获得所要求的输出,其主要表现形式就是计算机程序。算法具有正确性、多样性、重复性、完整性、有穷性等特点。[1]
从法律视角看,算法的角色和性质经历了多次变化。在互联网早期,算法只是普通技术,如股票自动交易系统;在互联网2.0时代(大约2000年后),算法成为技术产品,被用于向用户提供网络服务,如搜索链接服务;在平台时代(大约2008年后),算法成为网络平台工具,承担网络空间的日常治理任务,如外卖平台的调度算法;未来,进入强人工智能时代,算法可能具备自主性和认知特征,从工具逐渐上升为决策者,并具有本体性。算法法律角色和性质的变化,要求法律监管随之进化和升级。[2]
如上所述,算法通过数据的输入、处理以及输出来解决问题。算法的优化依赖于大量的数据训练,数据为算法的深度学习和技术发展提供“原料”。另一方面,算法为数据的处理与商业价值的实现提供技术支持,是数据开发利用的“工具”,数据收集、使用、转移等各环节都有算法的参与。
算法与数据紧密相关,故在法律监管层面经常交叉关联。如法律对自动化决策的监管,在评价数据处理行为是否合法、正当、必要的同时,也要评价算法的应用是否合理、可解释。再如对于企业使用其收集的数据来优化算法,并利用算法提供服务,法律需要评价数据来源是否合法,数据的使用是否符合个人同意的使用目的、处理方式等。
二、算法应用带来了哪些问题?
在赛博空间,算法无处不在,但法律关注的是那些对个人权益、市场秩序、公共利益、国家安全等造成危害的算法应用。按照影响的领域及侵害的法益不同,目前算法应用所带来的问题主要包括如下几个方面。
(一)
侵害个人权益
算法已经嵌入到人们生活的方方面面,影响个人在不同环境、基于不同身份的权益。当前算法应用对个人权益的侵害主要包括以下情形:
1. 侵犯用户的个人信息和隐私权,如在训练或应用算法的过程中滥用、泄露个人信息;
2. 侵害消费者权益,如平台通过定价算法进行“杀熟”,或者银行通过自动化决策方式审批贷款,导致部分消费者在不知情的情况下被排除于特定金融服务之外;
3. 侵害劳动者权益,如平台通过调度算法、薪酬算法等对劳动者实施管理,压榨劳动者,或迫使劳动者承受较高的人身安全风险,或者企业通过自动划决策方式筛选简历,产生就业歧视;
4. 侵害未成年人权益,如内容平台使用推荐算法向未成年人推送低俗、暴力等内容,影响未成年人身心健康,诱导未成年人沉迷网络等。
(二)
扰乱市场秩序
1.
利用算法实施不正当竞争,催生互联网黑灰产业
近年来,利用算法实施流量劫持、恶意干扰、广告屏蔽、虚假刷单、操控排名等扰乱市场秩序的行为屡见不鲜,并催生了一些通过算法技术帮助经营者实现不当竞争的黑灰产业。
如在上海长宁法院审理的“负面压制”一案中,技术公司为经营者提供负面信息压制服务,通过技术手段,将负面信息与其他已被降权的内容链接进行关联,使二者产生捆绑,达到负面内容降权及后置的效果。长宁法院引入了诚实信用原则以及公序良俗,以侵害消费者权益、扰乱市场竞争秩序,有损社会公共利益、违背公序良俗原则为由,认定相关的“负面压制”服务合同无效。
2.
通过算法技术实现垄断
传统的垄断行为通常借助于书面的垄断协议、规则等,如经营者之间(横向)、经营者与下游经销商之间(纵向)签署协议固定市场价格,或者具有市场支配地位的经营者通过制定规则限制交易。而通过“算法合谋”则能使经营者可以更加简单、秘密的达到垄断目的。如通过定价算法,使同种产品的市场价格一致、限制线上电子产品零售商的自主定价能力等。[3]
典型案例如近期某平台“二选一”行政处罚一案,该平台为保障“二选一”的有效实施,通过算法对平台内经营者进行自动监测和处罚,包括:自动监测平台内经营者上线其他平台情况,对上线其他平台的经营者自动实施搜索降权或取消优惠活动等差别待遇的处罚行为,对商家的合作协议完成率和履约情况进行监测、统计和分析等。该平台被认定为滥用市场支配地位,受到行政处罚。
(三)
危害社会公共利益
1.
发布虚假新闻,引导舆论导向
互联网已经成为信息发布、新闻传播的主要媒介。其中算法主宰了社交媒体对用户的新闻投放,其推送标准是用户的点击率和转发率而非新闻的真实性。颇具噱头的假新闻被用户高频点击或转发,并进一步被算法推送而广泛传播。[4]虚假新闻的大范围传播,很可能误导舆论,甚至危及公共安全。
除了推荐算法,人脸识别技术也被应用于发布虚假新闻。通过深度伪造、迁移技术,可以在视频中伪造政府人员、公众人物讲话,发表虚假信息、煽动公众情绪。
2.
形成信息茧房,加剧社会阶层分化
算法通过分析用户喜好,不断向用户推送其感兴趣的内容,用户置身于自我选择的信息中,而减少了对其他信息的接触,形成“信息茧房”。信息茧房强化了不同用户群体的“标签性”,从而加剧了网络社会的阶层分化,导致网络社会的碎片化和群体极化现象。[5]
3.
算法权力的扩张问题
私权领域,平台企业通过设计、修改、应用算法将自己的意志赋予算法,通过算法制约、支配、引导个体行为,形成算法权力。在平台范围内,算法规则如同国家法律一般对用户具有控制力,用户在使用平台服务时必须接受算法规则的限制和约束。[6]如不加以制约,会导致私权力滥用,危害公共利益。
算法技术应用到公共决策等公权力领域时,算法权力与公权力结盟,可能会使公权力无限扩张而压缩私权利,[7]侵害私权利。
(四)
产生伦理问题
一方面,算法不是中立的,可能嵌入了算法设计人员的价值观而产生算法偏见。算法中已存的偏见,经深度学习后极可能被加强,形成一个“自我实现的歧视性反馈循环”。如美国某技术公司的再次犯罪机率系统认定,黑人更有可能再次犯罪,引发了广泛争议。[8]可见,当算法偏见应用到政府决策中,不仅产生伦理问题,也会影响公共利益。
另一方面,当算法发展到一定程度,进入强人工智能阶段时,人工智能算法就不再只是人类解决问题的“工具”,而可能具有独立意识和思维,从而迫近人类,对人类的主体性地位构成挑战。[9]
三、算法如何监管?
(一)
算法监管的法律现状
中国目前关于算法的法律如下:

由上表可见,2021年之前,算法监管的规定散见于多项政策法规中,相关规定并非直接针对算法,而是作为人工智能、个人信息保护、反不正当竞争、电子商务等主题立法的附带内容,且以原则性、框架性的规定为主,可称之为算法监管的“V1.0时代”。
2021年,网信办相继发布了针对算法的两个专门性文件:《关于加强互联网信息服务算法综合治理的指导意见》(下称“《意见》”)以及《互联网信息服务算法推荐管理规定(征求意见稿)》(下称“《规定》”)。《意见》从宏观上提出算法安全治理的整体要求,《规定》给出了相对具体管理制度及措施。两文件作为算法监管领域的“探路者”,回应互联网信息服务领域与算法有关的一些热点问题,体现了算法监管的新趋势,可以认为,算法监管即将进入“V2.0时代”。
(二)
算法监管的新趋势
1.
多方协同治理
算法的整体监管体系与数据安全的思路一致,由多部门协同监管,行业自律与公众监督共同参与治理。具体而言包括:企业履责,企业是算法应用的责任主体,对算法应用产生的结果负责;政府监管,由网信部牵头,与其他相关部门建立部门协同联动长效机制,履行监管职责,共同开展算法安全治理工作;行业自律,行业组织应当承担算法安全治理社会责任,为算法安全治理提供有力支撑;社会监督,政府积极受理网民举报投诉,企业自觉接受社会监督并及时做好结果反馈。
2.
全周期监管
从“V1.0时代”到“V2.0时代”,算法监管从单一的事后监管向事前、事中、事后的全周期监管转变。
事前防控包括建立算法备案制度,要求特定算法的服务提供者在一定期限内进行备案。
事中监测包括在算法使用过程中开展日常监测工作,发现算法使用中的安全问题;算法服务的提供者应开展安全评估、完善管理机制,对算法服务日志等信息进行留存;配合主管部门的监督检查,提供必要的技术、数据等支持。
事后救济则包括行政处罚、民事诉讼和刑事追究。结合《个人信息保护法》《规定》等,对算法服务提供者的行政处罚包括警告、批评、限期整改、罚款、关闭网站、停业整顿、终止服务、吊销业务许可、吊销营业执照等;对主要负责人的处罚措施包括罚款、禁止从业。《民法典》《个人信息保护法》《反不正当竞争法》等,为算法技术引发的侵权、不正当竞争行为等提供民事诉讼机制,包括民事公益诉讼机制。目前与算法相关的犯罪主要有非法获取数据罪、破坏计算机信息系统罪、侵犯公民个人信息罪等,同时也有一些利用算法技术作为新手段实施的传统犯罪,如诈骗、洗钱等。未来,随着算法技术的发展以及在更多领域的使用,可能会产生更多新的犯罪形式、新的罪名。
3.
从行为到技术的深入监管
以往对算法的监管主要以算法产生的外部行为及后果为对象,而未及算法技术本身。这种监管只停留在外部,而没有触及引发问题的算法,由此可能会形成一个监管盲区,即假设输出结果可以自圆其说,则对背后的算法规则是否合法、合理在所不问。如打车软件设置在订单高峰期时相应增加打车费用,这一行为看似合理,但后台算法是如何认定“高峰期”、高峰期时如何根据订单量、附近车的数量等因素来调整打车费,这些算法规则是否合理,是否存在平台与司机通过算法合谋制造高峰期的问题都未可知。
对于上述问题,司法实践中已经开始关注算法设计的合法性、正当性审查。如杭州互联网法院审理的平台根据算法自动化决策结果处罚商家的案例中,在平台提供相应数据分析结果欲证明商家流量异常时,法院不仅审查了数据,同时对形成数据结果所使用的算法规则、逻辑推演过程进行了真实性、合法性的审查。可以预见,未来对算法的监管将从外部行为深入到算法技术本身。
4.
责任主体的扩展
算法的设计者和部署应用者对算法都具有较强的控制力,能够预测算法决策结果并作出算法决策的解释,[10]是算法使用的责任主体。至于算法能否脱离设计者、使用者而具有独立的法律人格,即拟制出类似于“法人”一样的“电子人”或“机器人”,以应诉和承担法律责任,仍待技术与立法的发展,这可能是算法监管“V3.0时代”所要面临的重要问题。
5.
具体监管措施的逐渐成型
对于算法监管的主要制度已基本确立,但配套文件及具体细节仍在完善中,需随时关注立法动态。从目前监管部门已经发布的文件来看,针对算法的具体监管措施主要包括如下几项:
(1)分级分类管理制度:按算法风险等级高低进行分级分类管理,区别管理措施。
(2)算法备案制度:对于特定级别的算法实行备案制度,明确备案范围、备案信息内容、备案信息变更、备案信息公示等具体事项。
(3)算法安全评估制度:算法服务的提供者应对算法设计、部署和使用等应用环节进行安全评估,完善管理机制。对算法服务日志等信息进行留存,配合主管部门的监督检查,提供必要的技术、数据等支持。参照欧盟的《人工智能法案》,服务提供者可能需要提供的数据包括算法模型、源代码等。
(4)科技伦理审查制度:企业建立科技伦理审查制度、科技伦理(审查)委员会;主管部门建立专业性科技伦理审查中心、区域性科技伦理审查机构。
(5)个人权利保护制度:要求算法公开透明,以显著方式告知个人算法使用的情况,并以适当方式公示算法服务的基本原理、目的意图、运行机制等,保障个人的知情权;赋予个人算法解释权,个人有权获得算法决策的解释并据此提出异议;主管部门建立公开举报系统,便于公众进行社会监督,要求企业提供有效投诉途径。
注释