我们尝试用ChatGPT来写一篇法律文章,结果……
作者:袁立志 罗澄杰 陈东旭 时间:2023-02-16

 

 

题记

 

互联网把全世界的知识搬进了人类的书房,

人工智能将为人类提供合格的秘书,

留给人类的,就剩下提出正确的需求了。

 

在全球掀起ChatGPT热潮之际,也涌现出许多对ChatGPT合规性的质疑之声,这些声音中有基于现有法律框架的分析,有从科技伦理角度的担忧,也有关于生成内容谬误的批评。在看过诸多批评质疑之后,我们,作为一群碳基的科技领域法律执业者(下同,并请始终牢记这一点),不禁好奇,ChatGPT是如何看待自身的法律合规风险的?

 

于是,我们尝试用ChatGPT写一篇关于其自身法律合规风险的文章。我们将人机合作写作本文的过程和结果尽量真实完整呈现出来,读者借此可以了解:

 

1

作为一个新的法律研究写作工具,ChatGPT是如何发挥作用的;

2

 ChatGPT本身存在哪些法律合规风险。

 

Round One:我们尝试让ChatGPT独立生成文章

 

在故事的开始,我们在ChatGPT的问题输入框中,输入了这样一个要求:“写一篇关于ChatGPT合规风险的文章”,以下是ChatGPT的输出:

 

 

显然,按照我们的标准,这不是一篇合格的法律分析文章,至少存在下列问题:

 

 

1.就合规风险点而言,仅仅论述了数据隐私风险和生成内容合规风险,还有许多法律合规点没有列出;

 

2.对于相关合规风险点的论述都只是点到为止,没有具体展开分析;

 

3.文章结尾对于ChatGPT合规风险的责任划分仅提及作为提供者的OpenAI,未涉及使用者和其他可能的责任方。

 

总结一句话就是,ChatGPT能够提供一个较为有逻辑的答案,但是内容的准确性和完备性没有保障。ChatGPT独立完成写作任务失败,第一回合就此结束!下面我们尝试通过人机合作来完成任务。

 

Round Two:我们与ChatGPT合作写文章

 

我们和ChatGPT的分工如下:

 

我们的任务:确定需要检索的内容,对资料进行过滤和整合,确定文章框架,文章审阅,排除谬误。

 

 VS

 

ChatGPT的任务:内容检索,根据文章框架编写文章,根据审阅结果修订文章。

 

为了确保文章质量,捍卫碳基法律执业者的尊严,我们将人机合作写文章的过程细分为四步。

 

Step 1:关于内容检索的提问

 

1.什么是ChatGPT?

 

 

2.ChatGPT的合规风险?

 

 

3.谁该为ChatGPT的违规行为负责?

 

 

Step 2:对检索资料的过滤及整合

 

用我们碳基法律执业者睿智的眼光来看,ChatGPT检索出来的资料不仅存在重复和谬误,还有一个明显的问题就是一次回答不完整,需要我们反复追问,并且无法建立各个要点之间的逻辑联系。例如最终列出的风险点是经过反复追问多次才得出,其中“监管风险”实际上与其他风险点是包含关系,不宜并列。

 

我们对ChatGPT输出的内容进行了整合,形成了文章框架,这相当于一个中间产品:

 

 

Step 3:根据框架生成文章

 

 

经过多次尝试,ChatGPT始终无法根据要求成文,这可能是其当前算法本身的局限性,也可能是账户权限低或者其他原因。因此,我们只好将文章内容要求拆分为一个个问题,由ChatGPT分别编写,我们做最后的整合。

 

1.关于ChatGPT的合规风险的分析

 

 

2.关于ChatGPT的违规行为主要负责方的分析

 

 

Step 4:我们用熟练的双手整合成一篇勉强够看的文章

 

对于人机合作的最终成果,按照碳基法律执业者的标准,仍然是不够深入和不够精致的,但是我们没有进行深度润色,因为我们希望比较真实地呈现人机合作的基本情况。废话不多说,直接上成果:

 

ChatGPT:法律合规风险分析

ChatGPT是一种由OpenAI训练的大型语言模型。它是基于Transformer架构,可以生成人类语言的文本,以回答问题、生成文章、对话等。 ChatGPT经过大量的训练,能够模仿人类语言思维,并基于上下文进行自然的文本生成。它的训练数据来自互联网上的大量文本,使其能够涵盖多种语言风格和主题。总的来说,ChatGPT 是一种高效的语言处理工具,可以支持许多自然语言处理应用。

 

一、ChatGPT的法律合规风险点

 

随着人工智能技术的飞速发展,ChatGPT已经成为了越来越多人熟知的名字。同时其法律合规风险也成为了人们关注的重点。ChatGPT的法律合规风险主要包括数据合规风险、内容违规风险、监管行政手续合规风险、知识产权风险、不当使用行为风险、道德和伦理风险、网络安全风险、国家安全风险。

 

(一)数据合规风险

 

在训练、使用Chatgpt时需要收集大量的数据,这些数据可能是关键性、敏感性或者隐私性的,因此,必须确保数据合法地被收集、存储、使用和删除,以符合数据保护法律法规。具体而言,主要有下列风险点:

 

 

1.数据处理合规风险:使用的训练数据可能含有个人隐私数据,如用户个人医疗健康信息,个人金融信息等;同时输出的数据也可能会涉及个人隐私数据。因此,在收集需要保护这些数据不被滥用或泄露;

 

2.数据完整性和准确性风险:ChatGPT使用的训练数据需要是准确和完整的,以保证ChatGPT的模型学习出的内容是正确的;

 

3.数据技术安全风险:存储和使用的训练数据需要进行安全保护,防止数据被黑客攻击和窃取。

 

(二)内容违规风险

 

ChatGPT生成的内容可能违反国内外的法律法规,例如,涉及欺诈、诽谤、诈骗、淫秽、儿童色情、赌博等内容,这些内容的生成可能给相关利益方造成损失,也可能对社会产生不利影响。具体而言,主要有下列风险点:

 

 

1.违法内容风险:ChatGPT不得生成违反当地法律法规的内容,包括但不限于涉及宣扬暴力、色情、儿童虐待、反对政府等内容;

 

2.谬误内容风险:ChatGPT不得生成虚假、误导性或欺骗性信息,以此影响用户的判断和决策。

 

(三)行政监管手续风险

 

OpenAI必须确保ChatGPT技术的使用和开发符合行政监管的要求,以避免违反监管备案和审批管理的相关法律法规,从而导致行政处罚。与ChatGPT相关的监管备案要求因法域而异。以中国为例,主要有下列监管手续要求:

 

 

1.增值电信业务许可;

 

2.算法备案;

 

3.网络安全等级保护备案与测评。

 

(四)知识产权风险

 

OpenAI和使用者必须确保ChatGPT的开发和使用不侵犯任何第三方的商标和其他知识产权,以免产生知识产权纠纷和法律责任。具体而言,主要有下列风险点:

 

 

1.著作权风险:ChatGPT不得抄袭任何第三方的内容,包括但不限于文字、图片、音频等;ChatGPT输出内容的是否享有著作权,以及著作权归属相关问题,需要依据个案情况以及各国的法律确定;

 

2.商标授权风险:ChatGPT不得使用未经授权的商标或商号。

 

(五)不当使用行为风险

 

当人们不当地使用ChatGPT,比如在生成假消息、散播恶劣言论或滥用技术,这些行为可能会造成恶劣影响,并导致法律诉讼和财务损失。具体而言,主要有下列风险点:

 

 

1.滥用技术风险:ChatGPT禁止用户滥用其服务,包括但不限于利用服务实施非法活动、干扰服务正常运行、自动发送垃圾邮件、生成虚假信息等;

 

2.学术造假风险:ChatGPT应该采取一些预防措施,比如在使用前设置一些限制,不得在学术文章或者课件中使用,对检测出的不合规行为进行必要的惩罚等,以确保其在学术造假方面的合规。

 

(六)道德和伦理风险 

 

ChatGPT使用了复杂的算法,它们可能不够透明和公正,因此可能存在道德和伦理风险。如果算法存在偏见或不公正的因素,它们可能对生成的输出产生影响。因此,开发者需要检查算法的透明度和公正性,以确保生成的输出不受偏见和不公正因素的影响。具体而言,主要有下列风险点:

 

 

1.强化偏见风险:ChatGPT可能会产生使有害刻板印象永久化、强化性别和种族偏见或传播错误信息的回应。因此ChatGPT必须尊重多元文化,不得以任何方式歧视任何种族、民族、宗教、性别、年龄、性取向、身体状况等;

 

2.引导言论风险:ChatGPT必须引导用户发表正确言论,不得发表任何带有违反法律道德或偏见歧视性的言论;

 

3.模型训练数据风险:模型是如何训练的,涵盖了什么数据,是否存在数据偏见。算法透明度需要公开数据来源、清晰明了的数据处理流程,以便对模型偏见进行评估;

 

4.模型监管风险:谁对模型进行监管,是否存在监管架构,是否有效地防止不当使用。公正性要求有关方主动采取措施,以保证模型的适用性和公正性;

 

5.用户使用环境风险:如何使用模型,以及对用户使用环境的要求。算法透明度需要确保模型的使用是公开的,同时要求使用环境合乎适用规范。

 

(七)网络安全风险

 

ChatGPT在生成和存储大量敏感数据时,可能成为黑客和恶意软件的目标,导致数据泄露和信息安全威胁。具体而言,主要有下列风险点:

 

 

1.网络安全风险:使用者需要确保网络连接的安全性,以防止攻击者获取数据;

 

2.技术审核风险:使用者需要确保使用的技术符合合法、安全、合规的标准。

 

(八)国家安全风险

 

ChatGPT技术可能对国家安全和国防构成威胁。例如,ChatGPT可能被恶意利用,收集敏感信息或传播不安全内容,威胁国家安全和国防。因此,开发者和使用者都应该对ChatGPT的合规风险进行严格评估,确保ChatGPT技术不会对国家安全和国防造成不良影响。具体而言,主要有下列风险点:

 

 

1.国家安全信息风险:应该禁止ChatGPT帮助使用者收集影响国家安全的信息;

 

2.国家安全活动风险:应该禁止ChatGPT帮助使用者制定危害国家安全的计划或给出相应建议。

 

二、ChatGPT的违规行为的主要责任方

 

ChatGPT的违规行为的主要责任方包括开发者(OpenAI、其他技术平台提供商)、使用者(包括决策者)、第三方评估机构和训练数据提供者。在确保ChatGPT的合规性方面,这些责任方必须加强对ChatGPT的监督,并确保它不侵犯任何法律法规和道德准则。

 

(一)开发者

 

开发者是指制作和发布ChatGPT的机构,包括OpenAI和其他技术平台提供商。他们应该对ChatGPT的技术质量和安全负责,以确保ChatGPT符合相关法律法规和道德标准。他们还需要定期评估ChatGPT的风险和进行相关风险管理,以确保ChatGPT的使用是安全、合法和道德的。

 

(二)使用者

 

使用者是指使用ChatGPT的个人或组织,他们在使用ChatGPT时也需要遵守相关法律法规和道德标准。使用者需要对ChatGPT的使用方式负责,并确保ChatGPT不被用于违反法律法规和道德标准的活动。决策者(比如组织的领导和管理者)需要确保组织内的ChatGPT使用符合法律法规和道德标准。

 

(三)第三方评估机构

 

第三方评估机构是指独立于ChatGPT开发者和使用者之外的机构,他们负责对ChatGPT进行客观、公正的评估和评价。他们需要对ChatGPT的技术质量、合规性和安全性等方面进行评估,以确保ChatGPT符合相关法律法规和道德标准。

 

(四)训练数据提供者

 

训练数据提供者是指向ChatGPT模型提供数据的用户或者其他人员。训练数据内容的正确性和合法性直接影响系统的输出是否合规;同时训练数据来源的合法性也需要训练数据提供者负责,否则也会导致数据合规问题的出现。例如,如果训练数据是通过非法爬取、未经个人同意等违规途径收集而来,则系统的输出内容也因为来源的不合规而不具备合法性基础;如果训练数据中包含极端、诽谤、歧视、骚扰或任何其他违法行为,系统很可能在输出内容时产生违法行为。总的来说,训练数据提供者对于ChatGPT的违规行为责任是不可忽视的,因为它直接影响系统的输出内容和行为。因此,训练数据提供者需要保证训练数据的来源以及内容均符合法律法规、道德规范和伦理原则,以避免对系统的违规行为造成影响。

 

总之,ChatGPT合规风险是一个需要认真对待的问题。这些合规要求是为了保证ChatGPT模型生成的内容在遵循法律法规、保护用户隐私、保护信息安全的前提下,更好地服务用户。因此OpenAI、使用者、第三方评估机构、训练数据提供者等需要通过不断努力来确保ChatGPT的合规性。仅仅关注技术的发展是不够的,同时还需要关注数据、内容、道德伦理等方面的合规性。只有上述各个方面的多重保障下,才能确保ChatGPT在未来的长期可持续发展。

 

 

后记

 

 

经过多次尝试,ChatGPT始终无法一次生成的关于其自身法律合规风险的合格文章,即使在我们介入后,其对于法律专业问题回答的表现也不尽如人意,需要碳基法律执业者仔细地勘误、修改和润色。因此,现阶段ChatGPT仅能做一些寻找线索、检索资料和初步润色的工作。

 

不过,在我们逐渐熟悉并深入地使用ChatGPT后,我们也意识到,ChatGPT具有成为强大法律检索工具的潜力。我们问的问题越精确,其回答的谬误越少,并且其归纳总结的信息还能够对我们起到提示和建议的效果,尤其是在研究一个法律问题的初期,ChatGPT能够从多种角度提供思路。对我们来说ChatGPT就像是一个思维怪诞的秘书,你无法完全信任它的答案,但是也能从它的答案中有所收获。

 

至少在现阶段,ChatGPT还不会取代碳基法律执业者。但假以时日, ChatGPT及其类似产品不断地提高其生成内容的准确性,将逐渐成为强大的工具,使用者的认知和思维决定其生成内容价值的上限,这就应了那句话:你不会被AI所取代,但你会被熟练使用AI的人所取代。

 

至于将来,谁知道呢?

微信公众号 ×

使用“扫一扫”即可添加关注