近六年来国内关于人工智能法律规制的研究述评

来源:期刊VIP网所属分类:计算机信息管理发布时间:2021-08-23浏览:

  [摘 要]人工智能因其重大的技术变革和影响,给社会各个领域带来重大变革和一系列挑战。其中人工智能的法律规制研究是目前法学界的热点之一。近六年(2015—2020年)来国内关于人工智能法律规制的研究主要包括人工智能的法理学审视、是否需要专门立法、著作权保护、法律人格争论、人工智能的新闻风险和法律规制、人工智能的司法运用和规制、人工智能的医药法律问题七个方面。今后需在此基础上加强跟踪研究、个案研究、比较研究、分级研究、基础研究和交叉研究,以进一步深化人工智能的法律规制研究。

  [关键词]人工智能;法律规制;法理学;人格争论

法制论文发表

  人工智能被廣泛认为是第四次工业革命的代表技术之一,人工智能及其引起的巨大社会影响引起法学界学者们的关注。如何应对人工智能的法律风险?人工智能对于传统的中国法律体系带来哪些挑战?如何完善人工智能的法律规制?这是近六年(2015—2020年)来国内法学界关注的热点。本文尝试对近六年来国内人工智能法律规制的研究进行评述,以促进这一热点问题研究的深入。

  一、人工智能法律规制研究的总体现状

  人工智能是“研究人类智能行为规律(比如学习、计算、推理、思考、规划等),构造具有一定智慧能力的人工系统”[1]。现阶段,人工智能在专业领域应用成效显著,比如无人驾驶、智能翻译、智能诊疗、智慧判决等。根据笔者在知网的检索,截止到2021年4月27日,篇名含有“人工智能和法律”的论文共有447篇,其中CSSCI来源期刊论文76篇。国内最早研究人工智能法律问题的论文是张保生在2001年发表于《法学评论》的《人工智能法律系统的法理学思考》。相关年度的论文发表篇数情况为:2021年11篇、2020年118篇、2019年159篇、2018年128篇、2017年27篇、2016年3篇、2015年0篇、2014年1篇。他引次数排前10的论文见表1。从总的研究趋势来看,国内关于人工智能法律规制的研究处于增长阶段。

  尽管目前发表的相关论文有400多篇,但其中有一些论文属于重复发表,且论文质量参差不齐。因此本文以近六年来CSSCI来源期刊发表的论文作为重要依据,对人工智能法律规制的研究进行述评。根据检索到的CSSCI来源期刊论文可以看出,近六年来国内关于人工智能法律规制的研究主要围绕七大问题。当然部分论文还涉及其他问题,如尝试从法律和伦理结合视角探索人工智能的各种社会风险等,限于篇幅,此文中不再详述①。

  二、近六年来国内人工智能法律规制研究的七大问题

  (一)人工智能的法理学审视

  多数学者认为,“人工智能的发展将对法律及其行业生态产生巨大影响”[2]。因此面对人工智能的法律风险,法律规制应该如何应对,成为法理学界关注的重点问题。学者们主要从法理学的宏觀视角审视人工智能的法律风险。对于人工智能的法律规制可以分为两种:一是对于人工智能的规制,二是对于使用人工智能的利益相关者,包括设计者、生产者、使用者、维修者的规制。规制原则包括目的正当原则、人类善良情感原则、公众知情原则或者透明原则、政府管控原则、分类管控原则、全程管控原则、预防原则以及国际合作原则[3]。在规制原则的基础上,推动互联网、大数据、人工智能和全面依法治国的深度融合,树立数据思维,运用互联网技术和信息化手段来推动人工智能的科学立法[4]。人工智能的广泛运用以及人工智能立法的转型,将会重构公众认知法律的模式,重构法律规则本身的形态,进而重构法律的价值导向[5]。人工智能时代对法律的根本性挑战,在于法律功能独特性的丧失,法律不学习被机器学习取代,法律被代码/算法取代[6]。也有学者对于目前法学界对于人工智能法学研究明显违反人类智力常识的反智化现象进行了严肃的批判。主张法学研究应该避免盲目跟风,走出对人工智能体的崇拜,回归学术研究的理性轨道。一些著名学者认为,人工智能对于传统法治带来重大变革和影响,推动了数字时代的法治范式转型。

  (二)人工智能是否需要专门立法

  关于人工智能是否需要专门立法,学者们主要有两种观点。

  一种是维持现有立法不变。认为现有民法完全可以应对人工智能的法律风险,不需要新法,不必改变民法的基本理念和基本规则[7]。可将人工智能锁定于《民法总则》客体的前提下,对其合理限制,且在民法典各分编制定中,对客体意义上的人工智能亦无需作特殊规则改变[8]。

  一种是另外设立新法。一方面,面对人工智能的高速发展及其带来的诸多社会问题,需尽快建立以全流程监管为主体的、多层次的人工智能监管体系,围绕人工智能对民事主体、侵权责任、著作权、刑法等带来的挑战展开研究[9],以应对人工智能与现有法律制度形成的冲突以及带来的挑战[10]。如由人工智能产品导致的侵权行为和刑事风险需根据相关法律明确责任,可以考虑增设相关罪名来予以应对[11];明确人工智能运行中个人信息数据安全立法的基本原则,明确人工智能运行中个人信息数据权,确保权利的法律化,参考相关国家做法适时制定《个人信息安全法》[12];对人工智能开发企业的社会责任进行规则[13]。另一方面,在立法层面,应在注重立法前瞻性的基础上构建科学的人工智能犯罪规范体系[14]。采取软法方式,而不是简单地提高硬法的惩戒力度[15]。在塑造风险社会的法律理念,建立多元互动的风险规制体系,促进人工智能的健康发展[16]的同时,也要重视人工智能对现代法律制度体系的影响,这种影响可能至少包括法律主体制度、客体制度、权利体系等,要防止人工智能滥用给人类带来的风险[17]。

  (三)人工智能的著作权保护

  人工智能的著作权是否应该得到承认和保护是学术界争论的热点问题之一。目前主要存在三种观点:一是应该保护,二是不应该保护,三是有限保护。观点分歧产生的根本原因在于人工智能创作的作品是否具有创造性。

  第一,应该保护。由于人工智能具有超强的学习能力,“它所创作出来的智力成果与人的作品之间并没有区别,因此仍然应当以著作权的方式来加以保护”[18]。学者们或从人工智能创作作品的独创性角度,或从赋予人工智能创作作品属性的优势出发,或从著作权保护客体的沿革入手,论证人工智能创作的作品应当受法律独立保护(代表性的学者有李宗辉、尹鹏、马治国等)。人工智能在未来有可能生成富于思想性或形式更为灵活的报道,这类报道应当受到法律保护[19]。且人工智能生成内容本质上仍然是人类利用技术设备创作完成的作品,需要在著作权法体系下实现对其法律保护[20]。人工智能在知识创作领域的应用已不可逆转,域外的人工智能创作作品法律保护路径有利于解决我国理论界对人工智能创作作品能否独立受法律保护存在争议的现实[21]。有必要通过引入人工智能作为技术“发明人”的制度设计、创立人工智能生成技术方案的可专利性标准、构建人工智能生成专利技术的权责分配规则、设置风险防范机制等法律对策,实现专利法对人工智能生成技术方案的有效规制[22]。

  第二,不应该保护。人工智能创作的作品由于无法体现创作者的个性,不能被视为真正的作品,无法以著作权的方式来加以保护[23]。确定人工智能作品权利归属的前提是明确该类作品的权利客体属性,人工智能创作的作品应属于著作权客体,而非邻接权客体。人工智能不具有法律人格,因此其本身不能成为人工智能创作作品的权利主体。也就是说,人工智能创作的作品,本质上还是人操作人工智能完成的,人工智能不具备法律人格,因此人工智能创作作品的著作权可以归属于使用者或者创造者。

  第三,有限保护。这一观点主张对人工智能创作的作品区分对待,将人工智能创作作品是否具有独创性与当下法律应否保护相区分。人工智能创作的作品虽然具有独创性,但是为了维护当下法律的体系性,现不宜对其进行独立保护[24]。而以未来将出现具有独立思维能力的强人工智能为前提,研究强人工智能发明创造的专利性,似过于超前[25]。可以拟定人工智能生成内容为“作品”,并设置所有权,该所有权根据不同的阶段可能属于程序设计者、人工智能使用者或者投资者。人工智能“作品”不需要标注,阅读使用者需遵循著作权法[26]。

  (四)人工智能的法律人格争论

  人工智能是否具有法律人格,也是学术界争论的焦点之一。因为这一问题的界定,不仅涉及人工智能使用者、生产者、设计者三者之间的权利、义务、责任的关系,还涉及人工智能可能导致的社会风险和伤害的责任追究。目前学术界主要有肯定说、否定说、折中说三种观点。

  第一,肯定说。人工智能概念是通过“位格加等”把机器人提升到自然人的法律位格,法律主体学说之现代性立场有其限度,从法律主体概念回归法律位格概念,是人工智能时代法理思想变革的重要契机[27]。国外电子人格说的提出,“为机器人创设一个特殊的法律地位”①。从人工智能的现状看,人工智能已开始具有独立影响他人权利义务的能力,考虑认可人工智能的法律人格已具有一定的现实意义[28]。同时,赋予人工智能拟制法律人格是界定人工智能产物的财产权利归属和人工智能侵权责任的必要前提。可运用立法技术赋予人工智能独立的法律人格,建立人工智能登记备案制,完善人工智能的法律责任制度[29]。人工智能时代的法律责任理论应当有所修正和更新,智能机器人应成为适格的法律责任主体[30]。

  推荐阅读:人工智能图像处理论文有什么方向

期刊VIP网,您身边的高端学术顾问

文章名称: 近六年来国内关于人工智能法律规制的研究述评

文章地址: http://www.qikanvip.com/jisuanjixinxiguanli/59149.html