当前位置:舍宁秘书网 > 专题范文 > 公文范文 > 合作规制:基于元规制模式的人工智能安全伦理规制优化

合作规制:基于元规制模式的人工智能安全伦理规制优化

时间:2024-02-18 13:30:01 来源:网友投稿

魏光禧

(重庆警察学院 重庆国家安全与社会治理研究院,重庆 401331)

人工智能是模拟、延伸和扩展人类智能的理论、方法、技术。人工智能的发展跌宕起伏,先后经历了三次浪潮。第一次浪潮是1956年到20世纪70年代初,人工智能从理论走向实用,人们看到了人工智能与具体应用相结合的巨大魅力,主要标志性成果是专家系统。第二次浪潮出现在20世纪80年代初到90年代初,其特点是对分门别类的大量知识的多种处理方法,标志是日本政府推出的“第五代机”项目。第三次浪潮出现在21世纪,其主要原因是深度学习技术的出现,解决了“梯度消失”“梯度爆炸”和自动提取并表征复杂的特征等问题。特别是在2016年3月,基于搜索技术和深度学习方法的人工智能围棋系统AlphaGo战胜了世界围棋冠军李世乭,人工智能引起了全世界的广泛关注。

乌尔里希·贝克指出,科学技术不仅是解决问题的源泉,也是制造新的问题的原因,甚至科学技术的安全风险会以更高的比例增长[1]。近年来,此起彼伏的人工智能伤人事件也拷问着人们,这个技术是给人类带来福祉,还是反过来破坏原有的生存和安全体系。人工智能对人类的安全带来严峻挑战,也使人与机器、人与人、人与自然之间的伦理关系变得更加复杂。这正如尼克·博斯特罗姆所言:人工智能不仅是一项颠覆性技术,也是人类目前遇到的最具破坏性的技术[2]。

人工智能作为一种新技术,既有安全赋能效应,也具有安全问题伴生效用。所谓安全赋能效应,就是提升安全领域的势能:一方面是赋能攻击,让安全问题变得更加严峻;
另一方面是赋能防御,通过新技术解决安全问题。所谓安全伴生效应,就是新技术的出现往往伴生着新的安全问题:一方面,新技术的脆弱性导致新技术系统自身出现安全问题,称之为“内生安全”;
另一方面,新技术的脆弱性被攻击者利用从而引发其他领域的安全问题,称之为“衍生安全”。根据引发安全问题的内因,可以将人工智能安全分为三类:人工智能助力安全(Artificial Intelligence for Security)、人工智能内生安全(Artificial Intelligence Security)和人工智能衍生安全(Artificial Intelligence Safety)[3]。人工智能助力安全主要是指利用人工智能技术突破其原有攻击能力而引发的安全问题;
人工智能内生安全是指人工智能的脆弱性导致的自身受损的安全问题;
人工智能衍生安全是指人工智能的脆弱性导致的危害其它领域的安全问题。人工智能助力安全体现的是人工智能技术的赋能效应,而人工智能内生安全和人工智能衍生安全都是人工智能技术的伴生效应引起的。从赋能攻击的角度看,违法犯罪分子可能利用人工智能提升原有的破坏力,带来更多的安全隐患和灾难。例如,可能实施自动挖掘漏洞、生成高仿假视频、生成智能恶意代码、在神经网络模型植入后门、大面积投放钓鱼邮件等行为。人工智能在框架和组件、算法、数据、模型等方面就存在一些脆弱性、不可靠的问题。例如,深度学习难以确保算法的正确性,无人驾驶汽车的很多安全事故就是不正确的算法所造成的。而数据的丢失、变形以及噪音数据,都可能影响人工智能生成正确的推理判断。同样,模型也难以保证不被盗窃或者污染。人工智能的一些脆弱性并不影响自身的安全,但是可能被违法犯罪分子利用,引发其他领域的安全问题。例如,无人驾驶汽车的智能化判断高度依赖输入数据,这种脆弱性并不影响汽车本身的运行,但违法犯罪分子可能利用这种脆弱性对传感设备进行干扰,从而制造交通事故。让科学家和伦理学家最为担忧的是,人工智能具有自主学习和自我进化的能力,当发展到强人工智能时代时,人工智能行为体可能会脱离人类的控制,甚至可能会伤害人类,这也是人工智能衍生的安全问题。

作为人工智能安全风险的回应,伦理规制这一路径引起广泛关注。正如格伦瓦尔德所言:当科学技术的开发应用带来规范标准的不确定性问题时,就有伦理反思的必要[4]。科学技术是人类认识和改造客观物质世界的产物,因此从最开始其就内就嵌着人类伦理道德的基因。在持续不断的伦理反思中,科技伦理与科技进步实现矛盾的统一,在防范和控制科技安全风险上发挥着道德的导向和约束作用。即使是那些主张科技与伦理无涉论的学者,也并不否认科技工作者的职业道德和科技应用中的道德性[5]。人工智能的伦理是人类伦理体系下的具象化的科技伦理,包括实现人与机器、人与人、人与自然和谐发展的,与人工智能活动相关的观念、情感、意志、信念、原则、规范、范畴以及价值判断标准[6]。人工智能不仅能代人劳动、代人思考和记忆,甚至能够代人决策。在深度参与人类社会实践活动时,会深刻影响人与机器、人与人、人与自然的伦理关系。特别是在人工智能的研发和应用中,用途和目的往往导致了规范标准的不确定性和道德争议,还会产生不确定的伦理负效应,例如伦理关系失调、社会失序、机制失控、行为失范等。这就是弗洛里迪所描述的,人类希望人工智能提高人类的能力、帮助人类实现自我,让人工智能代理自己,但同时也隐藏着侵蚀人类自决能力、失控、责任缺失、鸿沟加剧等风险[7]。人工智能伦理的表现形式取决于技术条件及其与人类社会的结合程度。因此,人工智能安全的伦理规制需要从人工智能技术和社会制度的具体环境中,去考察伦理规制与其他规制路径的互动关系。本文将着眼于人工智能产业发展的现实和未来,聚焦人工智能安全的伦理议题,阐述人工智能安全伦理规制的主体、准则和机制,进而在元规制模式下探索人工智能安全伦理规制的优化路径。

近代以来,科学技术的革命性突破引发了大量安全风险,促使人们以伦理为主题发展出一套自我规制的治理架构。法律的确认,使之前自愿性质的治理架构在一定程度上被强制化,这称之为“伦理规制”[8]。对人工智能行为进行伦理规制,发挥道德的导向和约束作用,是防范和控制人工智能安全风险的重要手段。

(一)人工智能安全伦理规制的主体

无论是采用强力法还是训练法,现有的人工智能技术都是在封闭性的应用场景实施的,因此与人工智能安全相关的规制主体是人类,而人工智能尚不具备道德地位,也不具有规制的主体地位。但与其它技术不同的是,人工智能具有高度的自主性,有自我学习、自我约束的能力。因此,将伦理价值和伦理准则嵌入到人工智能技术中,让人工智能自主或者半自主地实现规制目标,也是人工智能安全伦理规制的重要途径[9]。例如,在人工智能的设计中嵌入“切断开关”,当存在危害人类的重大风险时由系统自动决策来关闭该系统,防止发生不可逆的严重后果。总之,只要将伦理规范具体化为封闭性条件的一部分,那么,在该场景中,人工智能就能够自主地执行这些伦理规范。对于未来可能出现的非封闭性的场景,则不能依靠人工智能的自主性,必须坚持人类的介入。人,作为责任主体,永远都不能放弃自己的规制责任。

具体到实践中,人工智能安全伦理规制的主体主要是社会主体,包括行业协会、社会团体、研究机关、企业、科学家、公众等。人工智能安全的伦理规制,更多是依靠行业和技术的力量。据初步统计,全球范围内的企业、社会组织、国际组织、学术团体等利益相关者,已经制定了160多个原则或者倡议,构成了人工智能安全伦理规制的“软法体系”[10]。建立行业、企业的人工智能安全伦理审查组织,制定行业、企业伦理规范,是保证人工智能产业健康发展的必要条件。伦理规范一般都是软措施,缺少国家强制力的保障,需要各个主体的共同参与,形成伦理共识,并作为共同的行为规范。

(二)人工智能安全伦理规制的准则

早在1950年,阿西莫夫就在其科幻小说中提出了著名的“机器人学三大法则”,即机器人不得伤害人类、机器人必须服从人类的命令以及在不违背前两条法则的情况下机器人必须保护自己。之后,各国以及有关组织都在积极发展人工智能技术的同时,不断探索人工智能伦理建设。笔者对主要组织和国家制定的伦理准则进行了梳理(见表1)。

表1 主要国家及组织人工智能安全伦理准则

续表1

可以看到,各国及有关组织在人工智能安全伦理准则上的要求基本一致,已经初步达成了共识。有学者将主要国家及组织的人工智能安全伦理准则进行了对比研究,按照出现频率排序分别是透明、公正、不伤害、责任、隐私、有益、自由与自主、信任、可持续、尊严[11]。总体来讲,人工智能安全伦理准则主要包括三个方面:一是人类根本利益原则,即人工智能应以实现人类的福祉为终极追求。人工智能应促进人类向善,避免人工智能军备竞赛。在算法上要保障人的基本权利和自由,并加强对数据的控制。二是风险原则,即尽可能降低人工智能的安全风险。对人工智能始终保持审慎的原则,只有在封闭性应用场景中才能开展研发和应用。要体现人类的知情权和控制权,当人工智能系统给人类造成损害时,可追溯查实并及时补救的。三是责任原则,即人类要对人工智能负责任并且可以问责。人工智能的设计者、使用者和相关利益者都要对人工智能行为产生的损害负责,并有责任去消除这些负面影响。

(三)人工智能安全伦理规制的机制

规制机制就是要选择合适的规制工具,并根据实施效果来不断调整[12]。学界对人工智能伦理准则的讨论较多,但对人工智能伦理规制机制的探索才刚刚起步[13]。伦理准则不可能自我实施,只有借助于规制工具才能得到落实。这如同法律条文一样,如果缺乏实施的机制,制订得再好也没有任何意义。人工智能的应用非常广泛,不同的场景,有不同的伦理准则和相应的规制机制。例如,无人驾驶汽车和医疗机器人的情况就各不相同。但总体来讲,有这些规制工具可供选择:一是嵌入设计。将伦理准则嵌入到人工智能算法中,实现技术层面的伦理规制。例如,哥伦比亚大学开发的DEEPXPLORE系统就具有“纠错”的功能,当数据出现偏离有关伦理准则的情况时,嵌入神经网络的诱导系统能够够让这些缺陷暴露出来,并自动进行扫描和纠错[14]。二是技术标准。将伦理准则融入技术标准,来规范人工智能的研究和开发。研发人员在适用这些技术标准时,自动遵守了伦理准则。例如,电气和电子工程师协会就在P7000系列技术标准中体现了可解释性等大量伦理准则。三是伦理审查。国家、组织和企业等各个层面设置人工智能安全的伦理审查委员会,在研发计划、研发过程和产品上市等各个环节进行伦理审查,对不符合伦理准则的人工智能采取取消投入、禁止研发、不予批准上市等措施。四是第三方认证。由独立的第三方进行人工智能的伦理认证,符合相关伦理准则的才能颁发许可证,不符合的则不能颁发。没有获得伦理认证的产品则难以进入有关市场领域,或者难以取得保险公司的投保。五是舆论约束。通过教育和社会舆论进行引导,宣扬人工智能安全道德规范,形成人工智能安全文化。吸纳公众参与,对违反人工智能安全伦理准则的行为进行监督。完善人工智能安全社会评价机制,使具有更高安全可靠性的人工智能产品获得更多的认可和更高的声誉。

如上所述,人工智能安全的伦理规制是一种自我规制,依赖行业协会、社会团体、研究机关、企业、科学家、公众等社会主体对自身施加约束。在通常情况下,规制主体与被规制者为同一主体或者有紧密关系,而且伦理准则又缺乏强制执行力的保障,因此人工智能安全的伦理规制只是一种“软约束”。随着人工智能安全风险日益严峻,国家政府也开始释放出强化规制的信号。但考虑到人工智能安全伦理问题的复杂性,以及人工智能技术创新的自由空间的需要,行政规制介入的程度和方式还需要深入分析探讨。

(一)人工智能安全伦理规制的“软约束”

1.从内源性逻辑看,伦理准则多为原则性、抽象性的规定,操作性不足。原则性、抽象性的规定不够清晰明确,难以形成应对各种具体情形的规范体系。实践中必须根据经验和专业素养进行主观判断,容易陷入“各执一词”的分歧。以《新一代人工智能伦理规范》为例,该伦理准则首先在第三条提出了“增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养”6条原则。之后,分别从管理规范、研发规范、供应规范和使用规范三个方面,提出了若干原则,缺乏明确的责任义务规定。其中,第十二条是“增强安全透明”的原则,规定“在算法设计、实现、应用等环节,提升透明性、可解释性、可理解性、可靠性、可控性”,“逐步实现可验证、可审核、可监督、可追溯、可预测、可信赖”。这些宽泛的概念都缺乏明确的定义,留给规制者的自由裁量空间过大。

2.从功能性逻辑看,伦理准则缺少强制力的保障,执行力不足。伦理准则大多是软法,其执行主要依靠内部力量。而且在实践中,有些行业组织、企业成立了伦理审查委员会,但审查的对象是同行或者同事,很难保证能够中立且严格地执行审查程序。现实经验也表明,伦理审查大概率都是顺利通过,很多是做做样子、走走形式。

3.从现实性逻辑看,伦理规制与经济利益之间存在冲突。对人工智能的研发提出伦理的要求,往往意味着企业需要投入大量的财力和人力进行试验或者寻找替代方案,这就必然导致经济成本的增加。企业也会倾向于将伦理审查简单化,尽可能地节约成本。而且,伦理规制也可能与科学研究之间产生冲突,减缓技术开发的进度,影响技术进入市场的时间。特别是人工智能是新兴产业,不确定性很多,有些领域还存在丛林法则,严格进行自我规制的企业反而会因为成本的增加而在竞争中处于不利地位,出现“劣币驱逐良币”的情况,因而企业主动进行伦理规制的意愿有限。

(二)人工智能安全行政规制的“硬约束”

如上所述,人工智能安全伦理规制的“软约束”存在失灵的问题,行政规制的介入非常有必要。简单来讲,行政规制一般是指政府为了保护公共利益的需要,在市场失灵的情况下,而实施对市场行为的干预。行政规制有国家资源和强制力作为保障,规制的力度大、效率高[15]。政府多采用一些命令控制型规制工具,被规制者必须服从,能够谈判的空间很小。行政规制的后果包括消极的,例如刑事处罚、吊销许可证、罚金、警告等;
也包括积极的,例如政府补贴、政府奖励等。无论是被处罚,还是相比竞争对手而言失去了奖励的机会,都对被规制者有重大的影响。因此,行政规制的威慑很大,约束力很强。

但是,人工智能安全行政规制的“硬约束”也面临失灵的问题。一方面,伦理规制针对未来可能发生的风险,而行政规制主要是基于既定的制度和社会实践,政府的过度干预可能会遏制人工智能的发展。人工智能伦理是基于一定的价值观念,但在多元化的社会,价值观念很难统一。而且,随着人工智能技术的发展,人与机器、人与人、人与自然之间的关系总在不断演变。在此背景下,政府过度强化某一种伦理主张,反而会引起社会的分裂,也无法及时回应人工智能伦理的变迁,影响人工智能技术的创新。另一方面,人工智能具有技术鸿沟,政府获取信息的成本过高。行政规制要求规制者获取并理解人工智能安全的信息,这个需要消耗大量的成本。特别是有些人工智能算法具有不可解释性,不具有很强技术背景的政府工作人员很难理解。因此,完全从外部监管人工智能安全存在信息成本过高的问题,影响了人工智能安全行政规制的效益。

(三)基于元规制理论的人工智能安全伦理规制优化逻辑

如上所述,伦理规制的“软约束”和行政规制的“硬约束”都存在失灵的问题。因此,不应该简单地在自由和控制两个极端中选择,要么把自由裁量权完全交给社会主体任由其自我规制;
要么剥夺社会主体的自由裁量权来实施威慑性的命令控制。而应该建立一种合作规制架构,使政府和社会主体能够持续的交换资源、相互沟通,发挥规制空间的系统性作用。元规制模式为人工智能安全伦理规制的优化提供了进路。

元规制是指外部规制者根据公共规制目标,促使被规制者自身针对公共问题,作出内部的、自我规制性质的回应[16]。外部规制者是根据公共规制目标有意而为,包括对不采取自我规制的被规制者给予处罚,或者对采取自我规制的被规制者给予奖励。因此,元规制也经常被称之为“约束性自我规制”。元规制的特点是外部规制与内部规制的结合,被规制者自身可以构成规制自身活动的来源。一般来讲,政府发现某一公共问题时,命令相关被规制者自己制定方案来解决问题,在被规制者作出回应后,政府对这个过程进行规制,也可以说元规制是对自我规制的再规制。在人工智能安全的伦理规制中,元规制可以发挥它的优势,表现为:

1.将伦理规制纳入法治化轨道。基于元规制,政府对社会主体的地位及其制定的伦理准则进行行政确认,而社会主体将自己定位为公共事务规制者角色,履行相应的行政法责任。这种行政确认将伦理规制纳入法治化规定,赋予其公法的效力和权威。

2.确保伦理规制符合公共利益。在元规制模式下,政府承担公共利益的担保责任[17]。一方面,政府制定确保社会主体履行公共事务的法律制度,通过框架设定、引导、监督等担保责任实现方式,保障人工智能安全伦理规制的质量和效果;
另一方面,在社会主体的伦理规制失灵并危害公共利益时,由政府承担接管责任。

3.成本最低。元规制模式给予人工智能行业组织、企业、科研人员等相当大的自由裁量空间,以便于回应人工智能技术和伦理观念的变化,毕竟他们对市场和技术的发展最为敏感。这种对伦理规制的吸纳的益处在于,社会主体掌握更多的信息,更有可能找到以最低的成本实现最有效规制的方案。而且,相对于硬性的强制性命令,社会主体更加有积极性遵守自己制定的伦理准则,进一步减少了对立冲突的成本。

基于元规制理论,人工智能安全伦理规制需要在合作规制框架下,合理分配行政规制和伦理规制的权力和责任。行政规制重点关注对人类发展和社会公众人身安全有实质性影响的重大伦理议题,而一般的伦理问题则充分依赖自我规制。从国家层面进行合作规制的框架性立法,将伦理规制纳入法治化轨道。行政规制介入的范围、程度和方式都需要慎重考虑,如果干预过多,不仅挤占了自我规制的空间,而且执法成本也过高。社会主体可以有充分的自由裁量权,根据实际情况将规制程序和要求具体化。

(一)规制主体的优化:从自我规制迈向公私合作

在合作规制框架中,承担人工智能安全伦理规制这个公共事务的主体,是分散的、多中心的任务实现结构,既包括政府,也包括社会主体,例如行业组织、企业、科研院所、公众等。无论是政府,还是社会主体,只要承担维护人工智能安全的公共任务,都具有公法主体地位和权力。社会主体的这一主体地位和权力,不是来自于行政组织法上的授权或者委托,而是基于元规制精神。政府应当尊重社会主体在人工智能安全伦理规制中的优先规制和平等主体地位,让社会主体分享合作规制权力、承担合作规制义务,并在此基础上,重新定位政府的角色——不仅是人工智能安全伦理规制的合作者,还需扮演框架设计者、监督者、评估者等角色,承担担保责任。

1.政府对伦理规制活动的监管是合作规制的关键,它是外部规制与内部规制两个系统之间建立耦合关系的联结点。通过监管制度的设计,行政规制的目标被输送到伦理规制系统中,与自我规制形成共振。它通过对自我规制的引导、监督,确保伦理规制能够实现人工智能安全的公共利益。政府的监管活动具有“四两拨千斤”的作用,既达到了规制目标,也节约了大量的行政成本。当然,政府必须履行最后的担保责任,当自我规制存在徇私舞弊,或者出现规制漏洞时,必须走上前台接管规制活动并修正自我规制行为,这也称之为“后设规制”[18]。例如,在人工智能产业联盟中,大企业往往掌握着伦理准则的制定权。因此,可能会忽视小企业的利益,甚至可能借助伦理准则来打压竞争对手,这就需要政府的介入。后设规制既包括对自我规制的规制程序的监督,也包括对作为规制者的社会主体的监督,使其具有可问责性。虽然政府可以通过强制措施、行政处罚等命令控制型手段来维护人工智能安全的伦理底线,但也需要更多地利用激励措施来引导伦理秩序和伦理文化。例如,可以给予建立了完善的伦理审查机构和伦理审查程序的企业更多的财政资金支持,在项目评审上予以政策性倾斜,这将极大激发企业进行伦理规制的主动性。政府还要帮助社会主体规制者完善自我规制程序,并为利益相关者设计抗辩、纠纷解决机制。总之,在人工智能安全的伦理规制中,社会主体必须意识到,在自己的规制不合法时,就会面临行政规制的接管。

2.人工智能安全的伦理规制不仅要有合法性的监管,也要有合理性的考量,这就是对伦理规制效果的评估,目标是追求“更好的规制”。“更好的规制”涉及不同利益和社会性目标之间的权衡和取舍。对于人工智能安全伦理规制的评估,不同的视角,会有不同的评估基准。一般而言,主要包括:是否有清晰的安全目标,并能够有效实现这个目标;
是否有坚实的伦理基础;
考虑到人工智能产业的发展,所产生的的收益是否大于所付出的成本;
尽量减少对人工智能科学研究的限制;
通过市场激励和基于安全的进路促进创新;
是否透明公正;
人工智能的用户是否能够理解这样的伦理准则并充分表达意见。很清楚的一点就是,以成本最低、干预程度最低的方式实现所规定的安全目标。典型的伦理规制效果的评估程序包括评判伦理准则选择的影响,拟定的规制方案的风险、收益和成本,以及被规制者如何实现合规、被规制者的意见等。伦理规制效果的评估不是“一次性”的静态评价,而是要促进形成一种渐进式的规制进路,允许不同主体相互协商,并调整不同规制者的作用。这种反思性、动态性进路,使得能够根据人工智能技术的发展和安全偏好的变化,对安全伦理准则进行不断的修正和调适。

(二)规制规则的优化:从软法规制迈向软硬并举

之前已经论证,人工智能安全的伦理准则作为软法,其约束力有限。因此,应当在合作规制框架下,将伦理准则与法律法规相衔接,保持软法与硬法的平衡和一致,实现软硬并举。可以通过立法技术推动软法的硬法化,使伦理准则能够产生硬法上的效力,打通伦理规制与行政规制之间的通道。我国法律一定程度上注意到了伦理规制的重要性,但难以直接适用。例如,我国《民法典》第1008条、第1009条规定了在有关医学和科研活动中开展伦理规制的要求,《科学技术进步法》第29条规定“国家禁止违反伦理道德的科学技术研究开发活动”。可以看出,法律是宣示性地要求有关活动要遵守伦理准则,但是没有明确要遵守哪些伦理准则以及违法这些伦理准则的不利后果。法律应该采用“转介条款”“引致条款”等衔接法律规则与伦理准则的立法技术。通过“转介条款”“引致条款”,指向具体的伦理准则,并从法律上赋予该伦理准则以法律效力,明确相关的权利义务和责任。进行个案的裁决时,先引用“转介条款”“引致条款”,再按图索骥找到具体的伦理准则来进行判断。这样既保障了伦理准则的法律效力,又保留了其灵活性。

(三)规制机制的优化:从线形规制迈向规制空间

我国目前人工智能安全的伦理规制还处于线形规制状态,规制主体与被规制者是单一的、单向的线形关系,规制主体之间也是缺少合作和互相监督的平行线关系。根据元规制原则,应当形成所有主体共同参与的规制空间。在该规制空间中,政府、行业组织、企业、科研院所、公众等不同主体各占据一个节点,共同织成一张人工智能安全伦理规制的网络。每个节点根据其掌握的规制资源,分配相应的规制权力和责任。每个节点都有自身的利益诉求,但相互作用之下的共同目标是实现公共利益的最大化。因此,还应当设计相关的机制,使他们之间能够互相监督。例如,可以要求充分的信息披露,说明伦理审查的程序、依据和结论,并接受同行互查和第三方独立机构的复审。另外,还需要制定程序规定来规范规制行为,使政府和社会主体能够持续的交换资源、相互沟通,发挥规制空间的系统性作用。

猜你喜欢规制准则伦理《心之死》的趣味与伦理焦虑英美文学研究论丛(2022年1期)2022-10-26灵长类生物医学前沿探索中的伦理思考科学与社会(2021年4期)2022-01-19IAASB针对较不复杂实体审计新准则文本公开征求意见中国注册会计师(2021年10期)2021-11-22主动退市规制的德国经验与启示南大法学(2021年4期)2021-03-23护生眼中的伦理修养活力(2019年19期)2020-01-06伦理批评与文学伦理学英美文学研究论丛(2018年2期)2018-08-27共享经济下网约车规制问题的思考消费导刊(2018年8期)2018-05-25内部审计增加组织价值——基于《中国内部审计准则》的修订分析消费导刊(2017年24期)2018-01-31浅谈虚假广告的法律规制消费导刊(2017年20期)2018-01-03学学准则共产党员(辽宁)(2015年24期)2015-10-18

推荐访问:规制 人工智能 伦理

猜你喜欢