陶锋
关键词 人工智能文艺 伦理 治理 审美理性 人机和谐
〔中图分类号〕I0-05;
TP18 〔文献标识码〕A 〔文章编号〕0447-662X(2023)05-0052-11
近几年来,人工智能在文艺领域的表现越发亮眼。人工智能绘画程序Dalle-2、StableDiffusion等已经可以生成风格各异、极具创新性的作品。而ChatGPT则凭借强大的自然语言处理系统,在人工智能文学方面的表现令人惊叹,它不仅可以生成非虚构类的作品,如工作报告、策划方案、论文、新闻、悼词、影评等,还可以创作虚构类作品,如小说、歌词、剧本等。这些人工智能文艺作品不但能以假乱真,而且似乎还有一定的创新和风格。人工智能不仅可以帮助人类进行体力劳动,还能进行一定程度的脑力劳动和创造性活动。除了这些自动生成艺术品的程序之外,还有很多文艺产业中的计算机平台、软件和手机APP在广泛使用智能程序,如引发激烈争论的“换脸术”,以及娱乐app利用人工智能来计算客户的审美偏好并进行智能推送等等,这些新技术、新作品和新应用也带来新的社会和伦理问题。
人工智能文艺作品主要指的是人工智能技术独立或者半独立地模拟生成的文艺作品。广义的人工智能文艺作品还包括以“人工智能”等智能技术为主要辅助手段的人类作品。人工智能文艺研究主要包括:(1)对人工智能文艺作品的鉴别、欣赏与评价;
(2)对人工智能文艺作品的生成、流通、应用和鉴赏等活动的研究和反思,并以此为关照,对人类艺术活动本质的重新审思;
(3)对人工智能技术在文艺领域的应用所引发的诸多社会现象的分析和反思。人工智能文艺活动与传统的文艺活动的区别主要在于,人工智能可以较为独立地进行文艺生产,一定程度上改变了传统艺术生产者的构成和地位。下文主要就人工智能文艺作品的生成和应用(人工智能行为)领域产生的各种问题进行讨论,结合最新的人工智能技术,探讨人工智能可能会对文艺领域产生何种伦理和社会冲击,以及我们应该如何在思想和现实层面对技术进行引导。
一、人工智能文艺领域的伦理与社会问题
人工智能艺术的生产和应用过程,会产生大量的伦理和社会问题。虽然相对于其他人工智能技术,如自动驾驶、智能制造等方面,人工智能文艺生产和应用不会直接威胁到人类的生命安全,但是其对个人和社会造成的显性和隐性影响也极为广泛与深远。对于个体而言,人工智能文艺活动会影响到个人隐私和安全、文艺工作者的权益以及情感问题;
而对于社会而言,这类特殊的生产应用活动会带来信任问题、数字鸿沟、歧视以及影响到艺术行业的人员就业问题。下面,我们从个体和社会两个方面来谈谈人工智能文艺领域的影响。
1.人工智能对文艺领域内个体权益、隐私和情感的影响
人工智能强大的图像处理能力,使其可以生成高仿真的图片和视频,特别是人脸图片。这类技术在文艺领域特别是影视和主播领域,得到了广泛的运用。比如电影拍摄方面,正在越来越多地运用到换脸技术。如《速度与激情7》(2015)中,用AI换脸技术完成了去世影星的表演镜头。2019年一款名为“ZAO”的软件风靡全国,该软件运用了人工智能深度学习技术,可以进行实时的面部转化,俗称“换脸术”。这种换脸术早在2016年就由德国纽伦堡大学的教授蒂耶斯(J.Thies)团队开发出来,称为Face2Face,后来进一步发展成Deepfake技术,该技术主要包括三个步骤:一是人脸侦测和识别,二是确定变换矩阵,三是人脸替换。由于这种面部转换过于逼真和简易,会侵犯到他人的肖像和隐私权,所以引发了较大的争议。而在主播行业,虚拟主播越来越流行,人们既可以生成一张虚拟面孔以替代真人主播,也可以利用虚拟技术为自己建立数字分身。
本雅明认为,艺术的本质特征是复制。但是,当这种复制不再局限于静态图片,而是介入动态视频甚至生成更加仿真的事物时,会产生很多现实的道德和法律上的风险。例如Deepfake可以用来制作明星虚假色情视频,这严重地侵犯了他人的肖像权,甚至有些视频使用政治人物的头像,这可能会造成外交和政治问题。美国试图立法禁止媒体使用此类视频,但是由于技术限制,目前仍然很难追踪并快速识别换脸视频。影视行业如果不加约束地使用此技术,会导致一些节目为了节约人力成本、追求利润,使用AI换脸术来欺骗观众,这将损害到观众的权益,也必然对整个行业造成负面影响。
除了Deepfake换脸术,人工智能生成文学作品也带来了各种争议。深度学习需要输入大量的人类作品,这会带来版权和著作权等问题。一些人工智能程序开发者已经明确放弃人工智能生成作品的版权,如微软小冰在推出《阳光失去了玻璃窗》诗集之后不久,就宣布放弃对程序写诗的版权。美国版权局主任帕尔穆特(S.Perlmutter)指出,使用DALL-E、Midjourney、ChatGPT以及新发布的GPT-4等工具生成的数字艺术、诗歌和书籍,如果人类在作品生成中仅仅使用文字描述或提示,将不受版权保护。
在人工智能时代,艺术的复制不再是简单的机械“复制”,而是进入了一种风格模拟、创意模拟和艺术机制模拟的阶段,也即是“人工智能模拟时代”。对于表象上的复制和抄袭,我们很容易鉴别,但是对于风格、创意和机制的模拟,就很难从直观上分辨了。例如现在的ChatGPT使用了超大规模的自我监督神经网络学习技术,学习了几十亿个词汇。它生成的作品很难说会和已有人类的某件作品雷同,但是这并不能保证,其在一些创意上不会“借鉴”他人的作品。这些隐性的抄袭虽然不会直接伤害到作者的权益,但是会影响其创作积极性。
人工智能技术在图像和艺术方面的开发和应用,不仅会产生个体权益问题,还可能会侵犯到个人隐私。首先在技术开发中,由于人工智能需要大量的数据输入来训练,所以一些公司可能在未经用户同意的情况下使用他们的照片和数据。例如,IBM在未经用户同意的情况下,在图片分享网站Flickr上获取了大约100万张照片用于训练其人脸识别的算法。另外,个人兴趣、爱好和一些偏好也属于隐私的一部分。一些娱乐的app会根据个体的观看偏好来推荐作品,这样也会引发人们对隐私的担忧。随着人工智能视觉识别技术的广泛运用,还会产生金融和财务的安全问题。例如现在的人脸识别技术,被广泛地运用于交通、出行、快遞收取和金融业务上,这极大地提高了工作效率、改善了生活体验,但是也带来了各种风险。
人工智能艺术生成还会对人类的艺术情感和情感交流产生冲击。首先,人工智能艺术的出现,打破了艺术必须传递情感的说法。没有情感或者伪造情感灌注的艺术品,也能引发人们的审美感受和共鸣。目前的人工智能是无法真正产生情感的,它只能通过“情感计算”(affectivecomputing)或者设置情感程序的方式来模拟情感。情感计算的实质是通过大数据和精确的计算将引发情感的艺术表现形式与情感对应起来,然后通过学习模拟这些艺术形式,生成一些看起来有情感的作品。无论是情感计算,还是设置情感程序,并非都是人工智能自身的情感。这种虚假的情感也能使人感动,但是一旦它被发现是假的,人们会觉得受到了愚弄。就如同艾略特所说的被“胡言乱语”(gibberish)的诗歌所欺骗那样。
其次,情感机器人的发展也会对人类的情感交流造成困扰。人工智能程序与人进行对话的同时,可以通过情感计算方式来收集话语中的情感信息,对话者在对话中成了它的一个数据收集对象。但是,当人们发现这些机器的情感并非基于生命而是通过计算而来的,人们很可能会陷入迷惘、失望和恐惧中。日本学者森政弘提出“恐惑谷”理论,认为机器人与人类的过分相似会导致人们的迷惑心理和恐惧情感。他主要是从机器人设计的外观和行为来说明这种现象的。实际上,这种恐惑心理和情感在机器人和人工智能与人类交流时也会出现。在人工智能程序表现出高度的拟人化和智能化时,如人工智能程序Dalle-2创作出新奇的画作,或者是如ChatGPT能够写出优美的诗句时,人们也可能会出现迷惑甚至恐惧的心理,特别是在人们不知道创作者是人还是机器时。
人工智能在文艺领域的应用不仅仅会对个体造成影响,还会对整个社会产生积极或消极的影响,引发人类社会的信任危机,以及数字鸿沟、歧视、失业等社会问题。
2.人工智能艺术产生的社会信任、数字鸿沟、就业问题
人工智能对情感的模拟使得人们首先面临一种情感信任危机,而在此基础上会引发更大的人与机器、人与人的信任危机。人工智能模拟情感虽然可以在娱乐、科研等方面对人们有所助益,但是它们会扰乱人类生命共同体的情感交流方式和信任机制,“人们的注意力逐渐被虚拟世界吸引”,人与人之间的同理心和共通感不再是普遍的、可靠的了。康德将人类的共通感视作审美判断之所以具有普遍性的基础,而审美快感是与生命感紧密联系的。然而一旦人类的情感和审美活动被人工智能所模拟和中介,人们的审美判断就不再是纯粹的、普遍的、与生命有关的了。这一点在康德提到“人造花”时已经指出,人们在发现自己欣赏的是人造花而不是真花时,会有一种“虚荣的兴趣”(InteressederEitelkeit)。当人工智能艺术和文本越来越泛滥时,人们在对艺术品进行审美判断之前,需要先进行真假判断:这到底是人的作品还是人工智能的作品?这些作品的情感是真实的还是虚拟的?有人用ChatGPT写作的论文和作品去投稿,导致许多期刊开始抵制ChatGPT写作的作品,这体现了学术界的担忧,即人工智能文本会污染人类文本。除了人工智能艺术品之外,前面说的换脸术、虚拟主播、机器人客服等,都会导致信任危机。
人类社会的稳定在很大程度上建立在信任和共识上,正是因为我们对人类的个体相似性以及文化、情感、语言、精神的可交流性的信任,使得人们可以相信他人、协同合作。正如伽達默尔指出的,“语言是我们在世存在的基本活动模式,也是包罗万象的世界构造形式”。但是,以ChatGPT为代表的人工智能程序,正在生成大量的“自然”语言和文本,这些语言和文本混入到了人类的语言和文本池中。其强大的计算能力和生成效率,会导致人类语言被机器生成的文本所稀释、掩盖甚至代替。后人类时代要担心的不仅仅是人类个体器官被人工器官所置换,“身体不再彻底是或完全是属人的”,还要忧心于人类社会,包括工具、文化甚至精神,都可能被机器所中介和置换。
人工智能技术的发展,还会造成不同阶层、不同国家和地区的数字鸿沟问题,这也集中体现在各地区人们对人工智能文艺的接受、理解、普及和宣传的不同上。“数字素养”(digitalliteracy)是21世纪人类的重要技能,提高数字素养,其目的是“要让大众有能力去保护自己防止数据滥用,重要的是让他们能够顺畅地理解数据收集和共享的方式、算法的使用方式和目的,以及他们可以使用哪些工具和技术来保护自己”。但是,不同阶层、不同年龄段的民众对数字和网络技术的理解和学习能力是不同的。不同国家,由于教育、经济发展和重视程度的不同,也会导致数字素养方面的差距。
就文化和艺术而言,人工智能技术可以促进文化产业的发展和扩展文艺传播的范围。例如Facebook、Whatsapp、抖音等社交娱乐软件,由于应用了人工智能技术,可以更便捷地推及世界各地。人工智能翻译技术的提升,使得一些强势语言和文化更易传播,这种广泛传播反过来又能够促进人工智能语言翻译的提升。而一些小语种和相对不发达的文化,由于本身可采集的文本和语料较少,人工智能翻译数据少,再加上其地区的技术滞后,各种文化作品翻译和传播就更为艰难。强势语言和文化与弱势语言和文化之间的差距会越拉越大。人们在使用ChatGPT时就体会到了,该程序对于不同语言的回答会有明显的质量上的区别。ChatGPT的中文训练语料库仅占比5%,而且由于中文自然语言的复杂性等原因,使得ChatGPT在中文文本生成上远远逊色于英文。中文尚且如此,其他小语种就更不用说了。因此,智能科技的发展背后是国家实力和文化实力的支撑,数字鸿沟会随着技术的发展而越来越大。
人工智能技术高度发展伴随而来的还有各种歧视和偏见等问题。麻省理工学院的学者发现,IBM、微软和中国公司Face++的三个最新的性别识别程序,从照片中正确识别出一个人的性别,对于白人男性而言高达99.2%,而对于皮肤黝黑的女性来说,准确率下降到只有65.3%。而ChatGPT的开发者也明确指出,尽管他们努力使模型拒绝不正当的请求,但是ChatGPT仍然可能对有害的指令做出反应或表现出有偏见的行为。ChatGPT等人工智能的技术本质决定了,它们可能会继承并放大人类思想中传统的偏见,如性别、种族等等,这些歧视和偏见不仅仅需要我们通过技术来防止,还需要从人类思想和文化的层面去改变。
人工智能生成艺术作品,还会引发文化产业领域中的就业和劳动问题。2016年,牛津大学出版的一份报告指出,虽然写作、作曲等艺术工作较之机械的、重复性劳动更难被取代,然而在未来,也会被人工智能所取代。目前来看,人工智能程序已经可以生成一定质量的绘画、设计、音乐、诗歌等门类的作品。一些文化产业中的低端复制性工作更容易被取代,如插画师、行画技师、初级设计师、配乐师等等。特别是2023年3月15日推出的GPT4和升级版的stablediffusion程序,在识图、绘图方面的水平表现得非常出色,其绘制的设计图片,已经被一些设计师用作参考了。而一些艺术家个体,也会在人工智能的全面围剿下变得生存艰难。艺术市场会被物美价廉的人工智能艺术品所挤占。这将引发艺术市场的失业问题,迫使人们向其他更难取代的工作转移,文艺产业中的中低端工作将慢慢消失。我们虽然对此已有思想准备,然而随着人工智能技术的高速发展,行业调整以及人员培训的速度仍然可能赶不上技术发展的速度。因此,如何预先设想行业未来的发展状况,以及引导技术的发展方向,是亟须思考的重要问题。
二、人工智能文艺的伦理社会问题之思想根源
人工智能艺术带来的个体与社会的问题,有其深远的社会和思想根源。在人工智能出现之前,控制与自由、艺术与技术、人与机器的矛盾问题就已经存在了,人工智能技术进一步放大了这些矛盾。人工智能与之前的作为工具的机器有着本质的不同,人工智能已经不单纯是被动的工具,而是具有一定主动性和主体性的代理性主体(agent)了,这迫使我们需要重新思考这些经典的哲学问题。
1.控制与自由
马克思曾在《资本论》中分析了机器的自动化与人类劳动之间的关系。马克思指出,大工业生产中,机器成了异化和控制人的“自动机”,“滥用机器的目的是要使工人自己从小就变成局部机器的一部分”。机器看似在减轻和取代人的劳动,但实际上,“机器不是使工人摆脱劳动,而是使工人的劳动毫无内容。”机器会加速人们的异化劳动。马克思认为,“生产过程的智力同体力劳动相分离,智力转化为资本支配劳动的权力”。自动化机器实际上是资本控制的有力工具,人们创造了机器,但是反过来却被机器和资本所控制。到了人工智能时代,机器不仅会取代人类的体力劳动,还可能取代人们的部分脑力劳动,甚至是那些人类引以为傲的创造性活动。倘若如此,人们是会摆脱束缚,进入到自由劳动中,还是被资本在脑力与体力全方位控制呢?
海德格尔认为,机器改变了人的语言本质,机器与以往工具最大的不同在于,机器会催逼自然。海德格尔区分了言说机器(Sprechmaschine)与语言机器(Sprachmaschine)。前者是一种被动的、记录人类语言的机械装置,而“语言机器从它的机器能量和功能中已经调节并安排我们的语言的可能的使用方法”,现代技术支配语言本身和世界,“语言机器使得语言运行起来,因此控制了人类”。海德格尔最终将希望寄托于本真的艺术语言——诗歌,因为现代技术与机器遮蔽了人和真理的本真状态,所以“一首诗原则上不能用计算机编制程序”。
在智能科技时代,人工智能通过学习人类文本,模拟生产类似的文本。而当人工智能生成的文本不断增多,逐渐稀释并淹没了人类文本时,人们会习惯于阅读机器文本而不自知。那么,控制人工智能的力量,也可以轻而易举地控制人们所有能读到的文本。这种文化控制和阿多诺指出的工业化时代的控制是一脉相承的,文化工业可以通过对艺术产品的精确控制,来影响甚至控制人们的审美口味,进一步控制人的思想和认识。这种控制力量可以是资本、财团或者统治阶层。一些智能音箱如亚马逊公司的智能音箱“Echo”可以在用户不知情的情况下追踪用户的关键词甚至部分对话。我们在上网、打电话或者用社交软件等任何智能程序和设备时,都会遇到这种问题。尽管研发者宣称,他们只是在追踪一些关键词,而不会涉及具体内容。但是,正是这种智能化追踪和推荐,正在潜移默化地改变人们的购买偏好、审美趣味、生活方式甚至思维习惯。
控制力量也可以来自人工智能本身。如果说资本还只是人类意识的延伸,那么群集智能、通用人工智能就有可能发展成独立于人的自动力量。它们具有资本所不具有的自主性与主动性。一旦它们的发展超出人类的控制,就可能转而成为控制人的力量。在智能科技时代,控制和自由将体现在人与机器人的关系中。
2.人机关系
人与机器人的关系脱胎于人与机器的关系,是人机关系中的新类型。现代机器人主要指具有一定自主性的自动化机器和智能化程序。人们对自动化机器的想象由来已久,早期想象中的机器人类型大致可分为两种:一种是实用工具,即机器人代替人来工作,如古希腊神话中的青铜卫士塔罗斯。亚里士多德在《政治学》中曾经提到,如果工具能够完成自己的工作,服从或预期他人的意愿,那么“主人也不想要奴隶”。还有中国传说中的自动运输工具“木牛流马”等。另一种则是供人欣赏娱乐的艺术品,如《列子·汤问》里面的“偃师造人”中所设想的会自动舞蹈的歌姬,霍夫曼小说《沙人》中的情爱机器人奥林匹娅,以及中西方机械史中的人偶机械装置。这些实际上也是一种供人娱乐的工具。到了20世纪的文艺作品中,人们开始重新批判这种人机关系。设想中的机器人与人类的关系是不和谐的,机器人成了反抗的主体,它会威胁和报复人类。捷克作家恰佩克(K.Capek)在一部戏剧中创造了“Robot”(机器人)这个词,该词源于捷克语的“robota”,意思是“苦力”。剧中,机器人后来毁灭了人类,统治了地球。类似的还有电影《大都会》(1927)里的破坏劳工运动的女机器人等等。到了好莱坞电影《AI》(2001)中,人工智能机器人从威胁人的怪物变成了被人类肆意伤害的弱者。在人们的文艺作品中,人与机器人的关系始终是压抑与被压抑的紧张关系。
随着科技的发展,文艺想象中的自动机器也逐渐变成现实。人與机器的关系越发紧密,特别是人工智能技术,已经介入到我们的日常生产、生活中。智能机器已然不是一般的使用工具,人机关系理应进入到新型的人机合作形态。保罗·沙瑞尔(PaulScharre)根据机器承担的任务类型、执行任务时的人机关系、机器决策的复杂性程度,将人机合作的具体形式分为半自主、辅助自主以及完全自主三种方式。2020年,马斯克在Neuralink发布会上展示了脑机接口技术,提示人类和机器的融合已经进入到肉体甚至是神经系统层面。随着人工智能自主技术的发展,人机关系可能会进入到人机共生关系形态,正如海姆所说:“我们与信息机器的关系宣布了一种共生关系,最终是与技术的精神联姻。”
2019年欧盟颁布的《可信赖的人工智能伦理原则》强调,人应该对人工智能拥有绝对的控制权,人工智能应该以人为中心。实际上,科幻作家阿西莫夫早在1942年小说里提出的“机器人三定律”就是这种人机关系立场的延续,体现了一种“人类中心主义”立场。在人工智能还不具备自主意识的情况下,人类的这种控制是有其实际意义的。但是,人们一方面希望创造出能替代人类进行各种劳动的真正的智能体,一方面又希望这种智能体只是一种可控的工具,这种想法显然是矛盾的。因为如果人工智能真要实现智能,它就需要具有独立性和一定的自主性,甚至,我们希望人工智能成为道德和法律上的责任主体。倘若如此,人工智能是很难被人所完全控制的。之所以会出现这种悖论,还是因为人类理性的高度工具化、功能化和目的化,人们为了短暂的实用目的而忽视了长期的合目的性。
因此,笔者在参与2019年科技部《新一代人工智能治理原则》的制定过程中,提出了“人机和谐”的建议,并得到了采纳。所谓的“人机和谐”并不是一种浪漫的艺术幻想,而是基于对人自身的理性、对“人类中心主义”的反思和批判。无论是人机合作还是人机共生,都应该是一种和谐关系而非压抑和对抗关系。人机和谐的前提和基础是人对工具理性的控制,对人与技术、人与机器关系的思考。人们在担心人工智能给人带来威胁之前,首先应该担心的是人类理性中蕴含的控制性和毁灭性力量。正如法兰克福学派所预言和批判的,人类的同一性哲学和工具理性,会让人们控制自然、控制他者,而这种力量最终会反噬人类自身,异化和控制人类。正是人类自己发明了足以摧毁人类和世界的技术——核武器、基因工程和人工智能,如果有一天人工智能真的毁灭人类,本质上是人类的自我毁灭。人机和谐的基础是人类的自我和谐、感性与理性的和谐,主体与客体的和谐。如果人始终想奴役和控制对象,那人类也将在奴役和控制中自我奴役。而人类的自身和谐,首先要将对抗性的工具理性转变为一种和谐的理性,这需要艺术与技术的融合。
3.艺术与技术
早期的人类艺术与技术是合一的,在汉语中,“艺”的原意是“种植”,古代“六艺”也多为实用性技术。亚里士多德所言的“技艺”(Tekhnē)包括手工艺在内的实用技术制造,也包括了“诗艺”(Poiēsis)。随着人类文明的发展,技术与艺术慢慢区分开来,艺术成了以欣赏为主的、与人类精神文明相关的行为。康德明确将“无功利性”和“自由”赋予了艺术。而技术则是实用的、有功利性的人类活动。
在《启蒙辩证法》中,霍克海默和阿多诺认为社会分工造成了艺术与科学的分离和对立。科学鄙弃艺术中留存的巫术,自己却变成了一种工具,理性也成了一种工具理性。阿多诺在《美学理论》中进一步发展了这种观点,技术鄙弃艺术的巫术遗存,而艺术则将技术从统治中解放出来。斯蒂格勒认为,工业时代,技术试图彻底抛弃自身的偶然性,与科学结合到一起,成了斯蒂格勒所说的“技术科学”(technoscience),即科技。不可否认,科技对于人类进步起到了巨大的推动作用。然而人们并不仅仅希望将这种必然性限于科技之中,也试图将之加到艺术身上,将艺术整合进科技中。
科技对艺术的第一次大规模整合即本雅明所说的机械复制时代产生的艺术品,他将机械复制时代的艺术过程视作一种生产过程,文艺作者本身是生产者。因此,本雅明非常重视技术革新对艺术带来的巨大影响,技术将艺术从巫术中解放出来,例如机械复制技术使得艺术失去了宗教价值,只剩下了展览价值。阿多诺批判了本雅明的艺术生产和机械复制观念,他认为,艺术本身具有必然与偶然、表达与不可表达的辩证因素,本真艺术应该保持其不可复制性,反对文化工业将艺术品变成商品。阿多诺试图将技术艺术化来结合艺术与技术,艺术通过自身的技术——一种“无目的的”、非暴力的和谐方式,来反对和拯救有目的的、同一化的技术。艺术中的模仿—表达要素则可以用来拯救工具理性。本雅明的艺术技术化观点重视的是技术为艺术生产带来的解放性变革,而阿多诺的技术艺术化考虑的则是艺术对技术理性的改造。马尔库塞则试图综合两者,他认为艺术可以成为技术,技术也可以融入到艺术中,他重视的是艺术和审美中的“非侵略性”力量。
人工智能技术在艺术领域的应用,体现了智能科技对艺术新的整合趋势。一方面,人工智能可以生成艺术品,这表明艺术的某些规律已经可以被算法化、计算化了。另一方面,人工智能技术也可以广泛应用到鉴赏性的、审美式的艺术之中。不过,目前人工智能在艺术上的应用,更多地还是为了研发和提升技术。例如,ChatGPT写作、微软小冰写诗、谷歌写作APP研发的目的是为了改进NLP(自然语言处理)技术,从而能更好地为顾客服务,其背后驱動仍然是商业利益。提倡艺术和技术结合,指的是通过技术艺术化来引导技术向善——技术的目的是为了提升人类的生活福祉,人工智能技术应该重点研发艺术、娱乐、教育以及健康等方面的问题,而不是战争、犯罪以及控制等领域。
三、人工智能文艺领域伦理社会问题之治理基础
人工智能文艺生成和应用活动中,产生了各种与个人权益和社会控制相关的问题,原因在于艺术与技术的摩擦、人和机器的矛盾,而追根溯源,则是人类自身理性发展的问题。正是由于人们无限制地使用理性,生成了各种无法控制的技术,所以才进一步加剧了人与自然的对立、导致了社会矛盾的加剧,因此,对于人类理性的控制和引导首当其冲,只有深刻反思人类思想上的痼疾,才能进一步在实践中加以引导和转变。
1.审美理性
随着技术的提升和人类对工具理性的批判,人类的理性在逐渐脱离旧的工具性、压抑性特质,而逐渐发展出一种相对可控的、调和的“设计理性”。人工智能之父司马贺(H.Simon)认为,我们现今生活的世界就是一个人工世界,正确地研究人类就是研究设计科学。 设计理性不同于以往的工具理性之处在于,首先,工具理性的中心是外在目的,而设计理性更重视人的需求和目的。其次,工具理性关注物的功能与实用价值,设计理性除此之外,还关注物的审美价值。再次,设计理性中隐含着“创新”之维度,工具理性则只考虑利益的增值。在人工智能、虚拟现实、克隆、基因编辑等技术的加持之下,世界的一切,包括艺术、人类大脑、生命都可以被设计。但是,设计理性不过是工具理性的高级阶段,它并没有摆脱那种将事物和人类工具化的根本特征。科技可以设计一切事物,但是无法设计自然合目的性本身。
因此,一种符合自然合目的性的审美理性应该是理性发展到最高阶段的产物。也即是说,人类的理性,只有实现了以生命为最终目的,才能是自由和自为统一的理性。审美理性的基础来源于阿多诺的审美合理性(AestheticRationality/?sthetischeRationalitaat)概念。阿多诺提出此概念是为了弥补工具合理性的不足,其目的是借鉴艺术和审美中的平等因素,来纠偏同一性思想和技术理性中的压制本性。在阿多诺之后,一些坚持“审美理性”(AestheticReason)观点的学者,继承了阿多诺的审美理性化和审美救赎责任这两个核心维度,如伯恩斯坦认为审美理性是“艺术作品中所表达的一种推理”,艺术品是对科学知识和道德经验所提出问题的回答。阿兰·辛格提出要“重新审视现代美学理论的认知主义根源”,审美活动不应该是一种逃避,而是“一种有意义的社会事业”。审美合理性除了审美救赎的内涵之外,还包含着审美的理性化部分。人工智能艺术的出现,首先说明了审美理性化是有可能的,艺术和审美的部分规律可以被认识、计算或者算法化了。一些现代美学流派如信息美学、实验美学、神经美学重视艺术的必然性一面,却忽视了审美辩证法。我们不应该简单地让智能科技将艺术整合进去,用必然性替代个性、偶然性和自由特征。我们更需要的是艺术与技术的融合,人工智能技术需要审美理性来引导。人工智能艺术可以成为文化工业有力的工具,成为资本盈利的手段,控制资本与技术的阶层可以通过控制大众的审美来进一步控制人们的思想与行为。在这种情况下,我们更应该重视和珍惜人类艺术的重要性,不应该将艺术完全交给人工智能去生产。我们只有坚持发展艺术的想象力和创造力,保有艺术创作和欣赏过程中的平等、和谐因素,才能够更好地引导人类理性和技术,同时对人工智能技术进行有效的引导。
2.中国话语
人工智能艺术所带来的伦理和社会问题,也可以从中华传统思想中寻找到指引方法。如前所述,中国的《新一代人工智能治理原则》率先提出了人机和谐的思想,这种和谐观就来自中国传统的天人和谐观念。在庄子那里,机械源于人类的“机事”和“机心”,庄子希望人们能够去掉机心和分别心,回到人与自然的融合,实现天人合一。然而,我们现代世界中已经充斥了各种人工物,这些人工物不仅实际参与了我们的生活,还参与到我们的意向活动以及伦理中。机器和人工物构成了一种人造自然,因而,我们就要考虑如何在人类、自然和人造自然之间重新达成新的和谐。这种和谐需要人们承认自己的有限性、理性的有限性,需要人们破除“人类中心主义”迷思。唯有如此,人类才能尊重其他生命,敬畏自然,警惕理性和技术的过度使用,为理性与技术划界。老子说“知止不殆,可以长久”,知道界限,人类才能长存。库兹韦尔在《奇点临近》中认为,我们要进行“细粒度放弃”,放弃那些会对人类产生不可逆的、巨大危险的技术。对于人工智能艺术而言,我们可以通过人工智能技术去探索艺术和审美的规律及算法进程,但是同时也要重视艺术中那些偶然性、个体性和变化性等无法算法化的特性。在生产应用方面,我们还要限制那些威胁到人类隐私和自由的应用,如“换脸术”、窃取数据等,更要警惕资本在文化工业中对人工智能技术的肆意滥用,生产出大量的拙劣的、恶趣味的文化商品,而使真正的艺术品被淹没。
另外,人机和谐还包括人与人工物、人工物的研发者之间和谐信任的机制。诚信是中国传统美德,孔子非常强调人与人之间“诚信”相待,“信”是儒家所说的“四教”之一。《新一代人工智能治理原则》提到人工智能程序必须事先表明身份。笔者认为,在文艺领域,人工智能艺术品也应该作出明确标示,这是为了防止人工智能滥用仿人、仿生技术,给人类社会带来信任危机。诚信还包含了人与机构、国家之间的信任,所谓“民无信不立”。在文化工业中,一些公司掌握了大量的公民的数据,如个人的审美偏好、阅读习惯、趣味等等,公民授权它们使用这些数据,是为了促进文化工业领域的健康发展,为人们提供更加优质的文艺作品。所以这些公司应该尽量做到信息和技术的“开源”,让人们普遍参与到授信与监督之中,也最大限度地保障公民隐私权不受侵犯。
因此,引导理性、提升道德和建立互信是长远之计,从现实层面来说,我们还是应该加强伦理监管,预先设置道理伦理准则甚至是法律制度。
3.指导规范
相较于法律制度,伦理原则更加宽泛、更有弹性一些,因此也适合那些新出现的、尚无定论的社会问题。例如人工智能“换脸术”“换声术”等,这些技术如果合理运用,是可以有益于人的。但是一旦滥用,则必定给个人和国家的隐私、安全带来极大的威胁,在不同的情况下需要区别对待,而法律很难做到巨细无遗。因此,出台相应的伦理原则成了当务之急。目前,欧美多国出台了人工智能治理和伦理规范。例如欧盟《可信赖的人工智能伦理指南》提出,“可信赖的人工智能”包括合法、合乎道德、稳健可控三个方面,而道德是基础。2016年美国白宫发布的《国家人工智能研究与发展战略规划》中确定的七项战略中也包括“理解和应对人工智能带来的伦理、法律和社会影响”。2017年国务院发布的《新一代人工智能战略发展规划》中明确指出“制定促进人工智能发展的法律法规和伦理规范”。2019年科技部发布的《新一代人工智能治理原则》以“和谐友好”“公平公正”“包容共享”“尊重隐私”“共担责任”等伦理道德原则为核心内容。不過,这些原则却几乎没有言及人工智能在文艺领域所产生的伦理和社会问题,更多关注的是自动驾驶、安全、监控和隐私方面。前已论及,人工智能文艺生产虽然并不会直接危及人们的生命、财产安全,但是,也会给个人的权益、隐私以及整个社会带来不利影响,还会通过改变人们的审美、创造能力来同质化人们的认识能力和鉴别能力,甚至能对人类的感性、理性和自由精神产生影响。这些危害或许要多年以后才能显现出来。“娱乐平台为了自身的商业利益,利用算法诱导用户进行娱乐或信息消费,导致用户沉迷。另外,‘算法至上的内容推荐,会导致利用算法不断强化用户自己想看的世界,内容越来越单一且变得偏激,以致形成恶性循环。此类算法滥用可能导致用户价值观扭曲、视野狭窄等问题。”因此,我们也需要出台相应的行业伦理细则来规范人工智能文艺领域的研发和应用,特别是对一些研发平台和公司进行监督和规范,加强科技工作者的伦理教育和自律,加强技术人员与艺术工作者的合作,让艺术和技术真正地融合起来。
综上所述,人工智能艺术的出现,会产生应用伦理、社会伦理、情感伦理等多方面的问题,如危及个体隐私、自由、权益和情感,会导致信任问题、数字鸿沟、性别歧视等问题频发,甚至也会影响到艺术行业的就业和经济结构。这些问题的根源在于控制与自由、人与机器、艺术与技术等传统问题中固有的矛盾和冲突,人工智能的出现,加剧了这些矛盾。我们只有先从批判人类理性入手,才能进一步地健全人类理性和道德,并引导技术朝健康的方向发展。笔者呼吁能通过审美理性——结合了感性和理性、艺术与技术、平等与和谐的理性,来纠偏技术理性,引导技术。我们应该承认理性的有限性和界限,适时适当地放弃某些威胁人类的技术,从而能够塑造人与自然、人工自然的和谐。中国的传统和谐观能够为新的人机关系奠定思想基础,另外,我们也需要建立文艺领域的伦理原则,来指导人工智能艺术的健康发展。
作者单位:南开大学哲学院
责任编辑:魏策策
猜你喜欢治理伦理《心之死》的趣味与伦理焦虑英美文学研究论丛(2022年1期)2022-10-26护生眼中的伦理修养活力(2019年19期)2020-01-06社会参与美国社区学院治理及对中国应用型本科高校治理的启示职教论坛(2016年24期)2016-11-14关于治理潮州市区流动摊贩占道经营问题的思考考试周刊(2016年85期)2016-11-11浅析网络舆情治理经营者(2016年12期)2016-10-21数据+舆情:南方报业创新转型提高服务能力的探索中国记者(2016年6期)2016-08-26医改莫忘构建伦理新机制中国卫生(2014年6期)2014-11-10论《觉醒》中的伦理关系太原城市职业技术学院学报(2014年11期)2014-02-27从变译理论看翻译伦理太原城市职业技术学院学报(2014年9期)2014-02-27婚姻家庭法的伦理性及其立法延展中国现当代社会文化学术沙龙辑录(2013年0期)2013-10-24