负责任创新框架下的人工智能伦理问题研究

作者:李娜;陈君 刊名:科技管理研究 上传者:胡志兵

【摘要】负责任创新(RRI)旨在科学和技术创新过程中社会行动者和创新者彼此负责;同时会考虑创新过程中的伦理问题及创新产品的可接受性、可持续性和社会需求;其内涵分为行政定义和学术定义;在预期、反思、协商、反应、可持续性、关怀这6种负责任创新框架的基础上引入无私利性;基于负责任创新这7种框架理念解析人工智能技术发展带来的安全、隐私、结果等三方面主要伦理问题;探讨嵌入RRI框架来解决人工智能(AI)在产生、应用和发展等过程中滋生的伦理问题的路径;使AI技术更好地造福人类社会;

全文阅读

1 研究背景负责任创新(responsible innovation),又称负责任的研究和创新(responsible research and innovation, RRI),是欧盟“地平线2020”科研规划的重要内容,主要强调科学与社会之间的合作以及加强公众对科学的信心,同时也是一种道德观念、价值取向和实践伦理经验,更是一种带有伦理意义的创新理念[1]。“负责任创新”一词首次出现在欧盟2002年的“第六框架计划”(The Sixth Framework)中,此后各种机构和活动之间的合作开始应用“科学和技术的负责任研究和应用”等相关词语(条),促进了全球背景下的对话和科学技术伦理研究。“负责任的研究和创新”一词于2013年首次应用于欧盟“第七框架计划”(法规,EU No.1291/2013),近年来在学术出版物和欧洲层面的项目中进行了讨论、研究和开发,逐步也在中国工程项目中得到应用。目前,负责任创新理念的实际应用已经得到了社会的认可。美国在2008年调整纳米技术科研基金的使用中就融入了负责任创新的欧文四维框架,由此美国学界将负责任创新称为人类共同追求的理想;荷兰在2008年鹿特丹港建设的马斯弗拉克特二期项目(MV2),从立项伊始就贯穿着负责任创新理念;英国在2010年提出的平流层粒子注入气候工程项目(SPICE项目),经协商和反思意识到此项目存在一定风险,故最终取消该项目。以上这些案例都为负责任创新的实际应用提供了重要启示和有益经验。人工智能(artificial intelligence,AI)自1956年在达特茅斯会议上提出至今,实现了前所未有的突破和发展。随着AI技术不断推陈出新以及快速更迭,无人驾驶技术、指纹识别、人脸识别、智能机器人、远程医疗等技术已逐步应用到现实生活之中,相关一系列技术伦理问题也随之突显,但因AI技术发展快速,传统的伦理规范道德制约和现有的法律法规已明显不足以应对当今复杂的社会发展局面,新兴科技的创新治理和发展规范成为当代世界各国面临的主要挑战和困境,也是国家创新与发展战略的重要组成部分。在中国,作为新兴科技代表的人工智能,面临着具有中国特色社会主义新时代特征的AI技术创新及伦理创新的重要挑战,由此AI伦理问题亟需得到解决。欧盟委员会强调RRI的6个关键点——公众参与、道德、科学教育、性别平等、开放获取和治理,同时负责任创新本身所坚持的科学、绿色、节能、环保等理念,正好符合中国新时代的发展理念和路线。基于负责任创新本身的理念和实践经验,本文旨在运用负责任创新理念及其框架解决AI技术的伦理问题,以从科技研发源头避免伦理问题的产生,并在科技创新实际应用中反思和及时改正出现的伦理问题,促使科学技术创新更好地造福全人类和全社会。2 RRI理念的背景及内涵“负责任创新”的概念首先在欧洲被提出,主要是基于预期治理(anticipatory governance)和美国的ELSI两种概念。预期治理主要指在一个受限制的研究领域,对情景进行预期的管理;美国的ELSI主要指新兴科学和技术的伦理、法律和社会方面。2.1 RRI理念的背景RRI的出现,根源于“预期治理”概念。预期治理的历史可以追溯到2002年,当时Guston等[2]学者使用了这一术语,但没有明确提及RRI。预期治理主要是指在一个受限制的研究领域,包括创建未来可能出现的不同方式的情景,对其进行预期的管理,这或许有助于对未来可能出现的威胁作出最小化的决策并提供可行的替代方案。RRI的出现,还值得一提的概念是从美国出现的ELSA概念,它代表着新兴科学和技术的伦理、法律和社会方

参考文献

引证文献

问答

我要提问