论人工智能的伦理风险表征

作者:李旭;苏东扬 刊名:长沙理工大学学报:社会科学版 上传者:唐晓玲

【摘要】目前;对人工智能的伦理风险的关注已经达到了一定高度;人工智能的伦理风险有着不同表征维度;主要包括人工智能技术的社会伦理风险、人工智能技术的人文伦理风险和人工智能技术的生态伦理风险;随着人工智能的发展;这些风险还会不断出现新的变化;甚至可能产生新的风险类型;人工智能的出现不可避免;我们要做的就是采取合理有效的方式尽量削弱其负面效应;为此;可以让机器与人类各司其职、互相促进;且围绕人工智能的制度建设;尊重规律;顺势而为;才能更好地保障整个社会秩序和自由的秩序长期总体稳定与健康发展;

全文阅读

目前,人工智能技术的伦理问题,在学界已经受到了极大的关注。华南理工大学闫坤如教授指出,在人工智能发挥越来越重要作用的同时,需要高度重视其引发的潜在道德风险。智能机器的道德主体地位问题、人工智能引发新的社会安全和公平正义问题及其他新的伦理问题都需要详细考察和谨慎决断[1]。当代人工智能技术的伦理风险的主要表征可分为人工智能技术的社会伦理风险、人工智能技术的人文伦理风险、人工智能技术的生态伦理风险。这些风险的产生会随着人工智能技术的不断创新而发生变化,人类社会也将会因为人工智能技术所隐含的潜在风险而进入到一个“智能风险时代”。一、人工智能技术的社会伦理风险随着人工智能技术的应用与扩散,其对人类社会产生的多方面负向效应正逐渐显现,主要包括:大规模失业导致人类决策的边缘化、人工智能武器的安全隐忧、关于人工智能技术的相关权利与责任困境以及因人工智能技术的贫富差异所造成的社会分层和固化问题等。第一,人工智能技术引发大规模失业,继而导致人类决策边缘化问题。以往机器被视为工具性或辅助性的生产工具,是为了提高或扩大人类物质生产力的“助力工具”。欧盟政治战略中心(EPSC)所发布的报告,指出人工智能技术(机器学习)对提高生产效率存有显著的助推作用。具体来说,预计到2030年,人工智能技术将为全球经济贡献12.8万亿欧元,这一经济贡献相当于推动现今全球总GDP增长14%,而预计到2035年,这一数值则可提高到40%。正因如此,全球各大企业目前正竞相收购以人工智能为重点的公司,据相关统计显示,自2012年以来,已有250多家AI公司被大企业所收购[2]。至今,人工智能领域已成为世界各国竞争的主战场之一。尽管如此,因人工智能技术的发展引发大规模失业,继而导致人类决策边缘化问题已经成为了全社会关注的焦点之一。2000年,高盛集团在纽约股票交易所的交易员有600人,十多年之后的今天,却只剩下了2人,其余的工作全部由人工智能包办。Kensho公司CEO丹尼尔·纳德勒(Daniel Nadler)坦言:“在十年至二十年之内,高盛还会对内大量裁员。”除了高盛,每家主要金融公司的交易大厅也将如此[3]。牛津大学诸多学者们一致认为,英国现存的工作种类,有三到四成将会在未来的十多年内完全被人工智能取代。进一步说,随着机器人的“智能化”水平的迅速提升,从负面角度来看,人类将在决策制定的过程中被边缘化,这种“边缘化”的缘起正是由于现代智能技术的不断创新与发展。在某一具体的策略制定过程中,由于智能机器具备强大的数据收集与分析的自主能力,它们所做出的结论往往是“科学的”与“正确的”。有大量的数据表明,人类通常带有偏见,而且敏感,所以,依赖于直觉和理性的人类甚至比依靠数据统计的智能机器更可怕,毕竟“机器从不会说谎”。第二,人工智能武器的潜在风险。早在上世纪末,最新人工智能技术被运用于某些军事领域,并形成了以智能机器人、无人舰、无人飞机为主的智能军用体系。在智能机器人领域,主要是以iRobot公司“费奇”机器人为代表,该智能机器人的作用主要为打扫战场、弹壳收集,除此之外,还有一部分智能机器人被用于生化武器和炸弹的检测。1999年,美国的第一代用于鱼雷搜索的无人潜艇正式投入使用。作为无人机的原始模型——Q-2训练靶机也只是为了训练相关飞行员而研发的。进入21世纪,随着深度学习技术的快速发展与应用,更是加快了智能军事武器的发展。美国作为引领现代军事技术发展的国家,所研发的一部分军用飞机系统已具备自动搜索与跟踪目标、自动辨别地形并选择最佳飞行路线等能力。例如,拥有几千万行代码被誉为“飞行计算机”的F-35

参考文献

引证文献

问答

我要提问