人工智能医疗器械中的伦理问题

作者:唐桥虹;王浩;任海萍; 刊名:中国药事 上传者:杨雨娟

【摘要】目的:梳理人工智能医疗器械的伦理现状与面临的问题,探讨医疗器械领域可遵循的人工智能伦理准则和发展原则。方法:查阅国内外已发布的人工智能伦理准则,国内外监管、医学伦理相关规范要求文件。结果与结论:人工智能医疗器械在发展与应用过程中仍面临着社会影响、个人数据保护、人工智能算法和医学伦理等问题。人工智能医疗器械在沿着推动医学人工智能伦理标准化、保持数据完整性方向发展的同时,还要保障数据隐私。

全文阅读

人工智能(Artificial Intelligence,缩写为AI)一词,在1956年的达特茅斯会议上被首次提出。人工智能作为新一轮产业变革的核心驱动力,已发展上升为国家战略,在自动驾驶、医疗、工业机器人以及教育、金融、互联网服务等领域得到越来越多的应用。在医疗领域的应用主要包括辅助诊断、辅助手术、临床辅助决策、患者信息管理等,对应的人工智能医疗器械产品主要包括独立的医疗软件、AI赋能医疗设备、医疗信息化系统(云医疗)几大类。随着以深度学习为代表的人工智能技术不断发展,我们在积极拥抱人工智能的同时,需要思考人工智能医疗器械在发展与使用过程中面临的伦理问题,充分认识人工智能医疗器械在数据获取、隐私保护等方面带来的影响。人工智能本身是技术而不是产品,医疗工作者使用的是被医疗人工智能赋能后的设备或者信息化系统,而不是使用人工智能技术本身。由人工智能发展所带来的伦理问题,在一定程度上可由设计开发者通过遵循一定的原则而规避,因此,在我国推动人工智能发展的关键时期,探讨人工智能发展应遵循的伦理准则,对人工智能的发展有着极为重要的意义。1人工智能伦理准则及现状1.1现阶段人工智能伦理共识随着人工智能伦理的发展,目前国内外主要达成了两个影响较为广泛的人工智能伦理共识,一个是“阿西洛马人工智能原则”(Asilomar AI Principles),一个是国际电气电子工程师学会(IEEE)组织倡议的人工智能设计的伦理准则[1]。“阿西洛马人工智能原则”于2017年1月初在美国加利福尼亚州阿西洛马举行的Beneficial AI会议上被提出,阿西洛马人工智能原则是著名的阿西莫夫机器人学三定律的扩展版本。阿西洛马人工智能原则目前共23项,分为三大类,分别为科研问题(Research Issues)、伦理和价值(Ethics and Values)、更长期的问题(Longer-term Issues)[2]。其中涉及伦理方面的共13项,主要为1)安全性;2)故障透明性;3)司法透明性;4)责任;5)价值归属;6)人类价值观;7)个人隐私;8)自由和隐私;9)分享利益;10)共同繁荣;11)人类控制;12)非颠覆;13)人工智能军备竞赛。“阿西洛马人工智能原则”可以理解为人工智能不能单纯地为了利益而创造,而应该为了在确保人类不被替代的情况下通过自动化实现人类繁荣。保持一个尊重隐私但开放、合作的人工智能研究文化也是一个优先考虑的问题,以确保研究人员和政策制定者在彼此交换信息的同时,不会用危害人类的手段与对手竞争。国际电气电子工程师学会(IEEE)最早于2016年提出了“关于自主/智能系统伦理的全球倡议”,并于2016年12月和2017年12月在全球范围内先后发布了第一版和第二版的“人工智能设计的伦理准则”白皮书("Ethically Aligned Design")。该白皮书来自于IEEE自主与智能系统伦理全球倡议项目,在当前版本的《人工智能设计的伦理准则》(第2版)中,白皮书提出了一些相关的议题和建议,希望能够促进符合这些原则的国家政策和全球政策的制定。该伦理准则提出了5个核心应遵循原则[3]:1)人权:确保它们不侵犯国际公认的人权;2)福祉:在它们的设计和使用中优先考虑人类福祉的指标;3)问责:确保它们的设计者和操作者负责任且可问责;4)透明:确保它们以透明的方式运行;5)慎用:将滥用的风险降到最低。该人工智能伦理准则的发布旨在为IEEE正在推动的11个与人工智能伦理相关的标准制定提供建议。上述两项接受较为广泛的伦理共识,由来自人工智能/机器人研究领域的专家学者以及专业

参考文献

引证文献

问答

我要提问