蓝皮书系列|《中国数字医疗创新发展蓝皮书》3.2 科研伦理

文摘   2025-01-15 08:00   北京  


《中国数字医疗创新发展蓝皮书》是由远毅资本、中国医药教育协会数字医疗专委会(CDHC)、北京陈菊梅公益基金会共同组织编写,旨在深入研究中国数字医疗领域的创新发展现状,分析全球数字技术创新趋势对中国医疗体系的影响,并提出推动数字医疗科研创新和临床应用的指导意见和实践建议。本书凝聚了国内相关领域30余家专业机构近百位资深专家的心血与贡献。参编专家学者均来自国内知名的三甲医院、医学院校、科研院校和创新机构,学科专业覆盖临床医学、循证医学、人工智能、信息科学、医院管理、科研管理、临床研究、政策研究和产业转化等。

本书对数字医疗概念和特征、国家地方相关政策,以及医疗健康数据要素涉及内容进行了更新与解读,还涵盖了数字医疗产品的评价方法、科研伦理、疗效评价、卫生经济学与创新支付以及健康公平等关键议题。本书还特别关注了临床专科数字医疗创新,展示了数字医疗技术在肿瘤、老年、儿童、心血管、呼吸、神经、肝胆、眼科、口腔、皮肤、中医、过敏、精神心理和矫形与创伤外科等专科领域的创新研究与应用实践,探讨了生成式人工智能在数字医疗中的研究与应用。此外,还对数字医疗创新转化及产业投融资趋势进行了全面分析。

@编者导读
《中国数字医疗创新发展蓝皮书》第三章第二节,主题为科研伦理,本章节探讨数字医疗的科研伦理,涵盖国际监管现状、应用伦理挑战及应对策略,旨在确保技术发展的责任性和伦理性。

@编者介绍

陈亚红

北京大学第三医院呼吸与危重症医学科,主任医师、教授、博士生导师,博士后合作导师;北京大学第三医院呼吸与危重症医学科副主任,北京大学医学部慢性气道疾病中心副主任,科研伦理综合办公室主任;专业特长:呼吸系统常见病及疑难危重症疾病;研究方向:气道慢性炎症疾病;中国健康促进与教育协会数字健康分会主任委员;中华医学会呼吸病学分会肺功能学组副组长;中国康复医学会呼吸康复专业委员会常委;北京慢性病防治与健康教育研究会呼吸病学专业委员会主任委员;中国抗癌协会肿瘤呼吸病学专业委员会常委;中国医师协会呼吸病分会慢阻肺工作委员会委员;中国基层呼吸疾病防治联盟副主席;中华结核和呼吸杂志、中华健康管理学杂志等编委、中华医学杂志英文版通讯编委;承担多项国家级和省部级科研基金,获得北京市科技新星计划支持和教育部新世纪优秀人才支持计划;研究结果获得北京市科技进步三等奖和中华医学科技奖三等奖。

张钰
管理助理研究员,公共卫生专业,医学硕士,毕业于北京大学医学部。现就职于北京大学第三医院科研处、科研伦理综合办公室,北京大学第三医院医学科学研究伦理委员会秘书、北京大学第三医院人类遗传资源管理办公室成员。现任北京慢性病防治与健康教育研究会医学伦理分会青年委员。长期致力于医学科研伦理管理和医学科研伦理审查工作。发表中文核心期刊论文4篇,以并列第一作者发表SCI论文1篇,参与发表SCI论文1篇,参与北京市课题一项。

@章节内容简介
本章节聚焦于数字医疗领域的伦理问题,包括国内外的监管现状、应用中的伦理挑战,以及应对策略。讨论了数据隐私、算法偏见、责任认定等关键议题,并提出了制定伦理规范、完善审查机制等建议,以确保数字医疗技术的负责任发展。

3.2 科研伦理
3.2.1 国内外数字医疗伦理
近年来以人工智能医疗为主力军的数字医疗领域快速崛起,为传统医疗行业带来了革命性的变革,以人工智能医疗为例概述数字医疗在国内外的情况。

1.欧盟
欧盟对于人工智能的监管采用立法的形式,走在了对人工智能立法监管的国际前列。2023年6月,欧洲议会全体会议通过《人工智能法案》授权草案,成为世界第一份关于规范人工智能的统一立法,展现出欧盟为人工智能设定全球标准的意图。该法案的突出特点是将人工智能风险划分为不可接受风险、高风险、有限风险、极小风险或无风险四个等级,以确保人工智能系统的稳定和安全。

2.美国
美国对人工智能监管主要以审慎监管为主,监管力度相对宽松,重在激励与促进人工智能创新与发展。2017年1月在美国加利福尼亚州阿西洛马召开的“有益的人工智能”(Beneficial AI)会议上提出的“阿西洛马人工智能原则”,包括:安全性、故障透明、判决透明、职责、价值观一致、人类价值观、个人隐私、自由与隐私、共享利益、共享繁荣、人类控制、非颠覆、人工智能军备竞赛等。电气与电子工程师协会(Institute of Electrical and Electronics Engineers,IEEE)于2017年12月发布了第2版《以伦理为基准的设计:人工智能及自主系统以人类福祉为先的愿景》,并提出五个核心伦理原则:人权、福祉、问责、透明、慎用。2023年美国发布的第一版《人工智能风险管理框架》属自愿适用的指导性文件,为鼓励人工智能的创新与发展,美国政府更倾向于放松监管,提出对特定人工智能领域可以采取非监管措施。

3.英国
英国对于数据驱动的健康和护理技术采取了支持创新的态度,并确定了人工智能开发和使用需要遵守的五项伦理原则,形成了跨部门人工智能伦理初步框架。2021年1月,英国卫生和社会保健部发布了《数据驱动的健康和护理技术行为准则》,探讨了国家医疗服务系统和健康和护理系统中使用数据驱动技术出现的伦理挑战。2023年3月,英国发布《促进创新的人工智能监管方法》白皮书,提出人工智能在各部门的开发和使用中都应遵守的五项跨部门伦理原则,根据具体情况发布指南,形成跨部门人工智能伦理初步框架。

4.韩国
韩国先进科学技术研究院于2018年4月4日发布了《人工智能伦理规范》,其中一条原则是“人工智能应遵循显性和隐性人类意图”。然而,在执行前,人工智能应要求人们确认其隐性意图(如果涉及多人,且他们的意图不同,人工智能应该遵循优先级最高或关系最密切的人的意图)”,该条原则与平等地分享、访问、使用人工智能技术的要求相冲突,更加强化其权利地位关系。

3.2.2 数字医疗应用伦理挑战
随着数字医疗热度提升及越来越广泛的应用,在其相关领域中存在的问题也逐渐显现出来。尽管数字医疗在提高医疗效率、降低医疗成本以及改善患者体验等方面具有显著优势,但在实际应用中,也面临着诸如数据隐私安全、算法透明、结果可信及医学人文等方面的挑战。

1.数据隐私安全
2.算法与人群歧视问题
3.可信度与可解释性问题
4.失控风险
5.责任认定问题

3.2.3 数字医疗的伦理考量
《涉及人的生命科学和医学研究伦理审查办法》提出“涉及人的生命科学和医学研究应当尊重研究参与者,遵循有益、不伤害、公正的原则,保护隐私权及个人信息”的伦理原则。数字医疗基于其海量数据为基础、信息技术为支撑、学科交叉为核心、人机交互为媒介等特点,对于数字医疗产品及治疗方法等相关研究的伦理考量需将数字医疗的特点与伦理原则有机结合。

1.科学性
(1)研究背景和目的
(2)研究方法
(3)研究对象

2.合理的风险/受益
(1)直接风险
(2)间接风险
(3)风险防控与预期受益

3.知情同意
(1)知情同意模式
在医学研究领域,知情同意的模式可概括为具体知情同意(Specific Consent)、泛知情同意(Broad Consent)、动态知情同意(Dynamic informed consent)以及选择退出同意(Out-put)等模式。

(2)知情同意内容
《涉及人的生命科学和医学研究伦理审查办法》第三十六条明确提出知情同意书应当告知的12项内容,这12项内容是研究知情同意书普适性的告知要求,但就数字医疗领域而言,因其有别于传统医学研究而应额外注重其特殊性,以下是针对数字医疗领域,在知情同意书中应额外注重的几个方面:
数据隐私保护
研究技术风险
研究间接风险
研究结果反馈
退出研究机制

3.2.4 应对数字医疗伦理挑战的建议
数字医疗作为现代医疗领域的一种新兴技术,给我国医疗行业带来了前所未有的变革。与此同时,数字医疗在伦理、隐私、安全等方面也带来了一系列挑战。面对这些挑战,我国必须高度重视并尽快完善数字医疗的伦理审查机制,以确保这项技术在充分发挥其优势的同时,最大程度地保护患者的权益。

1.制定数字医疗伦理规范指南
2.完善数字医疗伦理审查机制
3.制定技术标准,促进数字医疗向善发展

(张钰 陈亚红编写)
Ref:中国数字医疗创新发展蓝皮书》


点分享

点点赞

点在看

Boom Health
数字技术,改善健康。Boom Health专注于洞察数字健康领域的新趋势和新机会,搭建数字健康行业沟通和共享的平台。
 最新文章