如果您具备强大的知识和深厚的专业背景、丰富的履历,依然觉得学习是一种乐趣和上天的赏赐,欢迎加入会籍:阳思明语咨询CTBMI,临床试验ProcessMap导航。
没有听说谁靠着挖煤又快又上当上煤老板,也没听说谁SDV十几年做上外企PM的。如果整天SDV,遇到事情就推给“项目组”,事情很简单到过伦理、递合同、启动会、催入组、清数据,然后SDV,等着研究者整改,十几年这样混是当不上主流企业PM的。
CRA负责确保Site Performance和Compliance的,Performance是进度绩效、质量绩效、成本绩效的输出表现也就是有效合格病例的圆满实现,这个基础上要Compliance-遵循法律法规GCP和方案、DMP等要求,入组和数据清理也就成了工作的两个重要阶段:得要有受试者入组并保留在试验中、申办方最终期望的不是受试者入组而是清理后令人满意data完整规范真实的数据。
实现这些目标,CRA需要在现场监查、数据清理中耗费惊人的时间精力。许多CRA会很有体会,能够用快递解决问题就可以节省来回往返Site一上午的时间,而去现场监查就意味着无法同步处理更多的事情,这也是专业CTMS和CDMS软件对效率提升大有帮助的地方-尽管它非常昂贵。
每位CRA都在做Excution、Conduction的工作,有些公司PM还是如此,并没有做Opernation和Management这个职责。我们的Education区别于Trianning,通过IDP,让你对未来建立起长远的Vision,每年有Task list,有action plan,有interim review。
借助于我们的内容,本篇我们尝试让CRA学会建立管理思维:对自己的时间成本有个质量概念,重视投入、强调产出、有效率的基本概念。
汽车、零售和其他行业已经证明,在产品中建立质量比检查产品中的错误更有效且成本更低。我们Education出来的CRA日后是要做行业7747家申办方的Division老大的,他们必须开始在CRA阶段就琢磨一些问题:
如何确保资源得到最佳输出?
-(a) 向有能力的研究site付费以生成高质量数据,
(b) 付费给机构质控、外包QC、外包稽查、外包CRA以额外检查数据,
(c) 付费数据管理员以生成和处理数据query,或
(d) 付费是否更具成本效益,基于(a)、(b) 和 (c) 的组合?
如果你保持这种思维水平,工作起来就具备大局观。区别于零售客户关心他们购买的产品的质量-他们希望每个单元都完美无缺,而统计学家关心的不是个别数据,而是整个数据库的统计能力。如果大小与质量的权衡是正确的,则更大、质量更低的数据库与更小、质量更高的数据库一样有用。所以你就能理解,在我们的《DM》模块系列五十篇,我们讲述未来总监管理是基于信息IT整合来重塑临床开发部门架构,而不是打印纸质文件夹管理为核心。
因此我们提出了第二个问题:
使用 (a) 更小、质量更高的数据库,或
(b) 更大、质量更低的数据库获得统计能力是否更具成本效益?
将资源分配给最具成本效益的用途可以节省资金,这些资金可用于提高统计能力、加速受试者招募、加强受试者保护、开展培训计划和投资新技术。
这些问题,在你做CRA时,就应当积极思考,如此才能胜任PM和总监。纵览目前的所谓Biotech,企业主决定了他们在这些方面是极度缺失的。
时间进入2022年,欧美开始渲染去中心化随访DCT和中枢化监查,线上线下结合,并完成布局,国内目前一段时间内还是离不开去现场监查拜访的,面对面沟通增加人与人之间的沟通信任,而且隔着电话“指挥”人令研究者团队心生不悦,除非去多几次site和研究者团队已经非常熟悉建立起信任尊重关系后,否则一个电话指挥是行不通的。
On Site MV的一个重要原因是:通过一段时间的Monitoring,给出研究者“建议”,预计Site将执行纠正/预防措施,而CRA将跟进以确保Site采取的措施产生预期的结果,这个间隔一般控制在每月一次,过高会令人烦不胜烦而且准备时间会被压缩,过长导致一些问题随着时间推迟而扩大后果。
随着双方合作越来越默契、信任度越来越高、关系建立和维护起来以后,Site研究者团队掌握方案要素、DMP要求后就越来越熟悉 CAPA 流程,他们将能够在确定根本原因和制定自己的 CAPA 计划方面发挥更积极的作用。请务必注意,搞关系是很重要的,但搞关系不是吃吃喝喝-没有大腕儿会有功夫吃你的盒饭。
有个形象的比喻,CRA需要确认很多细节-并不是说SDV,这些细节可以说是一颗颗树。而Site整体的遵循性和绩效表现,就是一片片森林-汇集成study level的受试者保护和数据质量。
在审查研究文件时,监查需要注意细节——查看“很多树”。
偶尔,从Audit的森林层面来看,可以帮助CRA发现更普遍的问题(可查看【中心监查】系列八十二||带着Auditor眼睛去监查,效率和能力如虎添翼!)。
利用 CAPA 策略创建Site Status Report和MVR监查报告,提供可观的价值并增加申办方对Site的信心-这种信心的核心在于你的管理。
通过建设性地与Site合作,监查员可以加强Sponsor/Site的关系并提高Site的整体绩效输出表现。
在合理范围内,FDA 关注的不是数据本身的质量,而是数据质量对统计能力的影响,这也是实质性证据概念的由来。确保数据质量足够高的成本很高,但低质量的数据不仅可能无用,而且可能会反对研究药物的批准。因此,FDA管辖下的申办方可以生成最高质量的数据。
然而,关于研究数据库的一个确定事实是它会包含错误。这也是国内形而上学做的最过分的地方,不容许人的错误,总是在想办法去消灭这种错误,从某种形式上来说是实质性造假-日期倒签是最基本的操作,而且发生MPD不管采取了如何措施、不管责任在于谁,都要给一个狠狠的发现,这是最错的地方,导致国内应付检查从而造假成风-国内数据太干净了。
CFDI查同行机构的项目时、某些角色担任管理岗、调整岗位做QA时,一副恨不得把人查死的样子,但它自己做的如何、需要什么成本它自己又是非常清楚的。
实际上,没有人的过程是没有错误的。尽管申办方可以通过寻找有能力的研究site、进行彻底的site监查和执行严格的数据清理(发现可能的错误、生成数据查询和更正数据)来减少这些错误的影响。或者,他们可以在研究中添加新受试者以减少错误(错误入组、脱落、剔除等造成的病例损失)的影响。但归根结底,行业每个人都应当承认错误的发生是实实在在的,而不是去惩罚做事的人。
一 法律法规指南
想在临床试验行业扎根,对法律法规指南,尤其FDA法令以及所有Guidance必须熟读二十遍以上是最低要求。网红学渣渣会教你一年读四本英文原著,这根本就是笑话,谁都知道这样说话的人压根就不读书的。这样做的后果,只能让你头疼止步不前:如果真的学霸肯读如此复杂的知识和技能,就不需要导师带着了。一些好的教材写得趣味十足,令人流连忘返,才是经典魅力所在。
从法规,到行业,到人性,到认知与实践,信手拈来的舒适感,仅需一点点Cost就可以承担。
法规是否要求研究申办方以特定方式在研究Site、Site监查和数据管理之间分配资源?
答案是否定的——他们主要讨论目标,而不是用于实现这些目标的手段。
根据Guidance手册,研究申办方在如何分配资源以完成上市批准的监管要求方面具有很大的灵活性。多年来,标准实践已经发展,但不能假设 FDA 会在没有适当考虑的情况下拒绝创新。CTTI作为杜克大学和FDA联合发起的平台,为改善数据质量的同时降低负担提升效率做了大量工作。
美国联邦法规引导行业:
登录网站可见。
FDA在“Guideline for the Monitoring of Clinical Investigations”落实这些精神:
登录网站可见。
为有效利用国外数据,FDA发起ICH,并在E6R2中贯彻其Guidance思想:
登录网站可见。
FDA 的兴趣在于“足以评估药物效果的研究结果”,也就是实质性证据的定义。法规没有提及Site监查、数据管理、数据质量与数量,或统计分析计划。
指南/指引说,监查员应该足够频繁地访问Site现场,以确保保持准确、完整和最新的记录。
但是,如果不需要亲自访问来实现目标,则“足够频繁”一词包括“从不”。允许进行统计抽样(即小于 100%)。中央(即远程)监查被认为是一种可能性,目前随着技术进步已经逐步成为欧美的核心手段。
当然,现场监查、数据验证和交叉检查是可能的质量保证措施列表中的项目,其中还包括培训和指导手册,这些在我们的《中心管理手册》《监查工作指引》都有所介绍。
根据 FDA 的指导,申办者应在 NDA 临床研究报告中包括对数据、统计方法和质量措施的描述,但规则对这些要素的性质基本上没有提及。
在对规则进行激进的解释之前,申办者可能希望获得 FDA 对其现场监查、数据管理和统计分析计划的支持,但很明显,起草的法规和指南/指南具有很大的灵活性。
二 好数据和坏/糟糕的数据
好的数据符合“ALCOA”测试——它是可归因的、清晰的、同时的、原创的和准确的。
不良数据包括无法归因、难以辨认、事后记录、复制而无法追溯到原始来源、不正确或丢失的数据。
不正确的数据,往往源自于下述研究者团队的行为:
• 不理解问题或数据应该如何输入
• 错误输入数据(例如,转置数字)
• 出现转录错误
• 笔迹不好
省略529字
三 数据成本和质量模型
假设研究的电子表格模型可以帮助回答这些问题。
网站-Data_Cost.xls 中的“数据成本和质量”模型包括以下假设:
• 500 个受试者
• 100个中心,平均5 个Subject/site
• 每个受试者 200 个数据点
• 所有数据点都很重要
• 不良数据点对研究的统计效力产生 300% 的影响;换句话说,坏数据点比没有数据点更糟糕。在模型中,“净好数据点”考虑了坏数据点的影响。
• 每个受试者 4,000 美元的中心费用
• 在研究过程中,每个site的平均监查成本为 20,000 美元
为了衡量Site质量的影响,数据成本和质量模型包括标准、高和低能力site的子模型,假设如下表所示。
(仿抄袭,图片不完整)
四 注意事项Caveats
数据成本和质量模型中的假设是基于对行业专家的采访,而不是硬数据,这些数据是国外的,而且比较古老,至今(2022Jun20)已足足十六年之久,但读者最重要的是学习分析模型,学会科学评估一些现象、影响因素,并与其他假设一起使用。
该模型将所有成本视为变量。它忽略了监查监管文件、知情同意书和药物责任记录所花费的时间,尽管该时间与数据质量相关并且适用相同的原则。评估某项工作的性价比,就意味着你投资的时间精力、你准备购买什么软件技术、你努力学习什么技能,从而更快更好的完成工作。许多CRA思维水平还是受局限于家庭影响,多和银行传统豪门家庭的同学交往,就明白业绩是怎么来的。
该模型只考虑生成数据的成本;它不考虑:
• 受试者群体规模对其他研究成本(如研究药物和实验室测试)的影响。
• 能力较差的Site对受试者保留和遵循性的影响。
• 能力较差的Site对……略,会员登录网站可见。
• 对清理数据所需时间的……略,会员登录网站可见。
• 将比绝对必要的更多受试者暴露于与研究相关的风险的人力成本。当Site监查和数据管理没有尽可能多地消除错误时,会产生额外的人力成本,但当低能力site生成低质量数据时……略,会员登录网站可见。
以下结论基于假设研究,可能不适用于所有或任何现实世界的研究。
然而,这些结论无疑对许多常见的行业实践提出了质疑,我们总结国外十余年前对改进模型的结构和假设提出建议,并得出的一些结论,如下。
对于数据成本和质量模型中的假设研究,以下结论是明确的:
• 在包括Site监查和数据清理的过程中,高能力Site是最具成本效益的高质量数据来源。它们的成本不到来自低能力Site的高质量数据成本的一半。(总成本/净质量数据点:高能力(29.93 美元)、标准能力(44.40 美元)、低能力(65.59 美元))
• 无论Site的能力如何,Site 监查都不具有成本效益。(每个净良好数据点的Site成本与通过监查将不良数据点转换为净良好数据点的成本:高能力(14.89 美元对 333.33 美元) ,标准能力(……略,会员登录网站可见。
低能力(37.……略,会员登录网站可见。
• 当平均错误率从 6% 增加到约 19% 时,现场监查变得具有成本效益。相反,如果错误率降低到零,则使用CRA做中心现场监查发现错误的成本接近无穷大。
• 当标准能力Site的成本/受试者增加到……略,会员登录网站可见。
•Site越能胜任,Site监查的成本效益就越低,因为错误发生的……略,会员登录网站可见。
• 无论Site的能力如何,数据清理都不具有成本效益。
略,省略对CRA的建议,1198字。
请登录网站,查看:【中心监查】系列七十八||现场监查和数据清理这两个严重浪费时间的环节,CRA如何改善质量提升Site治理水平,进而具有Trial管理能力晋升PM?
请登录网站,查阅我们过千篇专业课程内容、数百个精选的表格工具、Trial Plan、Protocol Development工具、Trial ProcessMap。
例如,CRA系列展示举例: