AI是大型制药公司提高临床试验平等性的最新工具 - 彭博社
Nacha Cattan, Kanoko Matsuyama
插图:Ibrahim Rayintakath为彭博商业周刊绘制黑人患者患多发性骨髓瘤的可能性是他们白人同行的两倍,但他们参与该骨髓癌治疗临床试验的比例仅为4.8%。现在,药品巨头强生表示,通过使用一种非传统工具——人工智能,它成功地增加了这一比例。
算法帮助J&J确定了黑人患者可能寻求治疗的社区中心。该信息帮助公司将五项正在进行的研究中的黑人招募率提高到约10%,该公司表示。传统上进行试验的知名学术中心或诊所通常对少数族裔或低收入患者不易接近,因为距离或成本的原因。
J&J现在正在使用人工智能来增加50项试验中的多样性,并计划明年将该数字提高到100项,其制药部门首席数据科学官Najat Khan表示。她表示,一项皮肤病研究利用手机快照和电子同意书使患者能够远程参与试验,成功将有色人种的招募率提高到约50%。
新泽西州新不伦瑞克的强生总部。摄影师:Mark Kauzlarich/彭博“你有索赔数据,连接到电子健康记录数据,连接到实验室测试数据,所有这些都被去标识化和匿名化,” Khan说。“机器学习算法会为您计算并创建一个热图,显示出符合该试验资格的患者所在的位置。”
近几十年来,越来越多的证据表明药物对所有人的影响并不相同。新冠疫情突显了不同族裔在获得医疗保健方面存在深层次的差异。为此,监管机构和倡导团体一直在向全球的药企施压,要求在新的治疗试验中包括少数族裔群体,不仅是为了改善生物医学知识,也是为了在少数族裔群体中建立对医疗系统的信任。许多公司正在求助于人工智能。
这个行业确实需要一些帮助。《健康事务》杂志最近的一项分析发现,2020年批准的药物中少于20% 的药物有关于黑人患者的治疗效果或副作用的数据。根据国家科学院、工程院和医学院的一份2022年报告,试验中缺乏多样性在未来三十年将使美国损失“数十亿美元”,该报告指出了过早死亡和缺乏有效医疗干预等因素。报告还指出,不包容的试验阻碍了创新,因为招募率低而失败,破坏了信任,加剧了健康差距。
2020年获批新药临床试验中大约75%的参与者是白人,11%是西班牙裔,8%是黑人。但研究表明,人们对药物的反应可能会因其种族、族裔、年龄、性别和性别而有所不同。例如,研究人员自上世纪80年代以来就表示,白人患者对一种名为β受体阻滞剂的降压药和一类被广泛使用于心血管疾病的药物ACE抑制剂的反应往往比黑人患者更好。其他研究表明,接受名为PD-1和PD-L1的免疫检查点抑制剂治疗的亚洲癌症患者与非亚洲人相比,生存率显著提高。
监管机构越来越希望药企在审批新治疗方法时考虑到这种差异。2014年,欧洲药品管理局发布了指导方针,要求药企必须证明非代表性临床试验的合理性。澳大利亚的治疗品管理局的 2022年指南 表明药物研究人群应该代表广泛人口的构成。美国将很快 要求临床试验提交给食品药品监督管理局的多样性行动计划,这一规定已包含在2023年12月颁布的政府支出法案中。
临床试验很难进行,因为涉及协调多方:患者、医院和合同研究公司。因此,制药公司通常依赖于成熟的学术医疗中心,那里的人口可能没有那么多样化。但计算机算法可以帮助研究人员快速审查大量过去医学研究的数据,搜索来自世界各地的海量患者病历,并快速评估人群中疾病的分布。这些数据可以帮助药企找到更多样化的患者的新医生和诊所网络,这些患者更容易符合其临床试验的条件——有时比人类审查数据快数月,成本更低。
“他们[制药公司]必须要求医生在看到患者时考虑患者,然后考虑种族和种族——这只是使一个困难的任务变得更加困难,” Deep 6 AI 创始人 Wout Brusselaers说,Deep 6 AI 是一家销售基于人工智能的软件,用于匹配患者和临床试验的初创公司。
人工智能对制药商提出了新的挑战,因为这项技术存在着引入所谓的算法偏见可能使情况比现在更糟的风险。
例如,2019年,学者们表示他们在 Optum Inc. 销售的一款软件产品中发现了无意的种族偏见,Optum Inc. 是一家主要的健康服务公司,全国各地的医疗中心使用该软件来预测哪些患者需要高风险护理。该算法基于患者的医疗支出进行预测,而不是基于疾病的严重程度或需求。根据发表在《科学》杂志上的一项研究,在一家机构对该算法影响的研究中,只有18%的黑人患者最终得到了额外的帮助,而实际需要帮助的47%没有得到。该研究的作者表示,这种偏差是医疗中心和政府机构用来为全国2亿人提供服务的风险预测工具的典型特征,类似的偏见可能也存在于其他软件中。
Optum 是 UnitedHealth Group Inc. 的一个部门,该公司表示,基于规则的算法并没有种族偏见。“有关研究对一个临床分析工具中使用的成本预测算法进行了错误描述,这与该工具的任何推荐使用方式不一致,”该公司在回答问题时表示。
FDA正在考虑起草建议,针对提交AI应用进行药物开发的公司,以确保他们的模型不会无意中对未受服务的患者进行歧视。
“未来可能需要更多的监管明确性,特别是在我们看到新的AI技术出现时,”FDA政策分析副主任Tala Fakhouri说道。这样的监管明确性将“考虑到算法偏见。”
一些批评者指出了其他问题。约翰斯·霍普金斯大学肿瘤学教授Otis Brawley指出,远程进行试验或为参与者提供交通或停车券将比使用AI更多地吸引少数族裔参与试验。他说,美国的黑人人口在贫困方面存在不成比例的情况,照顾他们的医院通常没有额外的资源来进行临床试验等额外项目。
“AI可以做到这一点,但只要我被允许支付人们的停车费,只要我在资源丰富的地方这样做,我也可以做到,”曾在亚特兰大格雷迪纪念医院工作的Brawley说道,他表示在那里,他没有资源来进行临床试验。他说,即使在约翰斯·霍普金斯大学,由于停车费用的原因,他失去的少数族裔比白人更多。
沃尔格林联盟公司——在2022年开始运行药品制造商的临床试验——在鼓励研究中采取了不同的方法。它使用AI工具快速定位来自不同群体的符合条件的患者,但依靠遍布美国近9000家门店的当地药剂师来招募来自少数族裔群体的个人,药店的临床试验业务负责人Ramita Tandon说道。“我们有海报、传单,”上面有关于试验的信息,她说,或者简单地说,“药剂师在患者取药时与他们进行对话。”
纽约布鲁克林的一家Walgreens商店。摄影师:Stephanie Keith/Bloomberg坦顿表示,这种方法帮助提高了黑人患者参与一项心血管研究的比例达到了15%,这一数字超过了一般人口中黑人的比例。她说,新的FDA多样性要求引起了大型制药公司对Walgreens的临床试验业务产生了很大兴趣。
在其他地方,人工智能的应用远远超出了种族和民族的范畴。日本武田制药公司的研发负责人Andrew Plump表示,该公司利用人工智能帮助吸引和留住临床试验中的多样化人群。人工智能帮助公司个性化复杂的同意书给少数群体的患者,比如LGBTQ社区。他说,技术可以根据人们自我认同的性别和性取向调整措辞,从而在流程中建立更大的信任。
总部位于纽约的H1,利用生成式人工智能帮助匹配制药公司和试验地点,表示正在努力消除其收集数据中的偏见。例如,其关于种族和民族的数据可能来自信用卡和银行对账单,这意味着可能没有捕捉到经济状况较差的人群,H1首席执行官Ariel Katz表示。
“我们正在做大量工作,以确保我们的数据集全面,没有偏见,但在这方面还有更多工作要做,”他说。
J&J现在设立了一个人工智能伦理委员会,其中包括学术界的意见,该委员会正在监控试验以消除数据偏见,同时增加代表性,Khan说。“我们始终让人类参与,”她说。“我的团队可能有60%或70%的时间用于这个方面,而不是其他任何事情,即确保数据适合用途、合适和具有代表性,如果不是,就获取其他数据集使其更具代表性。”