当人工智能否决照顾你的护士时——《华尔街日报》
Lisa Bannon
肿瘤科护士梅丽莎·比布依靠观察力做出生死抉择。瞳孔放大昏昏欲睡的患者可能发生了出血性中风,口中有腐臭的老年患者可能存在肠梗阻。
因此当加州大学戴维斯医学中心肿瘤病房的系统警报显示她的患者出现败血症时,她确信这是个误判。“我护理癌症患者15年,一眼就能识别败血症症状,“她说,“这位患者明显没有感染。”
该警报系统将白细胞计数升高与败血症关联。但算法无法识别这位白血病患者的特殊情况——该疾病同样会导致类似的血象变化。这个基于人工智能的算法在检测到与既往败血症患者相似的数据模式时就会触发警报,且从不解释判断依据。
医院规定护士必须对败血症警报采取标准化处置。虽然比布在获得医生批准后可以推翻AI判断,但误判将面临纪律处分。最终她选择遵医嘱为患者抽血——尽管这既增加感染风险又加重经济负担。“当算法宣称’你的患者疑似败血症’时,我无从质疑,只能执行,“身为加州护士协会工会代表的比布说道。
结果正如她所料:算法出错了。“我不是在妖魔化技术,“她表示,“但当明知正确做法却无法实施时,这种道德困境令人窒息。”
尽管人工智能和其他高科技工具在大多数医院仍处于起步阶段,但它们正引发一个棘手的问题:危机时刻的决策权应归属于人类还是机器?
这些能够以超越人类的速度分析海量数据的技术,正在医学领域取得非凡进展——从改善心脏病诊断到预测蛋白质结构以加速药物研发。学者与技术专家表示,当AI辅助人类进行患者评估、诊断和治疗时,已展现出显著成效。
但经常使用这些工具的护士和医护人员指出,这些技术可能存在缺陷,有时在缺乏充分培训或灵活性的情况下实施,可能危及患者护理。部分临床医生表示,他们感受到医院管理层要求其遵从算法的压力。
“AI应作为临床决策的辅助工具,而非取代专家。”宾夕法尼亚大学护理学教授、费城儿童医院护理科学家肯德里克·卡托表示,“医院管理者需要明白,算法在临床环境中存在诸多无法识别的因素。”
根据美国护士联合会本月发布的1,042名注册护士调查,24%的受访者表示临床算法曾促使他们做出关于患者护理和人员配置等决策时,认为“基于其临床判断和实践范围,这些选择不符合患者最佳利益”。其中17%表示被允许推翻算法决策,31%不被允许,34%需要医生或主管批准。
加州大学戴维斯分校在一份书面声明中表示,其技术工具是进一步临床评估的起点,诸如在败血症警报后采血等操作流程属于建议项而非强制要求。
加州大学戴维斯医学中心表示技术仅是临床诊断的起点。图片来源:Andri Tambunan/华尔街日报该医疗中心称:“如果护士强烈认为某方案对患者不适用,应运用临床判断"并联系医生,“最终决策权始终掌握在人类医师和护士手中”。
声明指出,护士推翻算法建议不会面临纪律处分,“除非该行为明显违反护理标准”。
开发败血症预测模型的Epic Systems公司表示,每家医疗机构可自行设定警报触发参数并设计应对方案。
减轻负担
护士们亟需额外支持。疫情以来医院长期人手不足,医护人员普遍反映承受着高压与疲惫。美国护士协会研究部门2022年11月对12,500余名护士的调查显示,43%的护士存在职业倦怠。
许多应用程序旨在通过接管耗时且繁琐的任务(如患者病历记录、患者监护和药物核对)来减轻护士的负担。
杰夫·布雷斯林是密歇根州兰辛市斯帕罗医院的一名注册护士,自1995年以来一直在该一级创伤中心工作。他负责培训新护士和学生,教导他们如何通过观察体征快速评估和治疗危重或重伤患者。
“在这个职业中,你会达到一种境界:走进病房看一眼患者,就知道情况不妙,”他说。尽管患者的生命体征可能正常,“但我们需要考虑成千上万的细节,”他表示,“他是否表现出意识模糊、呼吸困难、濒死感,或某种不对劲的迹象?”
与大多数创伤中心一样,斯帕罗医院使用算法向护士预警患者病情变化。过去几年中,布雷斯林注意到,新一代数字原生代护士往往更信任算法而非自己的观察能力。
他表示,如果新护士过度依赖人工智能决策,“你将无法培养出通过观察患者就立即意识到‘必须马上采取行动’的评估能力。”
斯帕罗医院发言人表示:“任何机器或人工智能的应用都设计为诊疗提供辅助,而非充当决策者。”
护士们常用感性词汇描述他们感知患者病情恶化的能力。“护士称之为‘直觉’,”宾夕法尼亚大学教授卡托说,他同时是数据科学家和前护士,“这种直觉会促使他们加强对患者的观察。”
基于人工智能的Concern算法通过护理活动评估患者病情恶化风险图片来源:哥伦比亚大学医学中心哥伦比亚大学生物医学信息学与护理学副教授Cato和Sarah Rossetti带领团队开发了量化护士直觉的预测模型,将其作为早期预警系统提醒医护人员关注高危患者。
当前电子健康记录可追踪护士对患者进行监测的频率和类型。Cato表示,研究发现护士活动增加(如记录细微变化:“似乎异常"或"患者反应迟钝”)与患者病情恶化存在强关联性,这种关联性往往在生命体征显现异常前就已出现。该名为Concern"的预测算法根据护士活动模式将患者风险划分为红色(高风险)、黄色(有风险)或绿色(无风险)。
麻省总医院实验
包括波士顿布莱根妇女医院在内的麻省总医院布莱根医疗系统,过去几年持续测试Concern算法及可实时监测患者恶化的"智能病床”。
布莱根妇女医院患者安全研究与实践中心研究项目主任Patricia Dykes称,护士最初对AI持抵触态度:“他们质疑’这是否意味着管理层认为我们监护不足?‘‘他们想减少护士编制吗?’”
戴克斯表示,医院领导层向他们强调,这项技术旨在辅助而非取代护士的临床判断,并鼓励他们运用这些工具协助评估患者状况并向医生提出建议。她指出,当"关注"算法将患者标记为"黄色"预警时,应促使护士运用批判性思维分析病情。初步数据显示,该模型能比传统生命体征监测等方法提前5至26小时预警病情恶化。
戴克斯认为,作为预警系统提示护士潜在问题的AI工具,实际上能增强护士的自主决策权。
护士是否有足够信心坚持专业判断而推翻算法建议,往往取决于医院政策。护士们反映,若临床人员因决策失误受罚,可能会逐渐倾向于盲从计算机判断。
根据去年仲裁案件记录,注册护士辛西娅·吉尔茨曾在加州瓦列霍市凯撒医疗集团的呼叫中心担任"咨询护士”,与200多名同事共同值守。她的职责是接听会员病患来电,为其后续行动提供临床建议。
仲裁文件显示,凯撒的咨询护士采用算法对来电者病情分类,根据症状通过下拉菜单选择应答方案,这些应答将决定后续治疗步骤。
当来自马林县的退役职业网球运动员肯尼斯·弗拉赫来电主诉咳嗽、胸痛和发热时,吉尔茨选择了咳嗽/感冒及流感算法流程。仲裁裁决书指出,该流程未提供急诊或面诊选项,“除非患者咳出至少2茶匙肉眼可见鲜血”。由于弗拉赫未达此标准,护士遂按算法指引为其预约数小时后的电话诊疗。
弗拉赫后来被诊断出肺炎、急性呼吸衰竭和肾衰竭,并在几天后去世。此案仲裁员认定护士负有责任,认为她本应运用临床判断推翻算法建议。“受此政策压力影响,格茨护士将其视为指令,“仲裁员指出。该护士"尽管有凯撒医疗的政策,仍负有提供合理护理评估的职责。“作为护士的雇主,凯撒医疗被勒令向家属支付约300万美元赔偿。
凯撒医疗在书面声明中表示,算法建议是"分诊指南而非指令”,护士应根据患者个体需求灵活运用。基于临床判断,护士有权推翻既定规程。
梅丽莎·毕比在加州戴维斯市的家中图片来源:Andri Tambunan/华尔街日报今年早春在加州大学戴维斯分校,肿瘤科护士毕比正在治疗一名罹患骨髓性白血病骨癌的患者。这种病症使骨骼充满癌细胞,“它们几乎被癌症撑胀”,她说,这引发了剧烈疼痛。看到病人痛苦表情,毕比联系主治医生争取更强效、更长效的止痛药。医生同意并开具处方,但药物需五小时后才能使用。
为缓解过渡期痛苦,毕比想给患者服用羟考酮。“我告诉他们:‘任何时候感到疼痛都不要沉默。我需要知道。‘这会建立信任关系,“她说道。
当她刚开始从事肿瘤科工作时,护士可以根据患者症状在医生设定的参数范围内自主决定给病人使用止痛药。几年前医院改变政策,采用条形码扫描仪自动给药系统后,她们就失去了这一权限。
加州大学戴维斯分校在声明中表示,该药物管理系统作为二次核查机制存在,旨在防止人为失误。“任何认为自己没有为患者最大利益行事的护士…都有道德和专业义务立即上报这些担忧,“院方表示。
在发放羟考酮前,比比对条形码进行了扫描。系统根据医生早前"五小时后开始使用长效止痛药"的指令拒绝了给药。“电脑不知道病人正经历失控的疼痛,“她说。
但她最终没有采取行动。“我知道如果给药,从技术上讲就是无医嘱用药,可能会受到处分,“她说道。她手里攥着止痛药片,眼睁睁看着病人在痛苦中扭曲面容。
本文节选自2023年6月16日印刷版《护士与AI在患者护理上的冲突》。