检索增强生成(RAG)如何支持医疗保健AI计划
来源:HealthTech
语言:英语,所在国:美国
分类:科技 , 关键词:AI与医疗健康
检索增强生成(RAG)通过引入可信的领域特定信息源,将大型语言模型(LLM)的功能进一步扩展。这对于医疗保健行业尤为重要,因为获取技术和医学数据对于做出明智的决策至关重要。
Brian Eastwood是一位自由撰稿人,拥有超过15年的经验,涵盖医疗IT、医疗服务交付、企业IT、消费技术、IT领导力和高等教育等领域。
大型语言模型——生成式人工智能工具,用于处理和生成文本,在医疗保健领域正变得越来越受欢迎。由于LLM能够响应多样化的提示并处理复杂概念,它们在增强医学研究、患者教育和临床文档方面展现出巨大潜力。
然而,基于通用数据训练的模型在处理复杂的医疗问题时往往表现不佳。梅奥诊所2024年的一项研究发现,ChatGPT、Microsoft Bing Chat和Google Bard AI在肾脏护理相关问题上的准确率不到40%,远低于深入文献搜索的结果。“在医疗决策等关键领域,这种不准确性的影响显著增加,”该研究的作者写道,“这突显了对更可靠和精确模型的需求。”
这就是检索增强生成(RAG)发挥作用的地方。RAG利用额外的、更新的和领域特定的数据源。这使得LLM可以解析比最初训练时更多的数据,并以更高的准确性和更少的偏差回答问题——这对于确保生成式AI在医疗保健中的负责任使用至关重要。
SCAN Health Plan新兴技术负责人Corrine Stroum表示:“我们生活的世界有一套自己的权威文献,无论是医疗政策还是理赔处理手册或技术文献。”“RAG会从一个可信的信息来源中找到答案,并告诉你‘这是我找到的答案的地方’。”
亚马逊网络服务(AWS)健康AI总经理Tehsin Syed表示,借助RAG,LLM可以在生成响应之前更好地优化其输出。这对于用户提出具体或技术性问题时非常有价值。
“权威的外部知识库通常比模型的训练数据更为最新,这是其关键优势之一,”他说道。“对于医疗保健而言,这意味着LLM可以利用最新的医学研究、临床指南和患者数据,提供更准确和情境相关的响应。”
除了提高准确性外,RAG还可以帮助组织解决AI模型中存在的偏见问题,这些问题可能导致对少数群体的风险误判和护理需求低估。Syed解释说,RAG使组织能够“策划更多样化、更具代表性的知识库”,并且用户可以追溯响应的信息来源。
值得注意的是,RAG不仅仅是简单地微调现有的LLM。微调适应特定领域,需要通过输入额外的训练材料和生成新的问答对来进行广泛的反馈循环,这可能既耗时又昂贵。而RAG不会改变模型本身,而是通过在运行时检索和整合外部信息来增强其功能。Syed指出:“这种方法提供了更大的灵活性,使模型无需重新训练即可访问最新信息。”
通过引入最新信息,RAG旨在解决传统LLM无法获取最新医学研究的局限性。将Amazon Comprehend Medical自然语言处理服务集成到RAG工作流中的用例包括自动化医学编码、生成临床摘要、分析药物副作用和部署决策支持系统。
内部而言,RAG使得LLM可以从患者记录和其他未经过训练的一般目的LLM从未接触过的机密来源中提取信息。Syed指出,医疗系统可以使用RAG创建高度个性化的患者教育材料。
这凸显了RAG的一个关键优势,即其处理非结构化数据的能力。Stroum提到证据覆盖文件;一家在多个州运营的保险公司可能会有数百份这样的文件。借助RAG,可以提示模型查找特定计划下特定县的特定程序的共付额。
RAG也比传统的搜索功能有了显著进步,后者难以识别动词时态差异(如“ran”和“run”)不应影响搜索结果。
“今天的模型可以看到你在问什么,并且更加宽容,”Stroum表示。
因此,RAG对于不太熟悉技术的最终用户来说更加友好,否则他们可能会感到沮丧。它还允许更深入的查询。例如,人力资源团队可以在简历库中搜索具有至少三年当前程序术语编码经验的候选人。“RAG仍然使用语言模型的基本期望,但现在你可以调整对话的层次,”Stroum补充道。
对于医疗保健而言,这意味着LLM可以利用最新的医学研究、临床指南和患者数据,提供更准确和情境相关的响应。
构建和部署RAG管道时,最重要原则是“垃圾进,垃圾出”。
“最关键的事情不是AI,而是你连接的知识库,”Stroum说。创建RAG管道只需几次点击,但挑战在于审查该知识库;例如,处理同一文档的多个版本或过期文档(如到期合同)。“冗余、琐碎和过时的数据会破坏RAG。”
接下来,RAG过程由四个步骤组成,Syed说:
- 创建嵌入,即文本的数值表示,然后将其摄入向量数据库。此步骤需要大量的数据清理和格式化,但仅需执行一次。
- 提交自然语言查询。此步骤及后续两个步骤每次用户进行搜索时都会发生。
- 使用协调器在向量数据库中执行相似性搜索,检索相关数据并将该上下文添加到提示和查询中。
- 使用协调器将查询和上下文发送给LLM,后者生成响应。
从用户的角度来看,Syed表示,使用RAG就像与任何LLM互动一样。“然而,系统对相关内容了解更多,并提供针对组织知识库进行微调的答案。”
这可能会颠覆最终用户对传统软件的认知。典型应用程序会在用户重复提问时给出相同答案。相比之下,随着信息和上下文的变化,RAG可能会给出略有不同的答案。
因此,Stroum表示,使用RAG应该更像是应用程序和最终用户之间的开放式对话。“你可以给模型反馈。你可以更改提示。你可以问跟进问题,”她说。“你可以说是糖尿病,或不是糖尿病,这将有助于模型理解。”
(全文结束)