罗切斯特大学医学中心迅速开发AI工具
源新闻来源:Becker's Hospital Review
语言:英语,所在国:美国
分类:AI与医疗健康
罗切斯特大学医学中心(University of Rochester Medical Center, URMC)正通过人工智能实现巨大的增长。像许多医疗机构一样,URMC正在将AI整合到工作流程中以提高效率和改善结果,但他们的团队正在内部开发AI工具。
“我们是早期使用GPT-4安全私有实例的用户之一,”罗切斯特大学医学中心首席数字健康官Michael Hasselberg博士在“Becker's Healthcare Podcast”节目中表示,“我们还有其他公共基础模型的安全私有实例,并且我们有一台超级计算机,在上面运行着一个较小的开源模型。对于像我们这样的大学学术医疗系统来说,从未如此容易地快速开发自己的AI工具来解决我们自己的问题,通过对我们自己的数据进行提示工程或对这些基础模型进行微调。”
URMC将AI工作的重点放在低风险的手动行政任务上,使用生成式AI工具,目标是在具有高投资回报率的领域。他们还专注于能够积极影响临床医生和员工的工具。
“我们在几天到几周内就开发出工具,而通常我们的工程和数据科学团队需要六个月到一年的时间才能完成,”Hasselberg博士说,“这非常令人兴奋,也非常强大,因为我们能够通过访问这些大型基础模型来进行内部开发。”
尽管创新丰富,但也存在挑战。Hasselberg博士和他的团队密切关注着在医疗保健中使用生成式AI的监管环境。他专注于利用技术提供高质量的患者护理,并保持灵活性以应对任何政策变化。
“无论出台什么样的法规,或者可能没有出台什么法规,我们都必须确保这些技术在临床护理环境中是安全和可信赖的,”他说,“我们需要确保我们能够为使用这些工具的临床医生创造信任保障,确保他们可以信任AI的输出。我们正在努力掌握这一点,研究如何为这些生成式工具创建预开发验证机会,以及部署后的审核和监控系统,以观察这些工具的表现。”
大型基础模型带来了很多未知数,这也带来了巨大的增长机会。构建一个点解决方案或成功的小规模试点很容易,但在整个系统范围内以可信的方式推出全规模解决方案则要困难得多,因为缺乏监控和审计这些工具的机制。
例如,一个患者分流工具可能在试点和初步部署时表现良好,但随后基础模型更新后,消息开始被过滤器拦截,而之前并没有这种情况。
“我们必须去了解为什么消息会被过滤器拦截,并调整一些提示以确保它到达正确的位置,”Hasselberg博士说,“我们真的非常敏感于我们要解决的问题,如果模型或工具出现错误,即使是一个接近错误或实际错误,风险也必须很低。对于我们迄今为止开发的大多数工具,仍然绝对需要有人参与其中。”
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。