你能信任ChatGPT提供的医疗建议吗?专家对AI可靠性的评价
新闻时间:2025年2月24日10时52分 - 更新时间:2025-02-24 18:07:56
来源:Telegraph India
语言:英语,所在国:德国
分类:科技与健康 , 关键词:AI与医疗健康
来源:Telegraph India
语言:英语,所在国:德国
分类:科技与健康 , 关键词:AI与医疗健康
ChatGPT等大型语言模型(LLMs)在提供个性化健康建议方面越来越受欢迎。一项针对约2,000名澳大利亚人的调查显示,每十个人中就有一个使用该平台询问医疗问题。然而,尽管AI工具能快速回答任何问题,但它们也有可能给出错误的答案。研究人员发现,ChatGPT在处理150个医疗案例时,只有49%的时间能正确诊断和制定治疗计划,这使得它成为一个不可靠的工具。此外,ChatGPT有时会提供不适合的具体医疗建议,但可以为医疗问题提供背景信息。
问题在于,ChatGPT的医疗建议虽然不完全是错误的,但也不是完全精确的。AI模型的质量取决于其训练数据的质量,而具体模型的训练数据来源并不透明。LLMs像ChatGPT“几乎使用了数据爬虫收集的所有信息,包括来自卫生机构如NHS或WHO的科学和医学验证信息,但也可能包含来自Reddit帖子、研究不足的健康文章和维基百科文章的不可靠信息”。
由于AI无法像人类一样解决问题、进行演绎分析或做出权衡判断,它只能根据统计预测下一个最可能的词语。这意味着在线上的错误信息和正确信息一样频繁地被强化,但AI模型无法区分这些信息的质量。
尽管存在缺陷,LLMs仍然可以帮助人们更好地理解自己的健康状况。它们的优势在于简化健康信息和解释医学术语,随着时间的推移,对于一般健康问题的准确性有所提高。研究还发现,使用ChatGPT寻求医疗建议的人群中,许多人面临获取和理解健康信息的挑战,例如低健康素养的人士和来自多元文化背景的人士。然而,患者必须意识到,AI提供的信息质量可能存在缺陷。
最终,AI不能替代与医疗专业人员的对话。ChatGPT本身也承认:“虽然我可以提供有关医疗主题的一般信息并解释健康概念,但我不是专业医疗建议的替代品。”
(全文结束)