青少年希望健康AI工具不仅准确,还要保护隐私

更新时间:2025-04-23 07:56:32
源新闻来源:Devdiscourse
语言:英语,所在国:美国
分类:AI与医疗健康

一项新发表的研究揭示了青少年如何看待医疗保健领域的人工智能,提供了关于下一代如何应对AI驱动健康工具的承诺和陷阱的重要见解。该研究题为《通过设计虚构理解青少年对健康AI技术的益处和风险的看法》,发表在2025年CHI会议上。

加州大学欧文分校的研究人员使用设计虚构的方法调查了16名13至17岁的青少年在涉及AI驱动的健康技术的假设场景中的看法。这些虚构的情景涵盖了从记录医疗预约的环境记录员到模拟人类同情心的聊天机器人等各种临床和个人健康背景。通过这些互动访谈,研究揭示了由信任、隐私担忧、感知益处和青少年特定期望所塑造的复杂观点。

青少年在评估健康AI的临床和个人应用时表达了既兴奋又忧虑的态度。在涉及像“ScribeBot”这样的AI记录员的场景中,青少年欢迎AI通过自动转录咨询来简化医生与患者之间的沟通,从而使医生能够更专注于他们。同样,像“HealthRisk AI”这样的风险预测模型因其帮助青少年了解潜在的健康结果并采取预防措施而受到赞赏,尤其是在家庭健康史相关的情况下。

个人健康工具如“Wellbeing AI”,可以追踪健身情况并提供个性化健康建议,被视为有助于从小建立健康习惯。像“MedHealthGPT”这样的聊天机器人因帮助管理轻微症状并提供可访问的指导而受到称赞,特别是在青少年不愿意寻求人类支持的情况下。

然而,这些感知的好处被显著的担忧所掩盖。参与者担心AI会误解医疗对话,尤其是在处理敏感话题如心理健康或物质使用时。一些人担心自动转录工具可能会未经同意将私人细节传达给父母,引发了关于保密的问题。AI系统使用视频记录情绪或身体线索的想法加剧了不适感,青少年认为这是过度且侵入性的。

在涉及AI聊天机器人的场景中,对AI理解心理健康状况的情感细微差别的能力表示怀疑。青少年怀疑机器学习工具能否准确评估压力或诊断情感困扰,尽管认识到AI的便利性,但仍倾向于选择人类治疗师。之前与ChatGPT等AI平台的负面经历加剧了对机器生成健康建议的广泛不信任。

研究发现,青少年对健康AI的信任受多种因素影响,远不止系统的性能。虽然许多参与者愿意使用AI进行一般健康管理和轻微医疗问题,但在涉及复杂诊断或非常个人化的问题时,信任度显著下降。

青少年强调了在临床和个人AI系统中人类参与的重要性——不仅是监督,还有情感安慰。许多人将AI视为医生、患者和算法三者合作中的有用伙伴,但这种伙伴关系只有在保留人类判断和关系动态的情况下才被接受。

对数据隐私的担忧是高度情境化的。青少年区分了不同类型的数据,将营养和步数信息标记为“浅层”且不需要特别保护,而将心理健康披露和面部记录归类为高度敏感。他们的担忧不仅限于公共数据泄露,还包括内部风险,特别是AI系统是否会未经青少年同意就将信息分享给父母。这种对二次披露的焦虑在医疗咨询中形成了一个无形的诚实障碍。

有趣的是,尽管许多青少年承认这些风险,但他们愿意为了有意义的好处(如及时干预或更准确的健康建议)接受一定程度的数据暴露。这种功利主义方法表明,他们愿意根据感知的回报来协商隐私。然而,参与者通常缺乏对数据可能被滥用的清晰理解,这揭示了迫切需要提高青少年的AI和数据素养。

研究结果强调了未来健康AI必须以青少年为中心的设计。青少年不仅是被动用户,而是具有细致评估能力的知情利益相关者。他们希望技术具有教育性、参与性和适应他们的情感和发展需求。

研究人员倡导在健康AI系统中加入学习功能,以支持青少年的批判性思维和反思。这些工具不仅要提供输出,还应以适合年龄的语言解释它们,提供促进健康素养的上下文洞察。AI驱动的平台可以像教育聊天机器人一样支持学习,使青少年不仅知道该做什么,还知道为什么这样做。

强调“人在回路”模式,研究突出了在情感强烈或复杂情况下保持临床医生在场的重要性。青少年希望得到安慰,而AI被视为增强而非取代人类关系的工具。

隐私保护必须进化以反映青少年用户的独特需求。这包括对共享哪些数据、与谁共享以及在什么情况下共享的细粒度控制。设计保障必须确保青少年患者对其健康信息保持控制权,即使法定监护人仍扮演支持角色。


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。