Siri会选择你的医疗专家吗?你愿意信任AI来选择你的医疗治疗吗?
来源:Mirage News
语言:英语,所在国:澳大利亚
分类:科技与健康 , 关键词:AI与医疗健康
从个性化的Netflix推荐到定制化的Facebook信息流,人工智能(AI)能够熟练地提供与我们的偏好和过去行为相匹配的内容。然而,虽然餐厅建议很方便,但如果AI算法负责选择你的医疗专家或新员工,你会感到舒适吗?
现在,南澳大学的一项新研究表明,大多数人更愿意在风险较低的情况下信任AI,例如音乐建议,但在高风险情况下,如医疗决策中,他们不太可能信任AI。然而,那些统计素养较差或对AI不太熟悉的人,对于琐碎的选择和关键决策同样可能信任算法。
通过对来自20个国家的近2000名参与者进行评估,研究人员发现统计素养对信任的影响不同。了解AI算法通过基于模式的预测工作(但也有风险和偏见)的人,在高风险情况下对AI更加怀疑,但在低风险情况下则不那么怀疑。
他们还发现,老年人和男性通常对算法更为谨慎,高度工业化国家(如日本、美国和英国)的人也是如此。
理解人们何时信任AI算法至关重要,尤其是在社会继续引入和采用机器学习技术的情况下。AI采用率已大幅增加,目前72%的组织正在其业务中使用AI。
首席作者兼人类与人工智能认知专家费尔南多·马莫莱霍-拉莫斯博士表示,智能技术用于外包决策的速度超过了我们成功将其融入社会的理解能力。
“算法在我们的生活中变得越来越有影响力,从关于音乐或食物的小选择,到关于财务、医疗甚至司法的重大决策。”马莫莱霍-拉莫斯博士说,“但使用算法帮助做决策意味着应该对其可靠性有信心。因此,了解影响人们对算法决策信任的因素非常重要。”
该研究发现,在低风险场景中,如餐厅推荐或音乐选择,统计素养较高的人更有可能信任算法。然而,当风险较高时,如健康或就业问题,情况恰恰相反;统计素养较好的人不太可能相信算法。
南澳大学的佛罗伦萨·加布里埃尔博士表示,应集中努力在普通人群中推广统计和AI素养,以便人们能够更好地判断何时信任算法决策。
“一个由AI生成的算法的质量仅取决于其基于的数据和编码。”加布里埃尔博士说,“我们只需看看最近DeepSeek的禁令就知道,算法可能会根据其构建的内容产生有偏见或有风险的数据。另一方面,当算法通过可信赖和透明的来源开发时,如为南澳学校定制的EdChat聊天机器人,它更容易被信任。”
“学习这些区别很重要。人们需要更多地了解算法的工作原理,我们需要找到清晰、简单的方法,以满足用户需求和关切的方式传递这些信息。人们关心算法做了什么以及它如何影响他们。我们需要提供清晰、无行话的解释,以与用户的关切和背景相符。这样,我们可以帮助人们负责任地参与AI。”
(全文结束)