为什么用AI追踪你的手机习惯可能导致人们被给予他们不需要的精神疾病药物
来源:Daily Mail
语言:英语,所在国:英国
分类:科技 , 关键词:AI与医疗健康
2018年12月的一个晚上,我接到了一生中最糟糕的电话。那是我父亲打来的,告诉我我的妹妹Paige去世了。她在不到两周前刚刚度过了22岁生日,选择了结束自己的生命。
Paige短暂的一生中,一直在与童年时期因无情欺凌而造成的情感创伤作斗争。尽管接受了当时最好的精神科治疗,她始终未能找到解脱的方法。
在她去世后,我在整理她的遗物时发现了一张她临终前画的画。画中是一个简陋的人像,头上堆着摇摇欲坠的盒子,每个盒子上都写着Paige的医生认为导致她痛苦的原因:被抛弃、饮食失调、强迫症、社交焦虑、缺乏朋友、性问题和学习障碍。
这幅画是Paige试图向她的精神科医生解释自己感受的方式。在人像下方,她潦草地写下了一句话:“没有人知道这是什么。”
如今,我把妹妹的话视为对所有精神科医生的挑战,要求他们在诊断和治疗精神障碍方面做得更好。Paige知道她的医生们并不真正理解他们试图治疗的“疾病”。
数字表型通过收集心率、步态、滚动模式等数据来创建一个人的心理健康印象。
近年来,数字表型作为一种新的诊断精神疾病的方法正在兴起。它涉及从电子设备中收集数据,并使用AI监控和分析行为以寻找精神疾病的迹象。数字表型无需读取短信,而是利用现代智能手机上的传感器收集心率、步态、滚动模式、面部表情、语调、睡眠模式、体温和其他潜意识行为的数据,从而形成一个人的心理健康印象。
开发数字表型和其他精神AI(PAI)系统的人相信,这些工具将带来更准确的精神疾病诊断和更有效的治疗方法。他们还声称,PAI的持续监控可以通过及时干预减少自杀、药物过量和其他严重后果的发生,从而避免患者陷入危机。
PAI的潜力吸引了临床医生和研究人员的关注。投资者投入大量资金,将PAI从实验室带入现实世界。2021年,投资者仅在这些技术上就投入了超过40亿英镑。不仅初创公司在开发精神AI系统,像苹果、微软和Facebook这样的科技巨头也在过去几年中启动了相关项目。
问题是,这些技术只有在无处不在并且全天候监控我们的情况下才能发挥作用。这是唯一确保高危人群不会被忽视的方法。但这种逻辑也使我们走向一个未来,在那里我们都可能成为算法精神病院的病人。
这种新型精神病院的代表性例子之一是数字表型。它已经出现在我们的家中、办公室、学校、医院、监狱和兵营。只要有互联网连接,精神病院就在那里等待着我们。这里不需要窗户上的铁栅栏,因为没有逃脱的可能性。
一个令人担忧的例子是Facebook在2018年在美国进行的未经请求的PAI自杀预防监测试验。这导致警察对数千人的家中进行了不必要的“健康访问”。
欧洲联盟禁止了Facebook的自杀预防AI,理由是没有获得用户同意,并伴随重大隐私风险。
许多PAI监控声称的能力被认为是既定事实。然而,这些说法往往是错误的。例如,有人声称精神AI可以通过观察我们在智能手机和电脑屏幕上与之互动时的面部表情来读取我们的情绪。事实上,越来越多的研究表明,我们的面部动作与情感状态之间几乎没有关联。
2019年,由马萨诸塞州总医院和东北大学心理学教授丽莎·费尔德曼·巴雷特领导的研究小组对1000多篇关于面部表情与情绪关系的心理学论文进行了综述,结果并未发现任何科学证据支持这一技术的基本假设——即“一个人的情绪状态可以从其面部动作中轻易推断出来”。巴雷特教授说:“情感AI系统……并不能检测情感,是时候让情感AI的支持者和制造这些产品的企业停止炒作。”
因此,PAI注定会失败吗?不一定。如果临床医生、技术人员和政策制定者能够致力于开发透明、公平、负责、可解释、安全并保护隐私的精神病AI系统,这些系统可能会走上一条改善患者预后并维护我们权利的道路。
然而,要做到这一点,不仅需要更好的AI系统;还需要更好地理解我们在谈论精神障碍时到底在说什么。在我们真正了解我们要治疗的东西之前,我们必须非常谨慎地对待那些可能并不存在的有效医学实体的疾病。如果我们不真正理解我们在治疗什么,我们就有可能严重伤害我们想要帮助的人。
到目前为止,这个警告大多未被听取,因为临床医生、研究人员和企业家急于将精神病AI系统引入现实世界。我们面临的危险不仅是AI无法帮助患者,而且它可能会通过以前所未有的规模应用不良医学而使情况变得更糟。
如果不加以小心,精神病AI系统将加剧精神障碍的过度诊断,导致数百万人接受他们可能没有的精神障碍的药物或行为治疗——这些障碍甚至在科学医学术语中可能并不存在。
这种风险因精神病AI系统为了有效必须广泛应用于普通人群中而被放大,无论他们目前是否有精神科诊断。这将世界变成一个数字精神病院,我们的心理健康不断受到AI精神科医生的评估——这是一种以我们的心理健康名义存在的软极权主义。
这种对人权的威胁不仅仅是理论上的。2018年,Facebook在美国试用了未经请求的PAI自杀预防监测,导致警方对数千人的家中进行了不必要的“健康访问”。
欧盟则禁止了Facebook的自杀预防AI,理由是该系统未获得用户同意,并存在重大隐私风险。
许多PAI监控的所谓能力被认为已经是既定事实。但往往这些说法是危险的错误。例如,有人声称精神AI可以通过观察我们在智能手机和电脑屏幕上的面部表情来读取我们的情绪。实际上,越来越多的研究表明,我们的面部动作与情绪状态之间的联系微乎其微。
2019年,由马萨诸塞州总医院和东北大学心理学教授丽莎·费尔德曼·巴雷特领导的研究小组对1000多篇关于面部表情与情绪关系的心理学论文进行了综述,结果并未发现任何科学证据支持这一技术的基本假设——即“一个人的情绪状态可以从其面部动作中轻易推断出来”。巴雷特教授说:“情感AI系统……并不能检测情感,是时候让情感AI的支持者和制造这些产品的企业停止炒作。”
因此,PAI注定会失败吗?不一定。如果临床医生、技术人员和政策制定者能够致力于开发透明、公平、负责、可解释、安全并保护隐私的精神病AI系统,这些系统可能会走上一条改善患者预后并维护我们权利的道路。
然而,要做到这一点,不仅需要更好的AI系统;还需要更好地理解我们在谈论精神障碍时到底在说什么。在我们真正了解我们要治疗的东西之前,我们必须非常谨慎地对待那些可能并不存在的有效医学实体的疾病。如果我们不真正理解我们在治疗什么,我们就有可能严重伤害我们想要帮助的人。
如果我们做对了,PAI确实可能成为解决精神病学诸多问题的有力良药。但如果错了,我们可能会发现自己永远是数字精神病院的囚徒。
(全文结束)