家医健康
国内健康世界健康探索科学

欧盟发布关于禁止使用人工智能实践的指南

新闻时间:2025年02月06日17时48分 - 更新时间:2025-02-25 08:03:49
来源:MobiHealthNews
语言:英语,所在国:比利时
分类:科技 , 关键词:AI与医疗健康

欧盟发布了关于禁止使用人工智能实践的指南,旨在提供法律上的明确性,确保《欧盟人工智能法案》的有效、一致和统一应用,从而保护欧洲公民的权利和安全。该法案于2024年8月生效,涵盖了在欧盟内开发、市场投放、实施和使用人工智能的法规。

这些指南基于风险评估方法,分为四个风险类别:

  1. 不可接受的风险,包括对基本权利和人类价值观的威胁。
  1. 高风险,包括对健康、安全和基本权利的威胁。
  1. 透明度风险:AI系统的透明度有限。
  1. 最小或无风险。

委员会旨在澄清《欧盟人工智能法案》第5条,该条规定“禁止在市场上投放、投入使用或运行某些用于操纵、剥削、社会控制或监控实践的人工智能系统,这些系统因其固有性质而违反基本权利和联盟价值观”。

指南指出,推断情绪的人工智能系统通常在工作场所和教育机构中被禁止,除非用于医疗或安全目的,且这些系统必须获得CE认证才能符合《欧盟人工智能法案》的例外情况。

指南承认情感识别AI在医疗保健中的作用,例如检测抑郁症、帮助预防自杀和诊断自闭症。然而,用于监测工作场所员工压力水平的情感识别AI被禁止,不被视为医疗用途。

“另一个例子是用于评估个人是否有资格获得必要的公共援助福利和服务(如医疗服务和社会保障福利)的人工智能系统,这些系统被归类为高风险”,指南指出,这种用途的人工智能是禁止的。

此外,操纵或欺骗弱势患者(如残疾人、老年人或低收入群体)的人工智能也被禁止。同样,仅通过个人资料预测医疗状况而不依赖客观医疗数据的人工智能也是禁止的。

指南还强调,进行实时生物识别(如公共场所的实时面部识别)的人工智能系统被禁止,除非是为了寻找特定失踪人员、防止迫在眉睫的威胁(如恐怖袭击)或寻找严重犯罪的嫌疑人。

委员会澄清说,使用潜意识技术的人工智能系统并不总是有害的。例如,一个引导用户戒烟的治疗聊天机器人可以通过微妙的说服方式被允许,因为长期健康益处超过了暂时的不适。


(全文结束)