专家警告:不要与AI聊天机器人分享过多个人信息

更新时间:2025-04-11 01:54:27
源新闻来源:MSN
语言:英语,所在国:美国
分类:AI与医疗健康

尽管AI聊天机器人看起来像是可靠的智能助手,但专家警告用户不要与其分享过多个人信息,尤其是医疗信息。

克利夫兰诊所最近的一项调查数据显示,五分之一的美国人曾向AI寻求健康建议,而去年Tebra发布的调查统计发现,大约25%的美国人更倾向于使用聊天机器人而非进行治疗。

然而,专家们警告用户不要与AI聊天机器人过度分享信息,特别是在涉及医疗信息时。

据《今日美国》报道,人们应避免向AI透露医疗和健康数据,因为这些AI并不符合《健康保险可携带性和责任法案》(HIPAA)的规定。

由于像ChatGPT这样的聊天机器人不符合HIPAA规定,它们不应在临床环境中用于总结患者记录,也不应访问敏感数据。

也就是说,如果你只是想快速获得答案,请务必省略你的姓名或其他可能被利用的识别信息,《今日美国》报道说。

该媒体还警告称,明确内容和非法建议都是禁止的,上传他人信息也是不允许的。

“记住:你写给聊天机器人的任何内容都可能被用来对付你,”网络安全公司卡巴斯基的斯坦·卡明斯基此前在接受《太阳报》采访时说。

登录凭据、财务信息、安全问题的答案以及你的姓名、电话号码和地址也绝不应与AI聊天机器人共享。这些敏感数据可能会被恶意行为者利用。

“不要将密码、护照或银行卡号、地址、电话号码、姓名或其他属于你、你的公司或客户的个人数据泄露给AI聊天,”卡明斯基继续说道。“你可以在请求中用星号或‘已删除’来代替这些信息。”

关于公司的机密信息也是一个主要的隐私失误,“你可能会有强烈的诱惑去上传工作文档,以获取执行摘要,”卡明斯基说。“但是,随意上传多页文档可能会泄露机密数据、知识产权或商业秘密,例如新产品的发布日期或整个团队的薪资表。”


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。