人工智能的潜力与风险:确保技术惠及所有人
源新闻来源:Tech Xplore on MSN
语言:英语,所在国:英国
分类:AI与医疗健康
人工智能在从医疗保健到提升客户服务等多个领域改善人们生活的潜力是巨大的。然而,随着技术的发展,我们必须采取政策确保这些风险不会压倒并扼杀这些益处。
重要的是,我们必须警惕可能导致全球各地社区不平等和边缘化的算法偏见。
算法偏见是指基于机器学习或人工智能的系统由于提供的数据不完整、不平衡或不够代表性而产生有偏见的结果或决策。
我和剑桥大学以及华威商学院的同事们提出了一种新的思考这一问题的方式——我们称之为“关系风险视角”。这种方法不仅关注人工智能当前的应用,还关注其未来应用及其在不同地理区域的应用,避免我们所称的“人工智能的阴暗面”。目标是为每个人保障人工智能的好处,同时尽量减少伤害。
以工作场所为例,人工智能已经在很大程度上影响了工作,影响了常规任务和创造性任务,甚至影响了我们认为只有人类才能完成的活动,比如创作艺术或编写电影剧本。
随着企业越来越多地使用这项技术,甚至可能变得过度依赖它,我们有可能会削弱专业技能和批判性思维,使员工失去动力,并期望他们服从机器生成的决策。
这不仅会影响任务,还会影响工作场所的社会结构,通过影响工人之间的相互关系以及与组织的关系。如果人工智能用于招聘,数据集中的代表性不足可能会在做出招聘或晋升决策时强化不平等。
我们还探讨了这个数十亿美元的产业往往依赖于全球南方那些“隐形”的工人,他们在清理数据和优化算法方面为主要是全球北方的用户群体服务。这种“数据殖民主义”不仅反映了全球不平等,而且加剧了边缘化:使人工智能得以蓬勃发展的劳动者的正是那些主要被排除在该技术利益之外的人们。
特别需要注意的是,医疗保健数据尤其容易受到这种数据驱动的偏见的影响,因此我们需要确保大型语言模型分析的健康相关信息反映了一个多样化的人群。基于选定且可能更为特权社区的数据制定卫生政策会导致一种恶性循环,使差距更加根深蒂固。
我相信我们可以对抗这些威胁,但时间紧迫,因为人工智能正迅速融入社会。我们应该记住,生成式人工智能仍是一项新兴技术,其发展速度超过了伦理或监管环境所能跟上的步伐。
我们的关系风险视角并不将人工智能视为本质上好或坏。相反,人工智能被视为具有潜在的好处和危害,这取决于它在不同社会背景下的开发和体验。我们也认识到,这些风险并不是静态的,它们随着技术、用户和更广泛社会结构之间关系的变化而演变。
政策制定者和技术人员应该预见而不是对人工智能如何巩固或挑战现有不平等作出反应。他们还应该考虑到一些国家可能会比其他国家更快地发展人工智能成熟度。
最后,让我们在制定人工智能风险政策时广泛借鉴各方面的利益相关者。多学科的方法将有助于避免偏见,同时也有助于向公众展示人工智能政策确实反映了多样化的利益和社区。
由剑桥大学提供
原文最初发布于Tech Xplore。订阅我们的通讯,获取最新的科技新闻更新。
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,全文内容涉及AI跨语种自动翻译。如有侵权请联系我们删除。