情感AI:它是什么,为什么有争议?
来源:Startups
语言:英语,所在国:英国
分类:科技 , 关键词:AI与医疗健康
情感AI可以帮助企业比以往任何时候都更好地理解人类情感,但随着这项技术的发展,也需要解决相关的伦理问题。
由Emily Clark撰写
发布于2025年2月13日
AI可能还没有达到自我意识(至少目前还没有),但它可以理解、识别并最终模仿人类情感。这被称为情感AI——一种能够识别、解释和回应情感的人工智能。它通过分析面部表情、语调、肢体语言和文本,来了解某人的情绪状态。虽然听起来有些令人不安,但实际上,这项技术在深入了解人类心理学方面具有巨大潜力。
例如,在医疗保健领域运营的AI初创公司可以利用这项技术,进一步洞察健康状况,改善患者参与度,并通过应用程序和其他数字平台有效分析个体的情绪,如抑郁或焦虑。
然而,关于数据隐私、偏见和不准确性的问题已经引发关注,这些可能会对个人造成严重伤害,同时也使企业面临严重的法律问题,如果操作不当的话。
在本文中,我们将深入探讨情感AI的核心技术、应用场景及公司应关注的伦理考虑。
情感AI的核心技术
情感AI主要有三种类型:文本情感、语音情感和视频情感。
对于文本情感,可以从书面消息中检测情绪,如在线评论、社交媒体帖子或表情符号。例如,奥克兰大学进行的一项研究使用情感AI来判断X(前身为Twitter)上的推文能否区分情绪。通过“转换迁移学习”模型,这种高度复杂的自然语言处理算法,研究揭示了从文本中检测情感和情绪的准确率为84%。
类似的方法也可以应用于语音分析,例如评估客户服务电话以确定对话中的语音模式和内容。据国际金融报报道,35%的组织正在使用语音处理AI。同时,预计到2029年,语音识别技术将达到500亿美元,而AI语音生成器预计将在2032年达到49亿美元。
最后,情感AI可以通过分析面部表情、语音模式和肢体语言,从视频中确定情绪。截至2023年,最先进的面部情感识别(FER)软件可以实现75-80%的准确率——这几乎与人类检测情绪的能力相当,后者约为90%。
情感AI的应用
截至2024年9月,大约有七分之一(15%)的英国企业采用了某种形式的AI技术。此外,英国有超过3,000家AI公司,创造了超过1000万英镑的收入,并雇用了超过6万名从事AI相关工作的人员。
英国政府也意识到了AI的潜力,今年早些时候推出了AI机遇行动计划。作为这一新提案的一部分,承诺包括投资新的超级计算机以支持AI研发,增加AI研究人才以应对数字技能短缺,并建立以AI为重点的“增长区”。
对于情感AI而言,不同的行业可以从其技术中受益,特别是在医疗保健、营销和客户服务领域。
医疗保健领域的情感AI
在医疗保健行业,情感AI有助于治疗心理健康。具体来说,情感AI可以通过分析语调、说话模式和面部识别来确定患者的心理状态。这样,心理医生和其他心理健康专业人士可以更全面地了解患者的心理健康,从而提供更准确的治疗和个性化护理。它还可以用于监控治疗过程,跟踪患者进展,识别潜在的情感困扰,并确保情绪数据被准确收集,以改进治疗效果。
案例研究:Cogs AI
Cogs AI是一款专为神经多样性人群设计的心理健康支持应用程序。由于被列为2025年创业100强指数之一,它利用情感AI分析文本和语音笔记,帮助用户理解自己的感受并阻止有害的想法。得益于其针对神经多样性人群的功能,使用该应用程序的患者报告称,在仅使用两周后,他们的心理健康状况提高了30%。
营销领域的情感AI
情感和故事讲述一直是有效营销的重要组成部分,但借助情感AI,企业可以更深入地挖掘消费者的潜意识行为。营销人员可以通过分析情感数据来个性化他们的信息传递。
例如,如果客户对特定系列的服装产品持续表现出积极情绪,企业可以根据其偏好推荐个性化的款式建议。这不仅增强了客户的情感连接,还让他们感到更加被理解和重视。
案例研究:麦当劳葡萄牙
情感AI还提供了实时洞察客户反应的机会,使品牌能够实时调整营销策略。
麦当劳葡萄牙通过其“Mood de Mac”活动利用了MorphCast面部情感AI,根据实时情感分析提供个性化内容和营销促销。
客户服务领域的情感AI
在与客户的互动中,个性化至关重要,而情感AI恰好满足了这一需求。通过分析语调、语言和上下文,企业可以使用情感AI提供更具同理心和相关性的响应,以解答客户的查询或投诉。
此外,类似于其在营销实践中的应用,公司可以根据情感数据实时响应客户反馈,从而实现即时问题解决。他们还可以利用情感数据预测客户行为、偏好和潜在问题,进而主动应对客户需求,提高满意度。
案例研究:PolyAI
聊天机器人功能对于回答常见问题和支持24/7非常有用。但问题是,它们通常缺乏“人性化”的互动,并且往往无法回答更复杂的问题。据统计,78%的英国客户仍然更喜欢与真人交谈,即使这意味着要等待更长时间。
PolyAI旨在通过其AI语音助手解决这个问题。这些助手全天候可用,并使用高级机器学习生成真实的对话反应。作为我们2025年创业100强指数的杰出条目,PolyAI的解决方案减少了50%的通话量,并实现了85%的客户满意度(CSAT)得分。
伦理考虑
尽管情感AI显然有助于更好地理解人类情感,但也引发了关于隐私、偏见和敏感情感数据使用的担忧。
员工监控
例如,电信公司BT去年试行了一款新的监控软件,该软件会持续拍摄员工办公桌上的情况,并实时追踪他们的情绪。当时,该公司声称这是为了加强网络安全措施,但这可能导致员工感到不自在,担心自己的情绪被错误识别。
此外,其他企业因使用监控软件追踪员工表现和办公室出勤率而受到批评。最引人注目的是,会计公司PwC在2024年9月宣布将开始追踪员工,以确保他们遵守每周至少三天在办公室工作的政策。巴克莱银行也因其监控员工生产力的行为受到批评,包括将厕所访问标记为“未记录活动”。
敏感数据处理
由于情感AI主要依赖于情感数据,因此不可避免地引发了隐私问题,尤其是在像英国和欧洲这样的严格监管区域(如《通用数据保护条例》)。因此,公司在收集和处理情感数据之前,必须获得个人的充分同意。
此外,情感数据存在被滥用或落入不法之徒手中的风险,可能导致歧视或不道德的目标定位。例如,如果一家企业使用情感AI进行招聘决策,表现出压力或焦虑的候选人可能会受到不公平对待。同样,广告商可能会利用情感洞察操纵消费者购买他们本来不会购买的商品。
偏见和道德使用
另一个重要的伦理问题是情感AI系统中的偏见风险。这些模型通常是在可能无法代表人类多样性的数据集上训练的,这可能导致不准确或歧视性的结果。
根据《卫报》报道的一项研究,情感AI在黑人面孔上不成比例地展示了负面情绪,如果用于招聘过程、医学诊断或绩效评估等领域,这可能导致歧视。
构建情感AI解决方案
情感AI为创造力和创新开辟了令人兴奋的新途径,因为它提供了理解并回应人类情感的新方法。然而,它也引发了一些重要的伦理问题,如果处理不当,可能会导致严重后果。
随着技术的不断发展,创始人和开发者必须承担责任,确保其解决方案得到合乎道德的使用——尊重隐私、减少偏见并优先考虑透明度。通过这样做,他们可以在最大限度地发挥情感AI优势的同时,最小化风险并保护个人权利。
(全文结束)