据报道Zoom表示将使用人工智能来评估用户的情绪或参与度

人工智能2022-05-25 10:49:49
最佳答案 越来越多地使用人工智能 (AI) 来监控人类情绪正在引起隐私问题。人权组织要求 Zoom 放慢将情绪分析人工智能引入其视频会议软件的计划。

越来越多地使用人工智能 (AI) 来监控人类情绪正在引起隐私问题。

人权组织要求 Zoom 放慢将情绪分析人工智能引入其视频会议软件的计划。据报道,该公司表示将使用人工智能来评估用户的情绪或参与度。

“专家承认情绪分析不起作用,”包括美国公民自由联盟在内的人权组织联盟在给 Zoom的一封信中写道。“面部表情通常与下面的情绪脱节,研究发现,有时甚至人类也无法准确地阅读或衡量他人的情绪。开发此工具增加了伪科学的可信度,并危及您的声誉。”

根据协议文章,名为 Q for Sales 的 Zoom 监控系统将检查用户的通话时间比率、响应时间延迟和频繁更换扬声器,以跟踪该人的参与度。Zoom 将使用这些数据在 0 到 100 之间分配分数,分数越高表示参与度或情绪越高。

人权组织声称,该软件可以假设每个人都使用相同的面部表情、语音模式和肢体语言进行交流,从而歧视残疾人或某些种族。这些组织还建议该软件可能存在数据安全风险。

信中说:“深入收集个人数据可能会使任何部署这项技术的实体成为窥探政府当局和恶意黑客的目标。”

纽约大学计算机科学与工程教授 Julia Stoyanovich在电子邮件采访中告诉 Lifewire,她对情绪检测背后的说法持怀疑态度。

“我看不出这种技术是如何发挥作用的——人们的情感表达非常个人化,非常依赖于文化,而且非常具体,”斯托亚诺维奇说。“但是,也许更重要的是,我不明白我们为什么要让这些工具发挥作用。换句话说,如果它们运作良好,我们会遇到更大的麻烦。但也许在考虑风险之前,我们应该问——这种技术的潜在好处是什么?”

Zoom 并不是唯一一家使用情绪检测软件的公司。隐私和安全咨询公司 Kuma LLC 的隐私高级主管Theo Wills通过电子邮件告诉 Lifewire,在采访中使用检测情绪的软件来评估用户是否在关注。它还在运输行业中进行试点,以监测司机是否出现昏昏欲睡,在视频平台上评估兴趣和定制建议,并在教育教程中确定特定的教学方法是否吸引人。

威尔斯认为,围绕情绪监控软件的争议更多是数据伦理问题,而不是隐私问题。她说这是关于系统根据预感做出现实世界的决策。

“有了这项技术,你现在可以假设我脸上有特定表情的原因,但由于社会或文化教养、家庭行为、过去经历或当下的紧张等因素,表情背后的动力差异很大,”威尔斯补充道。“基于假设的算法本质上是有缺陷的,并且可能具有歧视性。算法所基于的人群中没有代表许多人群,在使用之前需要优先考虑适当的表示。”

实际考虑

情绪跟踪软件提出的问题可能是实用的,也可能是理论上的。提供关系智能的 AI 驱动应用程序 Ferret.ai 的联合创始人Matt Heisie在一封电子邮件中告诉 Lifewire,用户需要询问面部分析在哪里进行以及存储了哪些数据。研究是在通话记录上进行的,在云端处理,还是在本地设备上进行?

此外,Heisie 问道,随着算法的学习,它收集了哪些关于人脸或动作的数据,这些数据可能会从算法中解脱出来并用于重新创建某人的生物特征?公司是否存储快照以验证或验证算法的学习,并且是否通知用户这些新的衍生数据或存储的图像可能从他们的调用中收集?

“这些都是许多公司已经解决的问题,但也有一些公司被丑闻所震撼,因为事实证明他们没有正确地做到这一点,”Heisie 说。“Facebook 是一家公司因担心用户隐私而放弃其面部识别平台的最重要案例。母公司 Meta 现在正在伊利诺伊州和德克萨斯州等一些司法管辖区从 Instagram 撤出 AR 功能,因为涉及生物识别数据的隐私法。”

免责声明:本文由用户上传,如有侵权请联系删除!