与其他科技公司一样,微软在其人工智能产品开发过程中遭遇了多次挫折

该公司周二表示,微软将停止销售基于面部图像分析人的情绪状态的自动化技术,并限制其面部识别工具的使用。

多年来,许多活动家和学者一直担心,声称能够识别个人年龄、性别和情绪状态的面部分析软件可能存在偏见、侵入性或根本不可靠,因此不应允许出售。

微软承认了这个问题,并于周二表示,它计划从其人工智能服务中删除这些用于检测、分析和识别人脸的功能。微软将在本周停止向新用户销售该技术,并将在今年内逐步淘汰现有用户。

其中包括确保人工智能系统“为他们正在研究的问题提供有效的解决方案”和“为确定的人口群体提供类似的优质服务”。

显然,微软对情绪识别工具的关注度有所提高,该工具可以将个人的面部表情分为愤怒、蔑视、厌恶、恐惧、幸福、中立、悲伤或惊讶。“我们表达自己的方式存在巨大的文化、地理和个人差异,这引发了人们对人工智能识别工具可靠性的担忧,也引发了更大的问题,即面部表情是否是个人内心情绪状态的可靠指标,”克拉普顿说。

克拉普顿说,年龄和性别分析工具,以及其他检测面部特征如微笑的工具,可以帮助盲人或视力不佳的人解读视觉图像。但微软认为,将这些分析工具普遍提供给公众并不合适。Crampton强调,该系统所谓的性别分类是二元的,“这与我们的价值观不完全一致。”

微软还将对其人脸识别功能实施新的控制,该功能可用于验证身份或搜索特定人员。

[新闻问答]

例如,打车公司优步Uber在其应用程序中使用该软件来验证司机的脸是否与该司机账户上的ID匹配。想要使用微软面部识别工具的软件开发人员需要申请访问权限,并解释他们计划如何部署该工具。

由于该工具可能被滥用,例如生成一个人没有说过的单词,用户必须通过一系列步骤来验证他们使用的语音是否经过授权,以及录音是否包含Microsoft可以检测到的水印。“我们正在采取具体行动来实现我们的人工智能原则,但这将是一个漫长的旅程,”Crampton说。

与其他科技公司一样,微软在其人工智能产品开发过程中遭遇了多次挫折。2016年,微软在推特上发布了Tay,这是一个聊天机器人,旨在学习如何从与之互动的用户那里“理解对话”。然而,这个机器人很快就开始发布种族主义和攻击性的推文,微软最终不得不删除这些推文。

2020年,研究人员发现,由微软、苹果、谷歌、IBM和亚马逊开发的语音转文本工具在黑人用户中表现不佳。虽然微软的系统是最好的,但它在15%的时间里错误识别了白人,在27%的时间内错误识别了黑人。

虽然微软收集了各种各样的语音数据来训练其人工智能系统,但它从未完全理解语言的多样性。因此,该公司从华盛顿大学聘请了社会语言学专家来帮助解释它需要知道的语言变体。这种方法超越了人口统计和地区差异,涵盖了人们在正式和非正式场合的说话方式。

“认为种族是一个人说话方式的决定因素,这实际上是非常误导的,”克拉普顿说。正如我们从咨询专家那里了解到的,实际上有很多因素可以影响语言的多样性。解决语音和文本之间差距的过程对公司制定新标准的指导方针有着巨大的帮助。"

“这是制定人工智能规范的关键时刻,”Crampton补充道。她指的是欧洲提出的法规,这些法规将对人工智能的使用设定规则和限制。“我们希望能够利用我们的标准为科技公司通常应该遵守的标准的讨论和制定做出贡献,”Crampton说。

多年来,科技界一直在就人工智能的潜在危害展开激烈辩论。这一论点源于这样一个事实,即一些人工智能错误和失误,例如决定人们是否获得福利的算法,对人们的生活产生了真正的影响。荷兰税务局错误地剥夺了贫困家庭的儿童保育福利,因为一个有缺陷的算法将具有双重国籍的人排除在外。

与其他科技公司一样,微软在其人工智能产品开发过程中遭遇了多次挫折 热门话题


发表评论

Copyright 2002-2022 by 江苏奥图环保新材料有限公司(琼ICP备2022001899号-3).All Rights Reserved.