发布时间:2020-07-21 09:04 作者:未知
腾佑AI人工智能持续为大家分享基于生物识别技术的语音识别的国际资讯:手机游戏公司Artie发布语音技术的人口统计偏差检测
社交媒体手机游戏开发商Artie发布了Artie Bias Corpus(ABC),这是一种语音数据集,可以分析语音应用程序中的语音识别以检测人口统计偏差,Venturebeat写道。
该工具包结合了音频文件及其关联的成绩单,不仅可以检测语音转文本系统中的偏见,还可以根据年龄,性别和口音来检测其他系统中的偏见。
该公司写道:“我们将语音技术中的人口统计学偏差定义为人口统计学之间的性能差距。”“当存在偏见时,这意味着相对于偏爱人群而言,一个人口群体的人获得的体验较差。”
4月,算法正义联盟发布了“发声清除”,该项目研究了由苹果,亚马逊,谷歌,IBM和微软开发的语音识别算法中的种族差异。研究发现,与白人相比,非裔美国人语音的错误率明显更高。
该数据集具有2.4小时的英语口语能力,属于Mozilla的“通用语音”集合。它并不意味着用于培训,仅用于测试目的。它涵盖了三个性别类别,八个年龄范围和17个英语口音。
第一个实验是在先前受过偏向北美英语训练的Mozilla的DeepSpeech模型上进行的,而第二个实验分析了每天有数百万人使用的Google和Amazon美国英语模型中的性别偏见。第一次测试确认了美国和英国口音的偏向,但与性别无关。当在Google和亚马逊的美国英语模型中分析性别偏见时,Google的算法在女性声音方面表现较差。
Google发言人告诉VentureBeat:“公平是我们的核心AI原则之一,我们致力于在这一领域取得进步。”“多年来,我们一直致力于准确识别语音变化的挑战,并将继续如此。去年,我们开发了工具和数据集,以帮助识别和消除机器学习模型中的偏见,并且将它们作为开源软件提供给更大的社区。”
“随着语音技术变得越来越普遍,我们发现它有多脆弱……在某些情况下,人口统计学偏差会使某人因为其人口统计学而无法使用该技术,”Artie首席科学家兼Mozilla研究员Josh Meyer写道。在博客文章中。“即使对于资源丰富的语言(例如英语),最先进的语音识别器也无法可靠地理解所有本地口音,而且他们通常比男人更能理解男人……解决方案是面对问题,并努力寻求解决方案。”
开发人员可以使用Artie Bias语料库和Artie Bias工具包来减少语音技术中的人口统计偏差。
更多的语音识别相关国际资讯,腾佑AI人工智能持续分享中,若您有百度AI人工智能其他相关的产品需求,咨询在线客服即可获取更多详情和优惠!