腾佑旗下产品:
智能五合一建站 咨询热线:400-996-8756
绑定享折扣 注册百度云
百度人脸识别
人脸识别 文字识别 图像识别 语音识别
  • 最新资讯
  • 热门资讯
  • 最热资讯
人工智能http://ai.tuidc.com/templets/default/img/advertising_space_right_3.jpg

Idiap研究人员就生物识别公平性指标给出了建议

发布时间:2020-12-18 09:18 作者:腾佑科技-AI编辑

简述:腾佑AI人工智能持续为大家分享基于生物识别技术的人脸识别国际快讯:Idiap研究人员就生物识别公平性指标给出了建议

  腾佑AI人工智能持续为大家分享基于生物识别技术的人脸识别国际快讯:Idiap研究人员就生物识别公平性指标给出了建议
  来自Idiap研究所的一对研究人员已经开发出一种度量,可用于评估生物识别系统的公平性,或者缺乏根据性别和肤色匹配人的不同结果。
 
Idiap研究人员就生物识别公平性指标给出了建议
 
  由Idiap的Tiago de Freitas Pereira和SébastienMarcel撰写的“生物识别的公平性:评估生物识别验证系统的价值”的论文描述了参考数据库的使用,这些参考数据库旨在代表机器学习开发基准测试阶段的运行条件管道。
  但是,这些基准测试过程中显示的准确性在不同的人群之间经常有所不同,这引起了对公平性的关注。
  研究人员讨论了可以考虑将生物识别系统视为公平的因素,并提出使用公平差异率(FDR)来衡量准确性差异。长达11页的论文还包括使用面部识别的FDR案例研究。
  报告作者写道:“生物测定学界的大多数工作都是通过分别比较不同人口统计群体的DET曲线和/或ROC曲线来评估验证系统的公平性。”“这种类型的比较假设决策阈值是针对特定人群的,这在操作条件下是不可行的,并且不能替代统计分离。FDR通过在假设单一决策阈值的情况下评估人口差异来解决这一问题。”
  源代码,训练有素的模型和分数也可以公开获得,以使其他人可以重现作品。
  本文中的许多内容都详细介绍了确定FDR的公式,并得出了一个度量标准,他们说,“FDR下的区域”越接近1,就表示公平。在一个示例中,他们称0.999的发现“公平”,其中一个发现0.777“不公平”。
  毫不奇怪,在针对三个公共数据集的几个系统的测试中,发现了一些明显的不平衡。
  即使决策者试图解决该问题,整个行业仍在继续研究生物识别算法和数据集中的偏倚和公平相关问题。
  更多基于生物识别技术的人脸识别国际快讯,腾佑AI人工智能持续分享中,若您有百度人脸识别相关的产品需求,可咨询在线客服获取更多详情!
点击展开全文

腾佑AI(ai.tuidc.com) 成立于2007年,一直致力于发展互联网IDC数据中心业务、云计算业务、 CDN业务、互联网安全及企业客户技术解决方案等产品服务, 2018年成为百度云河南服务中心。主营服务器租用,服务器托管,虚拟主机, 域名注册,机柜租用,主机租用,主机托管,带宽租用,云主机,CDN加速 , WAF防火墙,网络安全,人脸识别,文字识别,图像识别,语音识别等业务;

售前咨询热线:400-996-8756

备案提交:0371-89913068

售后客服:0371-89913000

热门活动

腾佑智能建站
  • 热门资讯
  • 随便看看

联系方式

400-996-8756 点击这里给我发消息 AI@tuidc.com
腾佑AI人工智能

微信公众号

腾佑AI人工智能

手机站

COPYRIGHT 2007-2020 TUIDC ALL RIGHTS RESERVED 腾佑科技-百度AI人工智能_百度人脸识别_图像识别_语音识别提供商

地址:河南省郑州市姚砦路133号金成时代广场6号楼13层 备案号: 豫B2-20110005-1

声明:本站发布的内容版权归郑州腾佑科技有限公司所有,本站部分素材来源于网络及网友投稿,若无意中侵犯了您的版权,请致电在线客服我们将在核实后予以删除!