发布时间:2020-08-13 09:15 作者:未知
腾佑AI人工智能持续为大家分享基于生物识别的人脸识别国际快讯:研究人员列举了禁止在学校进行面部扫描的5个理由
密歇根大学的一项研究明确地发现,应该禁止在教室中使用生物特征识别面部识别技术。该大学的福特公共政策学院进行的一项研究指出,教室里使用面部扫描可能会导致五个明显的负面结果。
研究表明,这样做有可能“种族化”种族主义,规范监视并侵蚀隐私,缩小“可接受学生”的定义,使数据商品化并使不准确性制度化。
报告指出:“由于(面部识别)是自动化的,它将比任何手动系统将这些效果扩展到更多的学生。”
该报告的作者写道,面部识别对边缘化个体的净效应可能与预测性警务计划的效应相同。
从表面上看,这两个概念似乎都是为了在没有人为偏见的情况下提供服务而设计的。现实情况是,人工智能系统(在哪里部署以及如何对其进行培训)“有助于在系统水平上重现偏差”。
该论文引用了其他人的研究,该研究表明,用于训练算法的数据集主要由肤色较浅的人控制,从而导致面部识别系统在遇到肤色较黑的人时始终出现较高的错误率。
NIST有一个开放式项目,该项目审查了开发人员提交的面部扫描算法,项目研究人员发现,其质量从准可笑的软件到具有“无法检测到的”偏见水平的软件不等。
福特学校的研究人员说,在教室里进行面部扫描也可以使监视正常化。根据CCTV使用的趋势,管理员将越来越熟悉该技术,可能会扩展部署和系统功能。同时,根据该论文,那些受到严格监视的人越来越感到无能为力。
它可以重新定义可接受的学生的模样。AI可能会标记超出规范的任何内容,包括衣服,肤色,装饰,残疾和性别不遵守规定的影响。历史证明,那些被标记为诸如此类的肤浅提示的人通常会对权威人物产生负面印象。
同时,收集到的有关学生的新数据将找到一个急切的市场。有先例。没有比从儿童和年轻人那里收集的数据更令人垂涎的数据了。
实际上,根据“学生隐私指南”的说法,从2013年到2019年,通过了不少于121项州级学生隐私法律。显然,学校方面侵犯隐私的行为引起了广泛关注。
父母有时与教育者结盟,数十年来一直在努力防止学生数据在商业交易中被出售或交易。在2010年代初,父母不得不努力推进对inBloom公司的分析公司由盖茨基金会资助,利用大数据的原则,以提高学校的表现。有关信息从未出售过的担忧,迫使布鲁姆在2014年关闭,信息将被出售。
根据圣地亚哥读者的报道,在另一起案件中,据称圣地亚哥地区的一个学区在2012年提出将学生信息出售给一家私人公司。新墨西哥州总检察长于二月份起诉谷歌,指控谷歌非法收集了包括学生的录音和搜索历史在内的数据。谷歌已要求联邦法官驳回此案。
最后一个潜在的罪过是系统误差的制度化。作者坚持认为,面部识别系统并不像账单那样准确,也没有偏见。但是所有利益相关者都倾向于接受市场营销。
纳税人可能会将这项技术视为平息税收增长的一种方式。父母,管理人员和警察可能会将其视为维持秩序和防止再次发生枪击案的一种方法,而不是解决根本原因。政治家可以告诉选民他们正在做一些事情来保护校园。
一般而言,美国公民发明了技术解决主义的概念。他们大多希望技术能够使生活更美好,更实惠,更安全。结合美国人的短期记忆,这意味着每天都会发明,部署和性能不佳的各种系统,而不会引起消费者的不满。
更多人脸识别国际快讯,腾佑AI人工智能持续分享中,若您有百度人脸识别相关的产品需求,可咨询在线客服获取更多详情!