【小哈划重点:该报告检查了一对一的匹配(例如核实护照照片)和一对多的匹配(在人群中寻找罪犯),发现基于性别,年龄和种族背景的误报率明显上升。但这并不能代表系统性偏见。】
全球研究人员此前曾研究过面部识别算法中可能存在的偏见,近日美国政府亦发表相关研究结果。美国国家标准技术研究院(National Institute of Standards and Technology,NIST)发表的一项研究表明,其测试的大多数面部识别算法都存在「人口统计学差异」。
该报告检查了一对一的匹配(例如核实护照照片)和一对多的匹配(在人群中寻找罪犯),发现基于性别,年龄和种族背景的误报率明显上升。但这并不能代表系统性偏见。
在一对一的检验中,与白人-白人相比,非裔美国人,亚裔和美国原住民面孔的误报率急剧上升,错误的发生频率更是「十到一百倍」。
在一对多的比赛中,非裔美国女性更有可能成为误报的误伤;而作为一个整体,女性会遭遇这些纰漏误报的可能性要高出两到五倍。但是这些问题并没有蔓延。例如,亚洲人开发的算法在亚洲人和高加索人脸之间的结果中并未显示出很大的差异。
NIST建议,这可能是由于训练图像更加多样化所致。也就是说,这些缺陷可能源于算法本身而不是源数据。
(译文原标题:《美国联邦政府研究表明,人脸识别准确度因性别和种族而异》)
Engadget原文:
https://www.engadget.com/2019/12/20/nist-face-recognition-bias-study/