
这故事得从英国警方使用的那个“回溯式人脸识别系统”说起。这个系统很强大,能把一张可疑的“探测图像”,扔进庞大的“警察国家数据库”里,跟 超过1900万张 拘留照片进行比对,试图找到一个匹配。听起来很酷,对吧?技术进步嘛,能更快抓到罪犯,谁不欢迎? 可问题是,这套算法有“种族歧视”和“性别歧视”的DNA。 英国国家物理实验室(NPL)的权威审查结果非常刺眼:这个系统 误识别黑人、亚裔及女性的比例场外配资网站,远高于白人男性。 文件里,那个数字让人不寒而栗——在特定设置下,该系统对 黑人女性的误报率几乎是白人女性的100倍 。你没听错,是100倍。这意味着,一位黑人女性,仅仅因为站在镜头前,被算法错误地贴上“嫌疑人”标签的风险,是白人男性的N倍。
面对这个铁证,英国全国警察局长委员会(NPCC) 不是没有动过“良心” 。他们在2024年9月收到了这份报告,随即下令提高系统的“潜在匹配置信阈值”。这就像给系统加了个“安全闸”:你必须更确信才能报上来,这样就能 显著降低偏见带来的负面影响 。 好,这个“公平版本”试行了多久呢? 仅仅一个月! 一个月后,警方高层就顶不住了。为什么?因为“公平”是需要代价的。提高阈值后,系统能给出的“潜在匹配结果”的搜索比例,从 56%骤降至14% 。 各地警队纷纷抱怨:“线索大幅减少!”、“曾经行之有效的战术手段,现在只能产生极其有限的效益!”NPCC的文件里,那句“对行动效能至关重要”简直是赤裸裸的辩白。 所以,在警队效率指标的压力下,那个旨在保护少数族裔和女性的 “安全闸”被强行撤掉了 。系统被调回了老样子——一个“高效”但充满歧视性偏见的版本。
这就是我说的危险先例。 当局明明知道一个技术工具会导致对特定群体的系统性偏见和权利侵犯,但为了追求办案的“便利性”和“效率”,他们选择了默许这种偏见的存在。 便利不是豁免权,算法更不是万能钥匙 英国警务部长莎拉琼斯把这套技术誉为“自DNA比对技术问世以来的最大突破”。 这话听起来很鼓舞人心,但老马得泼点冷水。DNA是生物学的 铁律 ,它是一个客观的、几乎不会出错的身份标识。而算法,本质上是基于历史数据的 概率游戏 。 作者评 :这套系统训练所用的数据,正是过去被警方拘留的照片。如果历史数据显示黑人和亚裔群体在拘留照片中的比例过高,那么算法“学习”到的先验知识就是:深色皮肤的人更“像”嫌疑人。这不是技术的中立,这是权力结构通过技术介质的 共振 。
彼得福西教授,那位曾担任伦敦警察厅独立审查员的专家,一针见血地指出核心问题:“面部识别技术是否只有在用户默许种族和性别偏见存在的前提下,才具有实用价值?”他明确警告:“ 便利性不足以成为凌驾于基本权利之上的理由,此类主张很可能经不起法律的严格审查。 ” 警方的辩解听起来“无懈可击”:他们强调,每一次算法匹配都需由 训练有素的警员仔细核查 ,绝不会采取任何进一步行动。他们说这是在“公众安全与公民权利之间找到了正确平衡”。 但我们都清楚,在实际操作中,警察面对的是巨大的时间压力和破案指标。当系统在几毫秒内将成千上万个“潜在匹配”结果呈现在眼前时,人类的 “确认性偏误” (ConfirmationBias)就会被无限放大。警员会潜意识地倾向于相信系统给出的结果,将本应严肃的“核查”环节,变成了走形式的“勾选”。 更让人担忧的是,这个系统的核心参数——那个决定着公平与效率平衡的 “阈值”标准,至今仍未公开。 英国政府正在推动扩大人脸识别技术的应用,进行为期十周的公众咨询。
作者评 :你让公众对一个 看不见的闸门 给出意见?没有底层参数,谈何知情同意?这意味着,公众被要求在一个信息严重不对等的前提下场外配资网站,接受一个可能伤害自身权利的“黑箱”技术。 为什么整个欧洲都捏把汗? 现在,我们把目光从英国投向整个欧洲大陆。英国脱欧后,在数据和技术监管上,虽然已经和欧盟的《通用数据保护条例》(GDPR)存在差异,但作为西方老牌的民主国家,它在公共安全和技术应用上的每一个重大决策,都会被邻居们当作 风向标 。 欧洲大陆对人脸识别技术的使用,历来非常谨慎。 法国、荷兰 :更倾向于在严重暴力案件中,依赖指纹、DNA这类确凿的生物学证据。 德国 :要求任何回溯式搜索请求,必须事先得到 法官的批准 。他们将决定权牢牢地掌握在司法机构手中,而不是下放给执行效率至上的警队。
相比之下,英国的做法是 把决定权下放给了警队本身 ,让“行动效能”成为压倒性理由。 一旦英国大规模、常态化部署了这种 “宁愿牺牲少数群体权利也要提高效率” 的系统,并成功在法律上站稳脚跟,其他欧洲国家政府将会很快跟进。他们会引用英国的先例,在各自国内推行类似的政策,辩称这是“打击犯罪”和“保护公众”的必要之举。 想象一下:如果警察能够以“反恐”或“公共安全”为名,无限扩大他们的 “历史照片仓库回溯搜索” 权限,谁能保证自己不会因为一张十几年前的拘留照,或者仅仅因为与某个嫌疑人有相似的肤色或年龄,而被算法错误地锁定,承受无端的调查压力? 权利的侵蚀往往是从一次“紧急例外”开始的,接着就变成了日常的“默认设置”。
警惕数据滚雪球效应 最后,我们必须看一眼那些被算法误伤的人。 被错抓一次的代价很难量化。即便最终被无罪释放,你的 拘留照片 已经留在了那个 “警察国家数据库” 里。数据就像滚雪球一样,少数人的“误伤”会扩散成群体阴影,继续喂养下一代的算法,不断加深对特定群体的偏见。 监督机构主席阿比姆博拉约翰逊发出了最严厉的警告:“这些披露再次表明,警方通过种族行动计划作出的反种族主义承诺,并未真正转化为广泛的实践。”他建议:任何面部识别技术的应用都必须符合三重门槛—— 公开数据集组成、第三方偏差测试、案件闭环复盘。
但目前,英国政府的脚步似乎太快了。警方的优先级已经设定好了: 高效抓捕>算法公平 。 这步棋,英国走得太险。欧洲正在盯着,所有人都在看,这场“效率与权利”的拉锯战最终会以什么方式收场。一旦这个先例确立,技术在公共安全领域的角色,将不再是中立的工具,而会变成某种 加剧不公的隐性特权 。 老马希望,公众咨询能带来真正的制衡,让技术跑得慢一点,等一等那些被它遗忘和伤害的人。
启泰网提示:文章来自网络,不代表本站观点。