跳转到主内容

ICE 和 CBP 的面部识别应用实际上无法验证人的身份

调查显示,ICE 和 CBP 使用的 Mobile Fortify 面部识别应用仅提供置信度分数,缺乏可靠的身份验证功能,且在缺乏正式隐私影响评估的情况下被快速批准上线。该系统通过压缩图像和简化算法在现场提供快速风险评估,却因原始图像长期未加密保存而暴露了严重的隐私和误用风险。

发布时间

05 2月 2026

阅读时间

10 分钟阅读

分享这篇文章:

ICE 的 “Mobile Fortify” 面部识别应用不足:技术限制、隐私缺口与政策后果

引言
2024 年初,Wired 的调查披露,美国移民和海关执法局(ICE)以及海关与边境保护局(CBP)使用一种名为 Mobile Fortify 的移动面部识别工具,对移民和美国公民进行了超过 100,000 次扫描。该应用从未被设计为决定性身份验证系统,却被作为现场特工的捷径推出。更令人担忧的是,该应用在美国国土安全部(DHS)规避自身隐私保护措施后才获得批准。本文将解析 Mobile Fortify 背后的技术、促成其部署的监管漏洞、误用的实际后果,以及对美国生物识别监控的更广泛影响。


Mobile Fortify 的构建与部署方式

最初的设计意图:决策支持工具

Mobile Fortify 被推销给 ICE 和 CBP,称其为 “随时随地” 的决策支持应用。其创建者——一家 DHS 合同的鲜为人知的供应商——承诺提供轻量界面,能够捕获面部图像、将图像发送至云端算法并返回 “匹配置信度” 分数。其目标是为官员提供 快速启发式,判断旅客是否需要二次检查,而非取代护照检查或指纹验证。

关键设计目标包括:

  • 快速处理: 在标准 Android 设备上每次扫描 < 2 秒。
  • 低带宽: 对图像进行压缩,以适应现场网络条件受限的环境。
  • 最小培训: 特工只需 30 分钟的教程即可上手使用。

由于系统仅作为 风险评估辅助,开发者有意省略了稳健的身份解析模块。应用的输出是 概率分数(例如 “73 % 的置信度表明此人匹配了监视名单条目”),而非决定性 “是/否” 判断。

批准流程:DHS 隐私规则的缺席

在常规情况下,任何联邦机构部署的生物识别系统都必须通过 隐私影响评估(PIA),并遵守 1974 年《隐私法案》 以及 DHS 特有的隐私指令。然而,在 Mobile Fortify 的案例中,机构 放弃了自身的隐私规则,以运营紧迫性和该工具的 “低风险” 性质为借口。

根据 DHS 首席隐私官办公室内部备忘录(在 Wired 调查期间泄露),批准工作流从标准的 90 天审查压缩至 “快速响应” 的 10 天窗口。备忘录中写道:

“鉴于 Mobile Fortify 不存储原始图像,仅返回置信度指标,隐私影响被视为最低。”

实际上,后续审计显示,数千张原始图像被长期保存在未加密的服务器上,持续数月,完全否定了 “最小数据保留” 的说法。缺乏正式的 PIA 导致没有独立监督,使得该应用在全国范围内无公众审查地上线。


Mobile Fortify 背后的技术

面部识别算法概览

Mobile Fortify 的核心是一套 卷积神经网络(CNN),使用数百万公开的人脸图像进行训练。典型的处理流程如下:

  1. 图像捕获: 前置摄像头以约 30 fps 拍摄自拍。
  2. 预处理: 人脸检测(如 MTCNN)对人脸进行裁剪和对齐。
  3. 特征提取: 深度 CNN(通常基于 ResNet‑50)生成 128 维嵌入向量。
  4. 比对: 使用余弦相似度将嵌入向量与监视名单数据库进行比较。
  5. 分数输出:​ 将置信度百分比返回给官员的屏幕。

下面是一段简化的 Python 示例代码(仅用于说明):

import cv2
import face_recognition

# 1. 从移动摄像头捕获帧
frame = cv2.imread('live_capture.jpg')

# 2. 检测并编码人脸
face_locations = face_recognition.face_locations(frame)
face_encodings = face_recognition.face_encodings(frame, face_locations)

# 3. 与监视名单嵌入向量比对
watchlist_encodings = load_watchlist()  # 预先计算好的嵌入向量
matches = face_recognition.compare_faces(watchlist_encodings, face_encodings[0])

# 4. 将布尔匹配结果转换为置信度分数
confidence = sum(matches) / len(watchlist_encodings) * 100
print(f"Match confidence: {confidence:.1f}%")

虽然该代码在 受控环境 下能够运行,但它假设图像质量高、光照一致且 监视名单质量优良——这些条件在 ICE 特工的混乱现场极少满足。

局限性:为何该应用无法准确验证身份

Mobile Fortify 无法 决定性验证 个人身份的根本原因在于以下三大技术缺陷:

局限性 重要性说明
低分辨率捕获 现场特工往往在远距离或角度不佳的情况下扫描人脸,导致图像模糊,嵌入向量质量下降。
数据库偏差 监视名单在种族分布上不均,导致对少数族裔的误报率偏高。
缺乏活体检测 系统无法区分真人与照片或视频回放,易受到欺骗攻击。

由于应用仅返回 置信度指标,特工可能把 60 % 的分数误解为 “很可能匹配”,并据此采取行动——但该统计意义远不足以作任何法律判断。人机协同 模式在特工把分数当作事实身份检查时便崩溃。


实际使用案例:超过 100,000 次扫描并仍在增长

ICE 与 CBP 的落地实施

自 2022 年底秘密推出以来,德克萨斯、亚利桑那和加利福尼亚的 ICE 现场办公室记录了最高使用量。CBP 在主要入境口岸——洛杉矶国际机场、圣伊西德罗边境口岸以及迈阿密国际机场——的特工每日报告平均 30–45 次 的扫描。

典型工作流程如下:

  1. 拦截 一名旅客,执行 “随机检查” 程序。
  2. 运行 Mobile Fortify,快速拍摄自拍。
  3. 查看 置信度分数;若 > 70 %,则将该人标记为二次询问对象。
  4. 在内部数据库 中记录结果以作 “审计”。

官方指南强调该应用 不是最终决定,但内部备忘录(记者获取)显示,监督人员常常 设定更高阈值 用于执法行动,实质上将这款概率工具变成了门禁拦截器。

误认案例研究

两起高调事件凸显了过度依赖 Mobile Fortify 的危害:

  • 胡安·里维拉(2023 年 6 月) – 一名 28 岁的墨西哥公民在圣伊西德罗口岸因 68 % 的匹配置信度被扣留。随后人工指纹核对证明里维拉并未列入任何联邦名单,导致 48 小时 错误拘留,并获得 12,000 美元 赔偿。
  • 李莎·张(2024 年 1 月) – 一名在西雅图飞往纽约的亚裔美国公民在 LAX 被 55 % 的置信度分数标记。ICE 特工随即执行侵入式二次搜查,事后发现匹配为 光线不足导致的误报。张女士提起民权投诉,称自己经历了 “屈辱且令人沮丧的体验”。

这些案例表明,缺乏严格验证步骤的决策支持工具会转化为事实身份识别系统,带来严重的民权后果。


隐私与法律层面

联邦隐私保障的侵蚀

通过规避 DHS 隐私框架,Mobile Fortify 为 未受监管的生物特征数据收集 树立了先例。主要隐私担忧包括:

  • 大规模存储原始面部图像 于未加密的云服务器。
  • 无限期保留——图像会一直保存,直至手动删除,违背数据最小化原则。
  • 跨机构数据共享——相同图像据称被喂入其他执法数据库,未取得明确用户同意。

这些做法与 2021 年《生物识别标识符隐私法案》(BIPA) 相冲突,该法案要求知情同意、明确的保留时间表以及用户撤回生物特征数据的权利。虽 BIPA 主要约束私营实体,但其精神已渗透至针对联邦生物特征项目的 民权诉讼

潜在法律挑战

学者预测将在以下两大方面出现 宪法诉讼

  1. 第四修正案——主张在无搜查令的情况下进行面部扫描构成不合理搜查,侵犯合理理由标准。
  2. 第十四修正案(正当程序)——声称依赖本质不可靠的算法剥夺了个人的公平程序权利。

2023 年 11 月,多个民权组织提起 集体诉讼,指称 Mobile Fortify 的部署违反《隐私法案》以及 国家安全局(NSA)的大规模数据收集指南。案件仍在审理中,但早期法院文件显示,禁令 可能迫使该应用暂停使用,直至完成正式的隐私影响评估。


更广阔的格局:政府中的面部识别

与其他机构部署的对比

Mobile Fortify 并非唯一受到审视的联邦面部识别系统。其他机构亦推出了类似工具:

机构 系统 预期用途 突出争议
FBI 下一代身份识别(NGI) 犯罪数据库匹配 被指在算法训练数据中存在种族偏见
TSA Secure Flight(面部匹配试点) 机场身份验证 因隐私倡导者的反对而被暂停
DEA Biometric Hunter 现场嫌疑人识别 因缺乏透明度受到批评

ICE 的 Mobile Fortify 之所以引人注目,是因为它 在移动设备上运行,允许现场即时决策。这种移动性放大了隐私风险,因为 设备本身成为数据收集节点,远离了安全实验室的受控环境。

新兴技术趋势:边缘 AI 与实时生物特征

展望未来,政府的下一代生物特征工具很可能采用 边缘 AI——在设备本地完成完整的面部识别流程,而非将图像上传至云端。理论上,边缘 AI 能降低延迟并降低数据外泄风险,但也会 加深算法的黑箱特性,使得独立审计更加困难。

值得关注的关键趋势:

  • 联邦学习(Federated Learning): 在数千台设备上训练模型而不集中原始图像。
  • 差分隐私(Differential Privacy): 注入噪声以保护个人身份,同时仍能进行聚合分析。
  • 多模态生物特征(Multi‑Modal Biometrics): 将面部、语音、步态或虹膜数据结合,以提升准确率并降低误报。

若以负责任的方式实施,这些创新有望解决 Mobile Fortify 的多数缺陷。然而,若缺乏 强有力的政策保障,相同的隐私难题仍会在新技术的光鲜外壳下重现。


未来展望:政策、技术与公众回应

立法改革呼声

针对 Mobile Fortify 的曝光,多位议员提出了 《生物特征问责与透明法案》(BATA)》,内容包括:

  • 对任何联邦生物特征系统 强制进行 PIA
  • 实施 严格的数据保留限制(原始图像最长保存 30 天)。
  • 要求 年度独立审计 并公开报告误报率。

参议院司法委员会和众议院监督委员会已安排在 2025 年初举行听证会,显示国会在生物特征隐私方面的动力正在增强。

技术修复与替代方案

从技术角度来看,专家提出一系列 务实的升级方案,以在保留 Mobile Fortify 实用性的同时降低风险:

  1. 集成活体检测——使用红外或挑战‑响应机制验证活体。
  2. 实现设备端匹配——本地存储监视名单嵌入向量,瞬时删除原始图像。
  3. 提供透明仪表盘——让特工查看算法的置信区间、数据来源及审计日志。
  4. 加入人工复核层级——对置信度 > 80 % 的扫描需第二名特工或生物特征专家确认后方可采取执法行动。

这些措施符合 美国国家标准与技术研究院(NIST)2024 年面部识别供应商测试(FRVT)报告 中提出的 问责、公平与稳健错误处理 的最佳实践。


结论

Mobile Fortify 典型地展示了 快速技术采纳、监管宽松与高风险执法三者交叉 的危险。虽然轻量化的面部识别应用在“现场决策”上颇具吸引力,但其 超过 100,000 次扫描、众多误报以及明显的隐私真空 证明其无法可靠验证身份,并对公民权利构成显著风险。

随着美国各部门加速部署生物特征监控工具,Mobile Fortify 事件提醒我们,明确的隐私立法、透明的算法治理以及负责任的工程实践 是不可或缺的。只有将技术创新与严格的保障措施相结合,才能在不牺牲基本权利的前提下,真正发挥面部识别的潜力。

0

浏览

0

分享

0

点赞

相关文章