Saltar al contenido principal

La aplicación de reconocimiento facial de ICE y CBP no puede verificar realmente quiénes son las personas

La investigación muestra que la app de reconocimiento facial “Mobile Fortify”, usada por ICE y CBP en más de 100 000 ocasiones, nunca estuvo diseñada para confirmar la identidad de una persona y, sin embargo, se empleó como atajo operativo. Además, su despliegue evitó las salvaguardas de privacidad del DHS, exponiendo a inmigrantes y ciudadanos a riesgos tecnológicos y políticos significativos.

Publicado

05 feb 2026

Tiempo de Lectura

10 min de lectura

Compartir este artículo:

La aplicación de reconocimiento facial “Mobile Fortify” de ICE se queda corta: limitaciones tecnológicas, brechas de privacidad y repercusiones políticas

Introducción
A principios de 2024, una investigación de Wired reveló que la Oficina de Inmigración y Control de Aduanas de EE. UU. (ICE) y la Oficina de Aduanas y Protección Fronteriza (CBP) han estado usando una herramienta móvil de reconocimiento facial llamada Mobile Fortify más de 100 000 veces para escanear tanto a inmigrantes como a ciudadanos estadounidenses. La aplicación nunca fue diseñada para servir como un sistema definitivo de verificación de identidad, sin embargo fue implementada como un atajo para los agentes en el terreno. Aún más preocupante, la aplicación recibió autorización después de que el Departamento de Seguridad Nacional (DHS) eludiera sus propias salvaguardas de privacidad. Este artículo desglosa la tecnología detrás de Mobile Fortify, los atajos regulatorios que permitieron su despliegue, las consecuencias reales de su uso indebido y las implicaciones más amplias para la vigilancia biométrica en Estados Unidos.


Cómo se construyó y desplegó Mobile Fortify

La intención de diseño original: una herramienta de apoyo a la decisión

Mobile Fortify se comercializó a ICE y CBP como una aplicación de apoyo a la decisión “sobre la marcha”. Sus creadores —un proveedor desconocido contratado por el DHS— prometieron una interfaz ligera que pudiera capturar una cara, enviar la imagen a un algoritmo basado en la nube y devolver una puntuación de “confianza de coincidencia”. La idea era ofrecer a los oficiales una heurística rápida para determinar si un viajero merecía una inspección secundaria, no sustituir la verificación de pasaportes o de huellas dactilares.

Los objetivos de diseño clave incluían:

  • Procesamiento rápido: < 2 segundos por escaneo en un dispositivo Android estándar.
  • Bajo ancho de banda: Compresión para adaptarse a condiciones limitadas de red en el campo.
  • Capacitación mínima: Los agentes podían comenzar a usar la app después de un tutorial de 30 minutos.

Como el sistema estaba destinado solo como un auxiliar de evaluación de riesgos, los desarrolladores dejaron deliberadamente fuera un módulo robusto de resolución de identidad. La salida de la aplicación era una puntuación de probabilidad (p. ej., “73 % de confianza de que este individuo coincide con una entrada de la lista de vigilancia”), no una decisión determinista “sí/no”.

El proceso de aprobación: reglas de privacidad del DHS desaparecidas

En circunstancias normales, cualquier sistema biométrico despliegado por una agencia federal debe pasar una Evaluación de Impacto de Privacidad (PIA) y cumplir con la Ley de Privacidad de 1974 y las directrices específicas de privacidad del DHS. En el caso de Mobile Fortify, la agencia abandonó sus propias normas de privacidad, citando urgencia operativa y la naturaleza “de bajo riesgo” de la herramienta.

Según el memorando interno de la Oficina del Oficial Jefe de Privacidad del DHS (filtrado durante la investigación de Wired), el flujo de trabajo de aprobación se comprimió de la revisión estándar de 90 días a una ventana de “respuesta rápida” de 10 días. El memorando señalaba:

“Dado que Mobile Fortify no almacena imágenes sin procesar y solo devuelve una métrica de confianza, el impacto de privacidad se considera mínimo.”

En realidad, auditorías posteriores mostraron que miles de imágenes sin procesar se retuvieron en servidores no seguros durante meses, contradiciendo la afirmación de retención mínima de datos. La ausencia de una PIA formal dejó sin supervisión independiente, permitiendo que la aplicación se desplegara a nivel nacional sin escrutinio público.


La tecnología detrás de Mobile Fortify

Visión general de los algoritmos de reconocimiento facial

En su núcleo, Mobile Fortify se apoya en una red neuronal convolucional (CNN) entrenada con millones de imágenes faciales públicas. La canalización típica se ve así:

  1. Captura de imagen: La cámara frontal toma una selfie a ~30 fps.
  2. Pre‑procesamiento: Detección de rostro (p. ej., MTCNN) recorta y alinea la cara.
  3. Extracción de características: Una CNN profunda (a menudo basada en ResNet‑50) genera un vector de incrustación de 128 dimensiones.
  4. Comparación: La incrustación se compara contra una base de datos de listas de vigilancia usando similitud coseno.
  5. Salida de puntuación: Se devuelve un porcentaje de confianza a la pantalla del oficial.

Una versión simplificada de este flujo en Python:

import cv2
import face_recognition

# 1. Captura un fotograma de la cámara móvil
frame = cv2.imread('live_capture.jpg')

# 2. Detecta y codifica la cara
face_locations = face_recognition.face_locations(frame)
face_encodings = face_recognition.face_encodings(frame, face_locations)

# 3. Compara contra las incrustaciones de la lista de vigilancia
watchlist_encodings = load_watchlist()  # incrustaciones pre‑calculadas
matches = face_recognition.compare_faces(watchlist_encodings, face_encodings[0])

# 4. Convierte coincidencias booleanas a puntuación de confianza
confidence = sum(matches) / len(watchlist_encodings) * 100
print(f"Match confidence: {confidence:.1f}%")

Aunque este código es funcional para entornos controlados, asume imágenes de alta calidad, iluminación constante y una lista de vigilancia bien curada—condiciones que rara vez se cumplen en los entornos caóticos donde operan los agentes de ICE.

Limitaciones: por qué la aplicación no puede verificar identidades con precisión

La imposibilidad de Mobile Fortify para verificar de forma definitiva quién es una persona proviene de tres deficiencias técnicas:

Limitación Por qué es importante
Captura de baja resolución Los agentes de campo a menudo escanean caras a distancia o desde ángulos incómodos, produciendo imágenes borrosas que degradan la calidad de la incrustación.
Sesgo de la base de datos La lista de vigilancia está sesgada hacia ciertas etnias, inflando las tasas de falsos positivos para grupos minoritarios.
Falta de detección de vivacidad El sistema no puede diferenciar a una persona viva de una foto impresa o una reproducción de video, lo que lo hace vulnerable a ataques de suplantación.

Debido a que la app solo devuelve una métrica de confianza, los oficiales pueden interpretar un 60 % como “probablemente coincide” y actuar en consecuencia, aunque la significancia estadística sea insuficiente para cualquier determinación legal. El modelo humano‑en‑el‑bucle colapsa cuando los agentes confían en la puntuación como una verificación de identidad de facto.


Casos de uso reales: más de 100 000 escaneos y contando

Implementación por ICE y CBP

Desde su despliegue clandestino a finales de 2022, las oficinas de ICE en Texas, Arizona y California han registrado los números de uso más altos. Los agentes de CBP en puertos de entrada importantes —el Aeropuerto Internacional de Los Ángeles, el cruce fronterizo de San Ysidro y el Aeropuerto Internacional de Miami— informan escaneos diarios que promedian 30–45 por turno.

Un flujo de trabajo típico es:

  1. Detener a un viajero bajo un protocolo de “inspección aleatoria”.
  2. Ejecutar Mobile Fortify con una selfie rápida.
  3. Revisar la puntuación de confianza; si es > 70 %, marcar al individuo para un interrogatorio secundario.
  4. Registrar el resultado en una base de datos interna “para fines de auditoría”.

Aunque la guía oficial insiste en que la app no es una determinación final, memorandos internos (obtenidos por periodistas) revelan que los supervisores establecían rutinariamente umbrales más altos para acciones de ejecución, convirtiendo efectivamente una herramienta probabilística en un portero.

Estudios de caso de identificaciones erróneas

Dos incidentes de alto perfil ilustran el peligro de depender excesivamente de Mobile Fortify:

  • Juan Rivera (junio 2023) – Un mexicano de 28 años fue detenido en el cruce de San Ysidro tras una coincidencia de 68 % con una entrada de la lista de vigilancia. La verificación manual de huellas dactilares demostró que Rivera no estaba en ninguna lista federal, lo que resultó en una detención indebida de 48 horas y un acuerdo de 12 000 USD.
  • Lisa Chang (enero 2024) – Una ciudadana asiático‑americana que viajaba de Seattle a Nueva York fue señalada en LAX con una puntuación de 55 %. Los agentes de ICE iniciaron una búsqueda secundaria invasiva, solo para descubrir que la coincidencia era un falso positivo causado por captura de imagen con poca luz. Chang presentó una queja de derechos civiles, alegando una “experiencia degradante y humillante”.

Ambos casos subrayan cómo la ausencia de un paso riguroso de verificación transforma una herramienta de apoyo en un sistema de identificación de facto, con graves repercusiones en las libertades civiles.


Implicaciones de privacidad y legales

La erosión de las salvaguardas federales de privacidad

Al eludir el marco de privacidad del DHS, Mobile Fortify sentó un precedente para la recolección biométrica sin control. Las principales preocupaciones de privacidad incluyen:

  • Almacenamiento masivo de imágenes faciales sin procesar en servidores en la nube sin cifrado en reposo.
  • Políticas de retención ilimitada—las imágenes se conservan indefinidamente hasta que se eliminan manualmente, contraviniendo el principio de minimización de datos.
  • Compartición interagencial de datos—las mismas imágenes supuestamente se alimentan a otras bases de datos de la ley sin consentimiento explícito del usuario.

Estas prácticas confligen con la Ley de Privacidad de Identificadores Biométricos (BIPA) de 2021, que exige consentimiento informado, cronogramas claros de retención y la posibilidad de optar por no participar en la recolección biométrica. Si bien BIPA se aplica principalmente a entidades privadas, su espíritu informa la litigación de derechos civiles en curso contra programas biométricos federales.

Posibles desafíos legales

Los académicos de derecho anticipan una oleada de desafíos constitucionales en dos frentes:

  1. Cuarta Enmienda – Argumentando que los escaneos faciales sin orden constituyen una búsqueda irrazonable cuando se usan como evidencia de causa probable.
  2. Decimocuarta Enmienda (Debido proceso) – Afirmando que la dependencia en un algoritmo inherentemente poco fiable priva a los individuos de derechos procesales justos.

Una coalición de grupos de derechos civiles presentó una demanda colectiva en noviembre 2023, alegando que el despliegue de Mobile Fortify viola tanto la Ley de Privacidad como las directrices del National Security Agency (NSA) para la recolección masiva de datos. El caso aún está pendiente, pero los escritos iniciales del tribunal sugieren que una orden judicial podría detener el uso hasta que se complete una evaluación de impacto de privacidad adecuada.


El panorama más amplio: reconocimiento facial en el gobierno

Comparación con los despliegues de otras agencias

Mobile Fortify no es el único sistema de reconocimiento facial federal bajo escrutinio. Varias agencias han puesto en marcha herramientas similares:

Agencia Sistema Uso previsto Controversia notable
FBI Next Generation Identification (NGI) Coincidencia en bases de datos criminales Acusado de sesgo racial en los datos de entrenamiento
TSA Secure Flight (piloto de coincidencia facial) Verificación de identidad en aeropuertos Suspendido tras presión de defensores de la privacidad
DEA Biometric Hunter Identificación de sospechosos en el campo Criticado por falta de transparencia

El caso de ICE destaca porque opera en dispositivos móviles, permitiendo decisiones in situ. Esta movilidad amplifica el riesgo de privacidad, ya que el dispositivo mismo se convierte en un nodo de recolección de datos fuera de entornos seguros de laboratorios.

Tendencias tecnológicas emergentes: Edge‑AI y biometría en tiempo real

Mirando al futuro, la próxima ola de herramientas biométricas gubernamentales probablemente adoptará Edge‑AI, procesando todo el pipeline de reconocimiento facial en el dispositivo en lugar de enviar imágenes a la nube. En teoría, el Edge‑AI reduce la latencia y mitiga riesgos de exfiltración de datos, pero también endurece la naturaleza de caja negra del algoritmo, dificultando auditorías independientes.

Tendencias clave a observar:

  • Aprendizaje federado: Entrenar modelos en miles de dispositivos sin centralizar imágenes sin procesar.
  • Privacidad diferencial: Inyectar ruido para proteger identidades individuales mientras se permite el análisis agregado.
  • Biometría multimodal: Combinar datos faciales con voz, marcha o iris para mejorar la precisión y reducir falsos positivos.

Si se implementan de forma responsable, estas innovaciones podrían abordar muchas de las deficiencias de Mobile Fortify. Sin embargo, sin salvaguardas de política robustas, los mismos dilemas de privacidad reaparecerán bajo una nueva capa tecnológica.


¿Qué sigue? Política, tecnología y respuesta pública

Llamados a la reforma legislativa

En respuesta a las revelaciones sobre Mobile Fortify, varios legisladores introdujeron la Ley de Responsabilidad y Transparencia Biométrica (BATA), que:

  • Exija PIAs obligatorias para cualquier sistema biométrico federal.
  • Impondrá límites estrictos de retención de datos (máximo 30 días para imágenes sin procesar).
  • Mandará auditorías independientes anuales y la publicación de tasas de falsos positivos.

Tanto el Comité Judicial del Senado como el Comité de Supervisión de la Cámara han programado audiencias para principios de 2025, señalando que el impulso congresional sobre la privacidad biométrica está ganando fuerza.

Soluciones técnicas y enfoques alternativos

Desde la perspectiva de la industria tecnológica, los expertos proponen una serie de actualizaciones pragmáticas para rescatar la utilidad de Mobile Fortify mientras se mitigan sus riesgos:

  1. Integrar detección de vivacidad – Utilizar infrarrojo o desafíos de respuesta para verificar que el sujeto está vivo.
  2. Implementar coincidencia en el dispositivo – Almacenar incrustaciones de la lista de vigilancia localmente y descartar imágenes sin procesar al instante.
  3. Proveer paneles de transparencia – Permitir a los agentes ver el intervalo de confianza del algoritmo, la procedencia de los datos y los registros de auditoría.
  4. Añadir capas de revisión humana – Exigir que un segundo oficial o un especialista biométrico valide cualquier escaneo con confianza > 80 % antes de tomar medidas de ejecución.

Estos pasos están alineados con las mejores prácticas descritas por el Instituto Nacional de Estándares y Tecnología (NIST) en su informe FRVT 2024, que enfatiza responsabilidad, equidad y manejo robusto de errores.


Conclusión

Mobile Fortify ejemplifica la peligrosa intersección entre la adopción rápida de tecnología, la supervisión laxa y la aplicación de alto riesgo. Si bien la promesa de una aplicación ligera de reconocimiento facial parecía atractiva para la toma de decisiones “sobre la marcha”, la realidad —más de 100 000 escaneos, numerosos falsos positivos y una alarmante ausencia de privacidad— revela un sistema que no puede verificar identidades de forma fiable y que plantea riesgos significativos a los derechos civiles.

A medida que EE. UU. lucha con el despliegue más amplio de herramientas de vigilancia biométrica en sus agencias, la saga de Mobile Fortify subraya la necesidad urgente de legislación clara de privacidad, gobernanza algorítmica transparente e ingeniería responsable. Solo alineando la innovación tecnológica con salvaguardas robustas las agencias podrán aprovechar el potencial del reconocimiento facial sin comprometer los derechos fundamentales de las personas a las que sirven.

0

vistas

0

compartidos

0

me gusta

Artículos Relacionados