En los últimos años, hemos asistido a un despliegue vertiginoso de sistemas de videovigilancia inteligente impulsados por inteligencia artificial (IA), especialmente mediante tecnología de reconocimiento facial. Cámaras que “piensan”, sistemas que reconocen rostros en tiempo real, predicen comportamientos o detectan emociones.

Lo que hasta hace poco parecía ciencia ficción es ya una realidad en centros comerciales, estadios, aeropuertos e incluso entornos escolares.

Sin embargo, este avance técnico plantea una pregunta crucial desde el prisma jurídico y ético:

¿Estamos ante un progreso legítimo en materia de seguridad o ante una forma sutil de vigilancia masiva incompatible con nuestros derechos fundamentales?

¿Qué es el reconocimiento facial?

El reconocimiento facial es una técnica biométrica que permite identificar o verificar la identidad de una persona a partir de la estructura y rasgos de su rostro. Es un tipo de tratamiento de datos personales altamente intrusivo, ya que no solo permite reconocer identidades, sino también realizar perfiles, predecir conductas o analizar expresiones.

Según el RGPD (Reglamento General de Protección de Datos), las imágenes faciales que permiten identificar a una persona constituyen datos personales y, en muchos casos, incluso datos biométricos, que son una categoría especial de datos protegidos por el artículo 9.

¿Qué cambia con la videovigilancia «inteligente»?

La incorporación de IA a los sistemas de videovigilancia permite:

  • Detección automatizada de personas y rostros.
  • Comparación de imágenes con bases de datos (listas de vigilancia).
  • Análisis de comportamiento (reconocer «actitudes sospechosas»).
  • Predicción de incidentes.

Esta evolución tecnológica puede multiplicar los riesgos:

  • Vigilancia permanente y no consentida.
  • Errores de identificación, especialmente en mujeres, menores y minorías étnicas.
  • Creación de perfiles automatizados, contrarios al artículo 22 RGPD si generan efectos jurídicos.
  • Posibilidad de uso con fines discriminatorios o represivos.

En Francia e Italia, se han prohibido recientemente ciertos sistemas de videovigilancia facial en escuelas y eventos deportivos.

En 2023, la AEPD archivó una investigación sobre cámaras con IA en espacios públicos al no haber base jurídica suficiente para el tratamiento.

El Comité Europeo de Protección de Datos ha pedido moratorias o prohibiciones del reconocimiento facial en espacios públicos de acceso general.

¿Cuándo puede ser legal el reconocimiento facial?

Según la AEPD y el RGPD, solo podría plantearse si se cumplen TODAS estas condiciones:

  • Base jurídica adecuada (no vale el interés legítimo del comercio, por ejemplo).
  • Finalidad clara y específica, como protección de infraestructuras críticas.
  • Evaluación de impacto previa (obligatoria).
  • Medidas técnicas robustas: cifrado, acceso restringido, no retención indefinida.
  • Información transparente al público.
  • Supervisión continua del uso y del proveedor tecnológico.

Conclusión: ¿avance o riesgo?

El uso de reconocimiento facial en videovigilancia es una frontera tecnológica, pero también ética y jurídica. No se trata de demonizar la innovación, sino de ponerle límites en defensa de los derechos fundamentales.
El rostro de una persona no puede convertirse en su pasaporte permanente para ser rastreada.

La seguridad no debe construirse a costa de la libertad.

La protección de datos debe ser parte central de cualquier despliegue tecnológico. No como un obstáculo, sino como una garantía de legitimidad, confianza y respeto a la dignidad humana.

Quick LOPD | RGPD
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.