La inteligencia artificial aplicada a la videovigilancia supone un avance tecnológico significativo, pero también plantea importantes retos desde la perspectiva de la protección de datos personales.

¿Qué implica usar IA en videovigilancia?

Automatización avanzada

Los sistemas de videovigilancia con IA pueden:

  • Identificar patrones de comportamiento.
  • Reconocer caras u objetos en tiempo real.
  • Activar alertas o bloqueos de forma automática.

Esto implica elaboración de perfiles y en muchos casos, decisiones automatizadas, reguladas por el artículo 22 del RGPD.

Captación intensiva de datos

Las cámaras con IA recopilan grandes volúmenes de datos, no solo imágenes sino también metadatos (hora, ubicación, frecuencia de paso, patrones de comportamiento).

Evaluación de riesgos y EIPD obligatoria

Este tratamiento entra dentro de los supuestos que obligan a una Evaluación de Impacto en Protección de Datos (EIPD) conforme al artículo 35 del RGPD y a las directrices de la AEPD.

¿Qué normativa se aplica?

Reglamento General de Protección de Datos (RGPD) UE 2016/679

Art. 5: Principios como minimización, limitación de finalidad y exactitud deben respetarse escrupulosamente.

Art. 22: Prohíbe las decisiones automatizadas que produzcan efectos jurídicos salvo excepciones con garantías reforzadas.

Ley Orgánica 3/2018 (LOPDGDD)

Art. 88: En casos laborales (como control de accesos), hay que compaginar videovigilancia con el derecho a la desconexión digital y otros derechos fundamentales.

Guía de Videovigilancia de la AEPD (febrero 2025)

Subraya que el uso de IA requiere medidas reforzadas de proporcionalidad, minimización y transparencia, además de una política interna clara y evaluaciones previas.

Riesgos principales de la IA en videovigilancia

Discriminación algorítmica: si los algoritmos se entrenan con datos sesgados, pueden generar resultados injustos o discriminatorios.

Invasión desproporcionada de la privacidad: especialmente si se utiliza reconocimiento facial en espacios públicos o de uso público.

Falta de transparencia: muchas veces las personas desconocen qué datos se recogen y para qué se usan.

¿Qué deben hacer las empresas para cumplir con la ley?

  • Evaluación de Impacto en Protección de Datos (EIPD): imprescindible si hay reconocimiento facial, análisis de comportamiento o decisiones automatizadas.
  • Privacy by Design and by Default: limitar la capacidad del sistema al mínimo necesario para cumplir su finalidad.
  • Designación de un Delegado de Protección de Datos (DPO): obligatorio si hay tratamiento sistemático a gran escala.
  • Justificación legal clara: normalmente basada en el interés legítimo, que debe documentarse y superar un test de proporcionalidad.

La inteligencia artificial aplicada a la videovigilancia ofrece enormes posibilidades, pero su uso debe estar estrictamente regulado y supervisado para proteger los derechos de las personas. La transparencia, la proporcionalidad y la legalidad deben estar siempre en el centro del diseño y uso de estos sistemas.

Quick LOPD | RGPD
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.