Biometría si, biometría no

biometría

Biometría de la huella dactilar

En la seguridad privada el derecho a la protección de datos ha jugado un papel fundamental en la regulación del sector con una suerte de hechos y situaciones funestas para la industria y, en ocasiones, para las Fuerzas y Cuerpos de Seguridad con regulaciones siempre interpretadas por la autoridad de control, la Agencia Española de Protección de Datos (AEPD), un órgano administrativo cuyas resoluciones, por no ser recurridas ante los órganos judiciales, han “sentado jurisprudencia” en muchas materias.

Recordemos que con la primera norma española de protección de datos (LO 5/1992) se generaron dudas sobre la viabilidad de ceder datos a las Fuerzas y Cuerpos de Seguridad desde ficheros de entidades privadas, a la vista de que el artículo que regulaba la cesión de datos no contemplaba las cesiones a las Fuerzas y Cuerpos de Seguridad y sí al Defensor del Pueblo, el Ministerio Fiscal, Jueces y Tribunales. Algo tan obvio tuvo que ser resuelto a través de un informe de la AEPD, quien además, tuvo que aclarar las condiciones para la cesión a la Policía Judicial por parte de las empresas de telecomunicaciones de los datos de sus abonados para las investigaciones de hechos presuntamente delictivos.

DERECHO FUNDAMENTAL A LA PROTECCIÓN DE DATOS

Tras varios cambios legislativos, la realidad en la que estamos hoy nos deja una única certeza: aprovechando el bien protegido, el derecho fundamental a la protección de datos, Europa ha convertido esta normativa en una completa “norma de competencia de los mercados digitales y del uso de los datos personales. Sí, las Autoridades de Control de protección de datos europeas, con una sola multa “efectiva y disuasoria” pueden eliminar del mercado a una empresa, a varias (como así ha ocurrido ya en varias ocasiones en el sector del marketing, información comercial o energía), o regular la comercialización y uso de un producto, como son los sistemas biométricos, que afecta a todo un sector como es el de la industria y servicios de seguridad privada.

Biometría de la huella dactilar

Así, en su informe 1999-0000 la AEPD entendió que el dato biométrico de la huella dactilar podía ser tratado sin consentimiento de las personas trabajadoras ante la necesidad de asegurar el debido cumplimiento de las obligaciones laborales. En el año 2007 el Tribunal Supremo declaró que al amparo de la LO 15/1999, era plenamente legítimo el uso de la tecnología biométrica para el cumplimiento del horario de trabajo al que vienen obligados los empleados públicos.

En 2011 la AEPD en la resolución 00617-2010 concluyó la legitimidad del sistema de control horario por huella, siempre y cuando se informase de ello a las personas trabajadoras no siendo preciso su consentimiento. En el 2015 la AEPD vio conforme con la LOPD un sistema de control biométrico para el acceso de los alumnos al comedor de su centro, manteniendo informados en tiempo real a los progenitores acerca del ingreso de los alumnos en el comedor.

Y ya, entrado en vigor el RGPD en su 10ª Sesión Anual Abierta el 4 de junio de 2018, la AEPD concluyó que en el ámbito laboral, el uso de las tecnologías biométricas podría considerarse una medida de control del empresario admitida por el artículo 20 del ET siempre que fuera proporcional.

FUENTE: CUADERNOS DE SEGURIDAD

Ley de Inteligencia Artificial de la Unión Europea (IA de la EU)

IA

Tecnología de video seguridad y reconocimiento facial biométrico dentro del marco de la nueva Ley

Septiembre, 2025

¿Qué es la EU IA ACT?

El 2 de agosto de 2024, entró en vigor la Ley de Inteligencia Artificial de la Unión Europea (EU AI Act), la primera ley integral del mundo para la regulación de la Inteligencia Artificial (IA). El reglamento de IA prevé un calendario escalonado hasta 2026 para la aplicación de sus distintas secciones regulatorias. A tenor de ello, desde el 2 de febrero de 2025 se aplica la prohibición de determinadas prácticas de IA, con especial incidencia en aquellos usos que se consideran inaceptables por sus riesgos potenciales para los valores y derechos fundamentales europeos.

Este artículo analiza cómo el nuevo marco legal afecta a la tecnología de videoseguridad y al reconocimiento facial biométrico, así como los requisitos específicos que las empresas deben tener en cuenta.

¿Qué es la EU IA ACT?

La Ley de Inteligencia Artificial de la Unión Europea es una ley que regula el uso de los sistemas de IA en la UE. Se centra en la clasificación de riesgos, categorizando los sistemas de IA como de riesgo inaceptable, alto, limitado y mínimo. Según el nivel de riesgo, deben cumplirse diferentes requisitos para garantizar un uso seguro y ético de las tecnologías de IA. En la clase de riesgo A (riesgo inaceptable), los sistemas de IA están prohibidos.

TECNOLOGÍA DE VIDEOSEGURIDAD Y RECONOCIMIENTO FACIAL: UNA VISIÓN GENERAL

El uso de sistemas de reconocimiento facial basados en IA es un punto recogido por la Ley de IA. Fundamentalmente, se hace una distinción entre la identificación remota en tiempo real y la identificación a posteriori. Ambas aplicaciones entran en la categoría de “alto riesgo”, lo que significa que deben cumplirse requisitos estrictos.

  1. Reconocimiento facial biométrico:
    El uso de sistemas de identificación biométrica a distancia en espacios públicos para perseguir delitos está generalmente prohibido, a menos que sean aplicables excepciones específicas. Entre ellas se incluyen escenarios como la búsqueda de personas desaparecidas o la prevención de ataques terroristas. Estas excepciones están claramente definidas y sujetas a condiciones rigurosas:

-La identificación remota a posteriori es considerada de alto riesgo y requiere una previa aprobación judicial que debe estar vinculada a una persecución penal.

-La identificación remota en tiempo real requiere una autorización especial y está condicionada a restricciones espaciales y temporales.

FUENTE: CUADERNOS DE SEGURIDAD