El Comité Europeo de Protección de Datos (EDPB) y el Supervisor Europeo de Protección de Datos (EDPS) han emitido una opinión conjunta sobre la propuesta de regulación sobre Inteligencia Artificial (IA) presentada por la Comisión Europea. En este post de Conversia explicamos tanto la propuesta normativa como la valoración emitida por los mencionados órganos europeos.

Prohibir la utilización de reconocimiento biométrico en sitios públicos

Los máximos órganos europeos en materia de protección de datos (EDPB y EDPS) se muestran favorables a que la Unión Europea cree una legislación específica para regular y limitar la Inteligencia Artificial. Sin embargo, van más allá: prohibir por completo los sistemas de reconocimiento biométricos en la vía pública, ya que interfieren con los derechos y libertades fundamentales de los ciudadanos. Entre ellos se encontrarían sistemas como cámaras de reconocimiento facial, uso de huellas dactilares y reconocimiento por voz.

Asimismo, en el comunicado emitido por ambos organismos, también se plantea que se prohíban todos aquellos sistemas de Inteligencia Artificial que produzcan discriminaciones por razón de etnia, género, identidad política u orientación sexual. En el mismo sentido, consideran que el uso de sistemas de IA para reconocer las emociones de las personas es “altamente indeseable y debería ser prohibido”, a excepción de fines sanitarios, “donde el reconocimiento de las emociones del paciente es importante”.

Una nueva normativa para regular la Inteligencia Artificial

La propuesta presentada por la Comisión Europea planteaba un reglamento común para todos los Estados miembro que sugería regular la introducción, la puesta en servicio y el uso de los sistemas de IA. En este último sentido, los usos se basaban en el análisis de riesgo que cada sistema de Inteligencia Artificial podría comportar en referencia a la vulneración de los derechos fundamentales de los ciudadanos. De esta forma se establecerían 4 categorías:

  • Riesgo inadmisible.

La normativa prohibiría los sistemas de IA que supusieran una clara amenaza para la seguridad y los derechos de las personas, como por ejemplo, juguetes que a través de asistente de voz pudieran incitar a comportamientos peligrosos para los menores o sistemas que detectaran información sobre colectivos o grupos que permitieran identificarlos y clasificarlos en función de vulnerabilidades o circunstancias especiales.

  • Alto riesgo.

Los sistemas incluidos en este apartado no estarían prohibidos, pero deberían pasar un análisis potencial sobre el perjuicio que pudieran causar en la salud, la seguridad y los derechos fundamentales de las personas. También se tendrá que contemplar la finalidad de su uso para determinar si se pueden utilizar. Algunos ejemplos serían tecnologías aplicadas a la administración de justicia, a determinar el acceso a formación educativa o profesional o a la calificación de ciudadanos a la hora de obtener un préstamo, entre otros.

  • Riesgo limitado.

En este apartado se incluirían aquellos sistemas de IA que no supusieran un alto riesgo para los derechos y libertades de las personas, a pesar de interactuar con ellas, como asistentes virtuales o chatbots. Sin embargo, a los proveedores de los sistemas se les exigiría el cumplimiento de obligaciones específicas de transparencia de cara a los usuarios.

  • Riesgo mínimo o nulo.

Finalmente existiría un último apartado en el que los sistemas no estarían sujetos a ninguna obligación y quedarían fuera de la aplicación de la normativa, como videojuegos gratuitos basados en Inteligencia Artificial o filtros de correo spam.

En referencia al régimen sancionador, se están estudiando multas administrativas de hasta 30 millones de euros o hasta el 6% del volumen de negocios total anual del ejercicio financiero anterior.

Puedes leer más noticias relacionadas con la inteligencia artificial en este blog de Conversia.