el reglamento por el cual la ue regula la inteligencia artificial.webp

Regulando la IA: El caso de la Unión Europea

February 6, 2024

Key takeaways

 

1. Regulación pionera de la IA en la UE: La Unión Europea establece un estándar global con su Acta de Inteligencia Artificial, priorizando la transparencia, seguridad y responsabilidad en aplicaciones de IA, asegurando el equilibrio entre uso ético e innovación.

2. Clasificación de IA basada en riesgos: La regulación de IA de la UE introduce un marco basado en riesgos, categorizando las aplicaciones de IA en inaceptable, alto o bajo riesgo, orientando la implementación y gobernanza de las tecnologías de IA.

3. Reconocimiento Biométrico en el punto de mira: La UE diferencia las aplicaciones de IA basándose en el consentimiento, con un enfoque especial en el reconocimiento biométrico, promoviendo la autonomía del usuario y la privacidad de datos en entornos digitales.

4. El papel de Didit en la Identidad Digital: En medio de los avances de la IA, Didit emerge como una herramienta crucial para mejorar la privacidad y autenticidad en línea, empoderando a los usuarios con una identidad auto-soberana y combatiendo los posibles malos usos de la IA.

La tecnología y sus avances siempre van algunos pasos por delante de la normativa. Una vez que estos desarrollos se asientan en la sociedad es cuando aparecen las primeras regulaciones. La Inteligencia Artificial ha sido uno de los últimos ejemplos. Una revolución, más que una evolución, que ha impactado prácticamente a todos los niveles tanto empresariales como humanos, y que ha puesto de relieve la imperiosa necesidad de una legislación que permita a las personas defenderse de las muchas amenazas que puede traer la IA de su mano, sobre todo en el campo de la seguridad, la privacidad y la identidad digital.

España fue pionera al diseñar un marco normativo acorde a esta demanda. Mediante la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), se pretende diseñar un marco de pruebas en la que esta tecnología desarrolle su potencial, sin llegar a ser un peligro para la sociedad.

También Europa se ha apresurado trabajar en un marco regulatorio. A mediados de marzo de 2024, el pleno del Parlamento Europeo aprobó el Reglamento de Inteligencia Artificial, que marca las guías en cuanto a la seguridad y defensa de los derechos fundamentales de las personas.

Diferentes marcos legislativos que buscan potenciar los innumerables beneficios de la Inteligencia Artificial y minimizar todas las preocupaciones éticas que su uso conlleva.

La necesidad de regulación en la era de la IA

¿Es (o era) necesario regular la Inteligencia Artificial? Esta tecnología ha irrumpido en nuestro día a día con la fuerza de un huracán, transformando completamente la forma en la que interactuamos en los entornos digitales, tanto con otras personas como con organizaciones o entidades. La IA se ha convertido en un motor de cambio prácticamente imparable que nos ayuda en la automatización de tareas cotidianas o la gestión de datos complejos.

Sin embargo, no todos los usos son correctos. La IA también puede usarse para manipular, discriminar, e incluso suplantar la identidad de las personas. Un problema mucho muy grave y, que sin una regulación adecuada, supone un peligro para la privacidad, la seguridad y la libertad de los ciudadanos. En definitiva, en una amenaza para las personas.

Beneficios y riesgos para de la IA para la sociedad

Como en cualquier análisis que se precie, hay que intentar alejarse un poco de la superficie. Para escrutar las ventajas y riesgos de la Inteligencia Artificial para la sociedad ocurre lo mismo. Las personas se pueden ver beneficiadas en muchos aspectos cotidianos gracias a diferentes desarrollos basados en IA. Sin embargo, donde hay luz también puede haber oscuridad, y donde hay utilidad, también aparecen problemas.

Los beneficios son claros. Entre ellos, podemos ver cómo la Inteligencia Artificial aumenta la eficiencia gracias a la automatización de procesos, permite una personalización de servicios que a la larga mejoren la experiencia del usuario y el engagement, y mejora la seguridad de procesos, al usarse a la hora de prevenir anomalías y ciberataques.

Algunos de los los problemas que presenta esta tecnología también son claros. Desde el punto de vista de la seguridad de las personas, la IA puede ayudar a la violación de la privacidad de los individuos, recopilando y utilizando datos personales; facilita la suplantación de identidad gracias a la creación de deepfakes y, en definitiva, una pérdida de control sobre la información privada. También puede perpetuar sesgos y discriminaciones entre grupos minoritarios de la sociedad.

El debate sobre la regulación

Si bien los argumentos anteriores suponen una pequeña muestra del potencial de esta tecnología y de los problemas que conlleva, ¿debe regularse la Inteligencia Artificial? En este debate existen argumentos para ambos extremos. Mientras que los primeros hablan de seguridad, privacidad y transparencia, los segundos piensan que la normativa podría limitar el desarrollo e innovación.

Sea como fuera, será necesario encontrar un equilibrio entre ambos. Si bien es cierto que las amenazas de la IA hacen necesaria una regulación que minimice los riesgos y maximice los beneficios, debe permitir un completo desarrollo de la misma. En este sentido, la Unión Europea puso en pie uno de los primeros pilares sólidos al respecto de la legislación.

Así es el Reglamento de Inteligencia Artificial de la Unión Europea

El pleno del Parlamento Europeo aprobó el Reglamento de Inteligencia Artificial el pasado 13 de marzo de 2024. Esta normativa desarrolla un marco legislativo para el uso de la IA dentro de los Estados miembros, en la que prioriza la seguridad, la transparencia y la responsabilidad. De este modo, y haciendo hincapié en el aspecto que antes comentábamos, se considera que se podrá explotar todo el potencial tecnológico desde un punto de vista ético sin renunciar a la innovación.

Esta normativa clasifica a la Inteligencia Artificial según el riesgo que suponen para los intereses de la sociedad. De esta forma, se podrá crear un entorno de desarrollo mucho más justo y eficaz, sin el riesgo de que aparezcan aplicaciones que fueran represivas o discriminatorias.

Un marco regulatorio sólido y robusto, que defiende los derechos fundamentales de los individuos, y que puede servir de ejemplo para crear y potenciar otras legislaciones en este sentido.

Los niveles de riesgo del Reglamento

La clasificación de las distintas aplicaciones de Inteligencia Artificial es una de las principales características de esta normativa. La Unión Europea entiende que existen tres niveles de riesgo diferentes (inaceptable, algo o inexistente), y así las categoriza:
 

  1. Riesgo inaceptable: Hace referencia a aquellos sistemas que representan una amenaza directa a la seguridad pública. Su uso está prohibido.
  2. Alto riesgo: Hace referencia a aquellas aplicaciones de IA cuyo impacto sobre los derechos fundamentales de las personas puede ser elevado. Su uso está permitido, siempre y cuando se lleven a cabo en ciertos entornos controlados y siempre esté bajo control.
  3. Riesgo inexistente o bajo: Hace referencia a aquellas IA que no se ajustan a ninguna de las otras dos categorías. Hablamos de chatbots, sistemas de IA generativa, etc., en los que la decisión de uso recae sobre las personas.

¿Cómo se clasifica el reconocimiento biométrico en el Reglamento de la UE?

La biometría también tiene cabida en este Reglamento de la Unión Europea. En este sentido, la cuestión clave para definir en qué categoría se incluye tiene que ver con la aceptación y decisión de uso por parte de la persona. De esta manera, si las aplicaciones de reconocimiento biométrico requieren de consentimiento por parte del individuo, se considerarán de bajo riesgo.

Además de esta decisión libre, la privacidad de los vectores biométricos, la encriptación de la información o la posibilidad de revocación son algunos de los otros factores que hacen que la Unión Europea haya dado luz verde a estos sistemas de identificación biométrica.

Todo lo contrario ocurre con la Identificación Biométrica Remota. Estos sistemas tienen una estrecha relación con el control y la vigilancia masiva de la sociedad, por lo que se consideran de riesgo inaceptable (la categoría más alta y peligrosa) y su uso queda terminantemente prohibido.

Otros enfoques legislativos de la IA

El Reglamento de la Unión Europea sobre IA pretende influenciar tanto a los Estados miembros, que deben acatar la normativa (España, por ejemplo, ha sido de las primeras gracias a AESIA), como a otros actores internacionales. De hecho, algunas otras regiones también trabajan en este marco legislativo para la Inteligencia Artificial, en el que sean capaces de convivir innovación y ética. Algunos de estos enfoques se dan en:
 

- Reino Unido: Prioriza la regulación sectorial, permitiendo que cada industria ajuste las normas de IA a sus necesidades específicas, promoviendo la innovación dentro de marcos éticos.

- Estados Unidos: Se inclinan por directrices que no son obligatorias, fomentando la innovación mientras intentan proteger al público. Su enfoque se basa en la flexibilidad y adaptabilidad a nuevas tecnologías.

- Brasil: Se centra en una legislación específica para la IA, poniendo un fuerte énfasis en la transparencia y la rendición de cuentas de los sistemas de IA, para asegurar que los desarrollos sean accesibles y comprensibles para todos.

- Canadá: Desarrolla estrategias nacionales que enfatizan los derechos humanos y la ética en la IA, buscando equilibrar el avance tecnológico con la protección individual.

¿Cómo impacta la regulación de la IA en la Identidad Digital?

La regulación de la Inteligencia Artificial impacta profundamente en la seguridad y gestión de la identidad digital, abordando desde la protección de datos personales hasta el fortalecimiento de mecanismos de autenticación y detección de fraudes. Es el caso, por ejemplo, del American Data Privacy and Protection Act (ADPPA), que busca establecer límites en la recopilación, uso y compartición de información personal, lo cual es esencial para gobernar las aplicaciones tecnológicas y mitigar riesgos asociados con la IA. Estas regulaciones no solo abordan la privacidad de datos sino que también introducen medidas para combatir la discriminación y fomentar la transparencia y responsabilidad en el uso de sistemas de IA.

Didit como respuesta a la creciente problemática de la IA

En este contexto de regulación y avance tecnológico, se evidencia la importancia de contar con herramientas eficaces que protejan la privacidad de los individuos. Soluciones como Didit juegan un papel crucial en este propósito de hacer de Internet un lugar más humano, luchando contra el mal uso de la IA y fenómenos como los bots o el deepfake.

Didit se esfuerza por humanizar internet, redefiniendo la forma en la que se interactúa en la red y ofreciendo un entorno en línea más seguro. Mediante el uso de tecnología descentralizada, Didit empodera a los usuarios para que tengan control total sobre sus datos, asegurando que en cualquier interacción digital, sea posible verificar que detrás de cada acción hay una persona real, auténtica y coherente con su identidad declarada.

Únete con un solo clic a las miles de personas que ya disfrutan de una identidad auto-soberana (SSI) y despídete para siempre de todos los problemas relacionados con la Inteligencia Artificial.

crea tu id con didit.png

Share this post