Close
Login to MyACC
ACC Members


Not a Member?

The Association of Corporate Counsel (ACC) is the world's largest organization serving the professional and business interests of attorneys who practice in the legal departments of corporations, associations, nonprofits and other private-sector organizations around the globe.

Join ACC

El Reglamento de Inteligencia Artificial de la Unión Europea (conocido como la Ley de Inteligencia Artificial o AI Act) es una normativa pionera que establece un marco legal para el desarrollo, la comercialización y el uso de la inteligencia artificial en la Unión Europea (UE). 

Su ámbito de aplicación se extiende a: proveedores de sistemas de IA que se pongan en servicio o comercialicen dentro de la UE o cuya salida se utilice en la UE, independientemente de su origen; y a usuarios de los mismos, considerando
usuarios a quienes explotan esos sistemas, y no a los afectados.

A continuación, detallamos los principales puntos del reglamento que se publicó en junio de 2024:

1. Clasificación de Sistemas de IA por Nivel de Riesgo

  • Riesgo Inaceptable: estos sistemas están prohibidos por completo. Ejemplos incluyen:

a)    Sistemas de IA que manipulen el comportamiento humano de manera que cause daño.
b)    Sistemas de calificación social por parte de gobiernos (ejemplo de lo que sucede en China).
c)    Identificación biométrica remota en tiempo real en espacios públicos (con algunas excepciones muy limitadas).

  • Riesgo Alto: requieren un cumplimiento estricto de requisitos específicos antes de ser utilizados. Ejemplos:

a)    Sistemas de IA utilizados en infraestructuras críticas (e.g., transporte, energía).
b)    IA en sistemas de educación y formación profesional que puedan determinar el acceso a la educación.
c)    Sistemas utilizados en recursos humanos para la contratación y gestión de personal.
d)    Tecnología de identificación biométrica y categorización de personas.

  • Riesgo Limitado: sujetos a requisitos mínimos de transparencia, como informar a los usuarios de que están interactuando con una IA. Ejemplo:

IA que genera contenido o interactúa directamente con humanos (e.g., chatbots).

  • Riesgo Mínimo o Nulo: la mayoría de los sistemas de IA, como los filtros de spam, no están sujetos a restricciones específicas.

2. Requisitos para los Sistemas de Alto Riesgo

  • Evaluaciones de Conformidad: los sistemas de IA de alto riesgo deben someterse a rigurosas evaluaciones de conformidad antes de su implementación, asegurando que cumplen con los estándares de seguridad y ética.
     
  • Transparencia y Explicabilidad: los operadores deben proporcionar explicaciones claras sobre cómo funciona el sistema de IA y cómo se toman las decisiones.
     
  • Supervisión Humana: debe existir un nivel adecuado de supervisión humana para evitar resultados adversos.
     
  • Gestión de Datos: deben utilizarse datos de alta calidad para entrenar los sistemas de IA, minimizando sesgos y discriminación.

3. Transparencia y Derechos del Usuario

  • Derecho a Ser Informado: los usuarios tienen derecho a saber cuándo están interactuando con un sistema de IA, especialmente en sistemas de riesgo limitado.
     
  • Explicabilidad de Decisiones: en sistemas de alto riesgo, los usuarios pueden solicitar una explicación clara y entendible de cómo se tomó una decisión que les afecte.

4. Supervisión y Cumplimiento

  • Autoridades Nacionales Competentes: cada Estado miembro deberá designar una autoridad nacional para supervisar el cumplimiento del AI Act.
  • Sanciones: las multas por incumplimiento pueden alcanzar hasta el 6% de la facturación global anual de la empresa o 30 millones de euros, lo que sea mayor.

5. Innovación Responsable

  • Espacios de Experimentación Regulada (Sandboxes): se establecen zonas seguras para la innovación en IA, donde empresas pueden probar sus sistemas bajo la supervisión de autoridades sin riesgo de sanciones inmediatas.

6. Colaboración Internacional

  • Armonización Global: el AI Act busca establecer un marco que no solo sea aplicable en la UE, sino que también sirva como un estándar global para la regulación de la IA.

7. Impacto Social y Ético

  • Requisitos Éticos: los desarrolladores deben considerar las implicaciones éticas de sus sistemas de IA y asegurar que no se perpetúan sesgos o discriminaciones injustas.
  • Participación Pública: se promueve la consulta pública y la participación de la sociedad civil en la regulación de la IA.

 

Este reglamento busca equilibrar la innovación en tecnología de IA con la protección de los derechos fundamentales, la seguridad, y la confianza de los ciudadanos. Es un marco legal robusto que tiene el potencial de influir en la regulación de la IA a nivel mundial, lo que sin lugar a dudas veremos en los próximos meses.

Denos su opinión sobre este artículo aquí. ¡Gracias!

Region: South America , Spain
The information in any resource collected in this virtual library should not be construed as legal advice or legal opinion on specific facts and should not be considered representative of the views of its authors, its sponsors, and/or ACC. These resources are not intended as a definitive statement on the subject addressed. Rather, they are intended to serve as a tool providing practical advice and references for the busy in-house practitioner and other readers.
ACC