++
+
<
>

Qué es y qué dice la nueva ley europea de inteligencia artificial

12/5/2024
7 min
Miren Agirregomezkorta
Miren Agirregomezkorta

Desde los sistemas que te recomiendan películas en línea hasta los que ayudan a los médicos a diagnosticar enfermedades, la inteligencia artificial está presente en muchos aspectos de nuestras vidas. 

¿Pero qué pasa cuando esta tecnología se utiliza en decisiones cruciales, como la seguridad de los medicamentos o la conducción de vehículos autónomos? ¿Estamos preparados para integrarla de forma segura en nuestro día a día?

La nueva legislación europea para la regulación de la inteligencia artificial, la AI Act, pretende responder estas preguntas y resolver estos retos. Y, dado que el lenguaje jurídico puede hacerse (muy) pesado, vamos a intentar masticar su contenido y hacerla más comprensible.

¿Qué aspectos trata la ley europea de IA?

La ley define la inteligencia artificial como "sistemas que, mediante técnicas de procesamiento de datos, pueden realizar tareas que normalmente requieren la inteligencia humana". 

Es decir, hace referencia a los modelos de IA generativa que han explotado en el último año largo, como ChatGPT, pero también a sistemas ya más habituales para nosotros, como el traductor de Google, los sistemas de recomendación de Spotify, y muchos otros. Estos sistemas pueden incluir algoritmos de aprendizaje automático, redes neuronales y otros enfoques computacionales. 

La ley tiene tres objetivos clave:

  1. Proteger nuestros derechos fundamentales: garantizar que la inteligencia artificial respete nuestra privacidad, no discrimine y sea transparente en sus decisiones.
  2. Promover la seguridad y la confianza: establecer normas para sistemas de IA seguros y robustos, especialmente aquellos considerados de alto riesgo.
  3. Impulsar la innovación: fomentar un entorno favorable para el desarrollo y la adopción de tecnologías de inteligencia artificial innovadoras y éticas.

Quiero aclarar que estos son los objetivos que han transmitido varias comunicaciones y representantes de la Unión Europea, aunque también existen voces críticas que defienden que la legislación ralentizará el desarrollo tecnológico en la región. Dejo a tu criterio que decidas qué opinión te parece la más acertada.

El semáforo del riesgo de la IA

Uno de los puntos más relevantes de la ley es que clasifica los modelos y herramientas de IA según su nivel de riesgo: alto, medio o bajo. Para que nos entendamos, podemos hablar de un semáforo del riesgo:

  • Luz verde: bajo riesgo
  • Luz ámbar: riesgo medio
  • Luz roja: riesgo alto

Si te interesa conocer qué tipo de tecnologías pertenecen a cada grupo y las limitaciones que deben cumplir, te recomiendo este post que publiqué en mi perfil de LinkedIn, donde explico la nueva ley europea de IA para que lo pueda entender hasta mi abuela.

La normativa también prohíbe explícitamente los sistemas de IA con técnicas manipulativas o subliminales, los que explotan a grupos vulnerables (como las personas con discapacidades físicas o mentales), los que crean puntuaciones sociales según tu comportamiento y los que identifican los rasgos físicos en tiempo real en espacios públicos (aunque se deja abierta la puerta para algunas excepciones por motivos mayores de seguridad). En estos casos, digamos que la ley impone, directamente, una señal de stop.

¿Cómo nos protege la AI Act ante los sistemas de alto riesgo?

Los sistemas de IA de alto riesgo son aquellos que pueden tener un impacto significativo en nuestros derechos y seguridad, como los utilizados en la atención médica o el transporte autónomo. Los criterios de alto riesgo establecidos por la legislación europea sobre inteligencia artificial son los siguientes:

  1. Potencial para causar daño significativo o impacto adverso en los derechos fundamentales de las personas.
  2. Potencial para causar daño significativo a la seguridad o salud pública.

Estos son algunos ejemplos o usos de la inteligencia artificial que la AI Act considera de alto riesgo:

La regulación establece requisitos específicos para garantizar su seguridad y transparencia en su desarrollo y uso. En concreto, los desarrolladores y proveedores de sistemas de IA de alto riesgo tienen la responsabilidad de:

  • Evaluar los riesgos: identificar posibles peligros y minimizarlos.
  • Diseñar medidas de seguridad: implementar salvaguardias para prevenir riesgos.
  • Ser transparentes: explicar cómo funciona la inteligencia artificial y cómo toma decisiones.
  • Supervisar el rendimiento: garantizar que sus sistemas cumplen continuamente con la normativa.

¿Cómo afecta la AI Act a herramientas como ChatGPT?

ChatGPT, probablemente la herramienta de inteligencia artificial más conocida del mundo, es un modelo de generación de texto. Como tal, se considera un sistema de riesgo limitado, y el requisito principal que debe cumplir es el de la transparencia. Se trata de una IA que interactúa con las personas a través de un chatbot y que genera contenido de texto e imagen (entre otros), por lo que, en todo momento, deberá informarnos a los usuarios de que estamos interactuando con una máquina.

Derecho, tecnología y ética

En el fondo, la AI Act supone la intersección entre tres disciplinas que, sospecho, van a estar cada vez más interconectadas: el derecho, la tecnología y la ética. Por tanto, contempla aspectos como la equidad (o lucha contra el sesgo), la privacidad, la confidencialidad, la transparencia y la explicabilidad

Termino con una reflexión personal: sin ser experta en derecho, economía ni informática, y desde la perspectiva de una periodista que ha leído (bastante) para escribir este artículo, opino que la AI Act supone un paso en la dirección correcta. Tenemos entre manos una tecnología tremendamente potente que está sacudiendo nuestras formas de trabajar y de relacionarnos con las máquinas, de manera, a mi parecer, comparable a la llegada de internet. 

Por tanto, es urgente que los órganos legislativos empiecen a tomar medidas para garantizar su expansión justa y segura. Es cierto que las propuestas son imperfectas todavía, pero hay que empezar a legislar ya, antes de que la industria de la IA consiga aún más ventaja y escape de nuestro control.

Por cierto, si quieres seguir aprendiendo más sobre inteligencia artificial aplicada al marketing y la comunicación, te invito a que me sigas en mi perfil de LinkedIn y que te suscribas a mi newsletter.

10/010
1
/../
0
00
1-0
+

Suscríbete a nuestra Newsletter

Recibe los últimos artículos directamente en tu bandeja de entrada.
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Al hacer clic en "Suscríbete" aceptas nuestra política de privacidad.