leyia

La Ley de Inteligencia Artificial de la UE (o "Ley de IA") es la primera legislación del mundo que regula el uso de la IA. Deja margen para el "Derecho indicativo técnico", pero, inevitablemente (por ser la primera y por su amplio alcance), establecerá principios y normas para el desarrollo y la gobernanza de la IA. El Reino Unido se está concentrando más en el Derecho indicativo, trabajando hacia un enfoque descentralizado basado en principios. EE.UU. y China están trabajando en sus propias normativas sobre IA, centrándose EE.UU. más en el derecho indicativo, la privacidad y la ética, y China en algoritmos de IA explicables, con el objetivo de que las empresas sean transparentes sobre su propósito.

La Ley de IA supone un paso crucial en la regulación de la IA en Europa, y un código de conducta global sobre IA podría armonizar las prácticas en todo el mundo, garantizando un uso seguro y ético de la IA. Este artículo ofrece una visión general de la Ley de la UE, sus principales aspectos, así como una visión general de otras iniciativas legislativas sobre IA en la Unión Europea y cómo éstas están influyendo en otras jurisdicciones, como el Reino Unido, EE.UU. y China.

La Ley de IA: La primera legislación sobre IA. Otras jurisdicciones se están poniendo al día.

El 14 de junio de 2023, el Parlamento Europeo logró un hito importante al aprobar la Ley de Inteligencia Artificial (o "Ley de IA"), convirtiéndola en la primera legislación del mundo que regula el uso de la inteligencia artificial. Esta aprobación ha iniciado las negociaciones con el Consejo de la Unión Europea, que determinará la redacción final de la Ley. Se espera que la versión final de la Ley de IA se publique a finales de 2023. Tras ello, se espera que el Reglamento entre plenamente en vigor en 2026. Actualmente se está estudiando un periodo de gracia de dos años similar al contemplado por el RGPD. Este periodo de gracia permitiría a las empresas adaptarse gradualmente y prepararse para los cambios hasta la entrada en vigor de la normativa.

Como pioneras en la regulación de la IA, las instituciones europeas participan activamente en debates que probablemente establecerán normas tanto de facto (esenciales para la expansión y el crecimiento de las empresas de IA, al igual que cualquier otro sector) como de iure (que crearán una competencia sana entre jurisdicciones) en todo el mundo. Estos debates pretenden dar forma al desarrollo y la gobernanza de la inteligencia artificial, sentando un precedente influyente para la comunidad mundial de la IA.

Tanto Estados Unidos como China se esfuerzan por ponerse al día. En octubre de 2022, el gobierno estadounidense presentó su "Plan para una Declaración de Derechos de la IA", centrado en normas de privacidad y pruebas rigurosas antes de que los sistemas de IA estén disponibles públicamente. En abril de 2022, China siguió un camino similar al presentar un borrador de normas que obligan a los creadores de chatbot a cumplir las leyes estatales de censura.

El Gobierno del Reino Unido ha presentado un libro blanco sobre la inteligencia artificial para orientar sobre su utilización en el país. El objetivo es fomentar la innovación responsable y mantener la confianza pública en esta tecnología transformadora.

Mientras que la aprobación de la Ley de Inteligencia Artificial por el Parlamento Europeo representa un importante paso adelante en la regulación de la IA en Europa (e indirectamente más allá, dado el alcance extraterritorial), las Naciones Unidas también están desarrollando la aplicación de un código de conducta mundial sobre IA, que pretende desempeñar un papel crucial en la armonización de las prácticas empresariales mundiales relativas a los sistemas de IA, garantizando su uso seguro, ético y transparente.

Una normativa basada en el riesgo

El enfoque normativo europeo se basa en la evaluación de los riesgos asociados a cada uso de la inteligencia artificial.

Se contemplan prohibiciones totales para usos intrusivos y discriminatorios que supongan un riesgo inaceptable para los derechos fundamentales de los ciudadanos, su salud, seguridad u otros asuntos de interés público. Algunos ejemplos de aplicaciones de inteligencia artificial que se considera que entrañan riesgos inaceptables son la manipulación cognitiva del comportamiento dirigida a categorías específicas de personas o grupos vulnerables, como los juguetes parlantes para niños, y la puntuación social, que consiste en clasificar a las personas en función de su comportamiento o características.

El proyecto de reglamento aprobado amplía considerablemente la lista de prohibiciones de usos intrusivos y discriminatorios de la IA. Estas prohibiciones incluyen ahora:

  • Los sistemas de categorización biométrica que utilizan características sensibles como el sexo, la raza, la etnia, el estatuto de ciudadanía, la religión, la orientación política, conocidos comúnmente como scoring social;
  • Sistemas de identificación biométrica a distancia "en tiempo real" y "a posteriori" en espacios de acceso público, con una excepción para las fuerzas del orden que utilicen la identificación biométrica a posteriori para la persecución de delitos graves, previa autorización judicial. Sin embargo, una prohibición total de la identificación biométrica podría plantear problemas en las negociaciones con el Consejo Europeo, ya que algunas fuerzas policiales de los Estados miembros defienden su uso para actividades policiales, cuando sea estrictamente necesario;
  • Sistemas policiales predictivos basados en perfiles, localización o comportamientos delictivos anteriores;
  • Sistemas de reconocimiento de emociones utilizados en los ámbitos policial, fronterizo, laboral y educativo;
  •  Extracción no selectiva de datos biométricos de Internet o de grabaciones de CCTV para crear bases de datos de reconocimiento facial.

Por el contrario, los usos que deben "regularse" (en lugar de simplemente prohibirse) mediante la gobernanza de los datos, la evaluación de la gestión de riesgos, la documentación técnica y los criterios de transparencia, son:

  • Sistemas de IA de alto riesgo, como los utilizados en infraestructuras críticas (por ejemplo, redes eléctricas, hospitales, etc.), los que ayudan a tomar decisiones relativas a la vida de las personas (por ejemplo, empleo o calificación crediticia), o los que tienen un impacto significativo en el medio ambiente; y
    los modelos fundacionales, bajo la forma de sistemas de IA Generativa (como, por ejemplo, el célebre ChatGPT) y modelos de IA Básica.
  • Los sistemas de IA de alto riesgo son sistemas de inteligencia artificial que pueden afectar negativamente a la seguridad o a los derechos fundamentales. Se dividen en dos categorías:

Sistemas de inteligencia artificial utilizados en productos sujetos a la Directiva de la UE sobre seguridad general de los productos. Entre ellos figuran los juguetes, los automóviles, los dispositivos médicos y los ascensores.

Ley en una Base de Datos de la UE

Sistemas de inteligencia artificial incluidos en ocho ámbitos específicos, que deberán registrarse en una base de datos de la UE:

  • Identificación biométrica y categorización de personas físicas;
  • Gestión y explotación de infraestructuras críticas
  • Educación y formación profesional
  • Empleo, gestión de trabajadores y acceso al autoempleo
  • Acceso y utilización de servicios y prestaciones públicas y privadas esenciales
  • Aplicación de la ley;
  • Gestión de la migración, asilo y control de fronteras;
  • Asistencia en la interpretación jurídica y la aplicación de la ley.

Todos los sistemas de inteligencia artificial de alto riesgo serán evaluados antes de su comercialización y durante todo su ciclo de vida.

Tanto los sistemas/modelos de IA Generativa como los de IA Básica pueden considerarse IA de propósito general porque son capaces de realizar diferentes tareas y no se limitan a una sola. La distinción entre ambos radica en el resultado final.

La IA generativa, como el ya popular ChatGPT, utiliza redes neuronales para generar nuevos textos, imágenes, vídeos o sonidos que nunca antes se han visto u oído, de forma parecida a como lo haría un ser humano. Por este motivo, el Parlamento Europeo ha introducido mayores requisitos de transparencia:

Las empresas que desarrollen IA generativa tendrán que asegurarse de que quede explícito en el resultado final que el contenido ha sido generado por la IA. Esto permitirá, por ejemplo, distinguir las falsificaciones profundas de las imágenes reales;

Pensado para todos en enfasis a las empresas

Las empresas tendrán que garantizar salvaguardias contra la generación de contenidos ilegales; y las empresas tendrán que hacer públicos resúmenes detallados de los datos protegidos por derechos de autor utilizados para entrenar el algoritmo.

Los modelos básicos de IA, en cambio, no "crean", sino que aprenden a partir de grandes cantidades de datos, los utilizan para realizar una amplia gama de tareas y tienen aplicación en diversos ámbitos. Los proveedores de estos modelos tendrán que evaluar y mitigar los posibles riesgos asociados a ellos (para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de Derecho) y registrar sus modelos en la base de datos de la UE antes de lanzarlos al mercado.

A continuación están las aplicaciones de IA mínimas o de bajo riesgo, como las utilizadas hasta ahora para la traducción, el reconocimiento de imágenes o la predicción meteorológica. Los sistemas de inteligencia artificial de riesgo limitado deben cumplir unos requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa. Tras interactuar con las aplicaciones, los usuarios pueden decidir si desean seguir utilizándolas. Los usuarios deben ser informados cuando interactúen con la IA. Esto incluye los sistemas de inteligencia artificial que generan o manipulan contenidos de imagen, audio o vídeo (por ejemplo, deepfakes).

Por último, se prevén exenciones para las actividades de investigación y los componentes de IA proporcionados bajo licencias de código abierto.

 

Fuente: somoslibres

 

¿Quién está en línea?

Hay 65401 invitados y ningún miembro en línea