Ley de Inteligencia Artificial: ¿la conoces?

Autor: José A. Lavilla
marzo 18, 2024

¿Conoces la Ley de Inteligencia Artificial? El pasado 13 de marzo el Parlamento Europeo ratificó su primera Ley de Inteligencia Artificial, en una decisión histórica para regular su uso. Esta ley, que fue pactada en diciembre por las instituciones comunitarias, establece regulaciones cruciales para el uso de la IA en la Unión Europea. Se trata de la primera regulación vinculante para la inteligencia artificial.

Ley de Inteligencia Artificial

La Eurocámara avaló el acuerdo con 523 votos a favor, 46 en contra y 49 abstenciones y, aunque se espera que la UE la apruebe definitivamente en las próximas semanas, no entrará completamente en vigor hasta 2026. A continuación, exponemos los puntos claves:

  • Riesgo ciudadano: la normativa permite o prohíbe el uso de la inteligencia artificial en función del riesgo que suponga para los ciudadanos.
  • Clasificación de sistemas de IA según el riesgo: los sistemas de inteligencia artificial se clasificarán según su nivel de riesgo, desde «riesgo limitado» hasta «alto riesgo», afectando especialmente a áreas críticas como la medicina, la educación y la ley. Los de alto riesgo estarán sujetos a regulaciones estrictas para garantizar la seguridad y los derechos fundamentales.
  • Vigilancia masiva: la ley prohíbe la vigilancia masiva en espacios públicos.
  • Otras prohibiciones: la ley prohíbe una serie de prácticas de IA consideradas inaceptables, como un sistemas de puntuación social que asignan una puntuación a las personas en función de su comportamiento o características. También se prohíbe la IA que utiliza la manipulación subliminal para influir en el comportamiento de las personas.
  • Identificación biométrica: a pesar de lo anterior, las fuerzas del orden pueden emplear cámaras de identificación biométrica con previa autorización judicial para prevenir amenazas terroristas inminentes.
  • Obligaciones para sistemas de IA Generativa: la ley también establece obligaciones para sistemas de inteligencia artificial generativa, como ChatGPT y Bard. Estos sistemas deben especificar si un texto, canción o fotografía se generó mediante inteligencia artificial y garantizar que los datos utilizados para entrenarlos respeten los derechos de autor.
  • Enfoque en la innovación y el impacto en la sociedad: si bien la ley busca proteger los derechos fundamentales y la seguridad, también se enfoca en apoyar la innovación y el desarrollo responsable de la IA, lo cual incluye un balance entre regulación y promoción de la competitividad tecnológica. Además, a UE busca impulsar a la industria europea frente a Estados Unidos y China.

La Ley de Inteligencia Artificial y el marco regulatorio general

Esta ley está enmarcada dentro de unos objetivos que se fijaron dentro del contexto político mundial sobre regular el uso de la IA. A continuación, se expondrán las cinco principales tendencias legislativas, las cuales podemos consultar más a fondo en el Observatorio de Políticas de IA, de la Organización para la Cooperación y Desarrollo Económico (OCDE). Los países tomados para la muestra incluyen Canadá, China, la Unión Europea, Japón, Corea, Singapur, el Reino Unido y Estados Unidos. Aunque cada jurisdicción adopta enfoques distintos y adaptados a la coyuntura del propio país, se han identificado cinco tendencias comunes:

1. La regulación y orientación de la IA se ajusta a los principios fundamentales de la IA definidos por la OCDE y respaldados por el G20 en 2019

Lo primero que hay que tener en cuenta es que las legislaciones en torno a la IA están basadas en los principios definidos por la OCDE sobre la IA y respaldadas por el grupo G20 en 2019. Estos incluyen el respeto de los derechos humanos, la sostenibilidad, la transparencia y una sólida gestión de riesgos, algo que en Mutter tenemos totalmente en cuenta. Se pretende garantizar que los beneficios de la IA se distribuyan ampliamente en la sociedad, que la IA no vulnere las salvaguardias sociales, como la protección de los derechos humanos, y que las organizaciones que utilizan la IA tengan en marcha una gobernanza y responsabilidad adecuadas.

Los Principios de la OCDE sobre la IA enfatizan que la IA debe servir para el beneficio de la humanidad, promoviendo un crecimiento inclusivo y sostenible, respetando los valores democráticos y los derechos humanos. Estos principios subrayan la importancia de la transparencia y la responsabilidad en los sistemas de IA, así como la necesidad de salvaguardias para garantizar una sociedad justa y equitativa. Además, se destaca que los sistemas de IA deben operar de manera robusta y segura a lo largo de su vida útil, gestionando de manera continua posibles riesgos. En última instancia, se espera que las organizaciones y los individuos que trabajan con IA sean responsables de garantizar el cumplimiento de estos principios.

En base a ello, la OCDE insta a los gobiernos a facilitar la inversión en investigación y desarrollo de IA, promover ecosistemas de IA accesibles, crear políticas para sistemas de IA confiables, capacitar a las personas en habilidades de IA y promover la cooperación internacional para una administración responsable de la IA. Estos principios y recomendaciones buscan garantizar que la IA se utilice de manera ética y beneficiosa para la humanidad.

2. Se tiende a proteger la privacidad, la no discriminación, la transparencia y la seguridad

Cada jurisdicción revisada se centra en traducir los principios de la IA en la práctica. Si bien sus enfoques pueden variar desde pautas voluntarias hasta reglas obligatorias, cada jurisdicción está siguiendo un enfoque basado en los riesgos que esta conlleva en cuanto a seguridad, transparencia, no discriminación y privacidad adaptando según el uso previsto y el nivel de riesgo.

Ejemplos notables incluyen las leyes propuestas de la UE y Canadá, que utilizan evaluaciones de riesgo e impacto para categorizar sistemas de IA en diferentes niveles de cumplimiento, con requisitos más estrictos para sistemas de alto riesgo. Estados Unidos respalda enfoques basados en el riesgo a través de un marco de gestión de riesgos voluntario para la IA. Las prácticas líderes incluyen categorizar riesgos según la aplicación de la IA en lugar de sus características tecnológicas y evaluar riesgos en función de múltiples criterios, como el impacto en los derechos fundamentales y la disponibilidad de alternativas humanas. El AI RMF 1.0 del NIST ejemplifica este enfoque y sirve como guía tanto para responsables de políticas como para empresas que organizan su gobernanza interna de IA.

3. Algunas jurisdicciones se centran en la necesidad de reglas específicas del sector

Los países están adoptando un doble enfoque para la regulación de la IA. El primer enfoque, transversal, establece principios generales que se aplican en todos los sectores. El segundo enfoque, que tiene en cuenta a cada sector en concreto, establece pautas adicionales para la IA en sectores particulares para abordar riesgos específicos. En este sentido, como Mutter trabaja en distintos sectores (HealthTech, PropTech, Web3, hardware, LegalTech y software), debe tener en cuenta qué regulaciones existen para cada sector.

Por ejemplo, Singapur ha desarrollado un Marco de Gobierno de la IA que proporciona orientación sectorial para organizaciones privadas, y la Autoridad Monetaria de Singapur (MAS) ha emitido orientación específica para el sector financiero sobre Equidad, Ética, Responsabilidad y Transparencia (FEAT) en el Uso de la IA y el Análisis de Datos, complementado por la iniciativa MAS Veritas para que las instituciones financieras evalúen sus soluciones de IA según los principios de FEAT.

4. Los estados están integrando reglas de IA en otras áreas de política digital

La elaboración de normativas sobre la IA está generando nuevas políticas o interpretaciones nuevas de políticas existentes en otras áreas, como la propiedad de datos, la identidad digital, la ciberseguridad y el flujo de contenido digital. Por ejemplo, la Ley de Datos de la UE regula el acceso y uso justos de datos para la IA. El Reglamento General de Protección de Datos de la UE aborda desafíos relacionados con datos personales y la IA. La Ley de Servicios Digitales de la UE regula el uso de la IA en el acceso y distribución de contenido en línea, y la Ley de Resiliencia Cibernética protege contra amenazas cibernéticas impulsadas por la IA. Corea también propone políticas para compartir datos con startups. En los EE. UU., se emitió una declaración conjunta sobre el sesgo en la IA y se promulgaron leyes de auditoría de sesgo en Nueva York.

5. Los reguladores utilizan cada vez más entornos de pruebas para permitir innovaciones de IA responsables

En la Unión Europea, Singapur y el Reino Unido, los reguladores están adoptando «sandboxes» regulatorios de IA para abordar la rápida evolución de la inteligencia artificial y su falta de experiencia en esta tecnología. Estos «sandboxes» proporcionan un entorno supervisado para probar innovaciones tecnológicas con regulaciones flexibles en términos de tiempo y alcance.

Los beneficios incluyen el desarrollo de regulaciones más precisas y efectivas, el fomento de la inversión de capital de riesgo, la promoción de la competencia y una mejor comunicación entre reguladores y empresas participantes. Tanto el UK FCA como la Oficina del Comisionado de Información del Reino Unido (ICO) están llevando a cabo pruebas en el ámbito de la IA, centrándose en el sector FinTech y la privacidad de datos respectivamente. Singapur ha implementado un «sandbox» regulatorio similar llamado «AI Verify», diseñado para evaluar la confiabilidad de los sistemas de IA según los principios de FEAT (equidad, ética, responsabilidad y transparencia).

El futuro y la Ley de Inteligencia Artificial

A medida que avanzamos en esta era de IA, es fundamental mantener un diálogo abierto y colaborativo entre gobiernos, empresas y la sociedad en su conjunto. La regulación de la IA debe equilibrar la innovación con la protección, y los enfoques compartidos pueden ayudar a allanar el camino hacia un futuro en el que la IA impulse el crecimiento económico y mejore la calidad de vida, al tiempo que se minimizan los riesgos y se garantiza la seguridad y el progreso. En este contexto se ha ratificado la Ley de Inteligencia Artificial.

En medio de este panorama, Mutter Ventures abraza totalmente la aplicación de la IA en todos los ámbitos posibles de manera lo más eficiente y responsable posible, teniendo en cuenta nuestra pasión por la innovación y la tecnología. La implementación de regulaciones sólidas y la promoción de entornos de prueba para la IA responsable son pasos cruciales en este viaje.

Últimas noticias

Pactar el precio de tu energía

¿Es posible pactar el precio de tu energía?

by | Abr 17, 2024 | Actualidad y Análisis | 0 Comments

¿Será posible en el futuro pactar el precio de tu energía? En Mutter Ventures reflexionamos sobre que en la actualidad, la energía no es solo un recurso vital para el...

Corporate Venturing

Impulsando el futuro: Corporate Venturing

by | Abr 15, 2024 | Academia,Future Is Now | 0 Comments

En 1914 Pierre du Pont, fundador de Dupont, supo ver el potencial de una industria emergente, la automotriz, y decidió sacar provecho de ella a través de una inversión...

Créditos de carbono

Los créditos de carbono como herramienta de sostenibilidad para las empresas

by | Abr 15, 2024 | Actualidad y Análisis | 0 Comments

¿Sabes qué son los créditos de carbono? En un mundo cada vez más consciente del impacto ambiental de la actividad humana, la sostenibilidad se ha convertido en un pilar...

La Ley de Inteligencia Artificial

Ley de Inteligencia Artificial: ¿la conoces?

by | Mar 18, 2024 | Actualidad y Análisis,Tecnología | 0 Comments

¿Conoces la Ley de Inteligencia Artificial? El pasado 13 de marzo el Parlamento Europeo ratificó su primera Ley de Inteligencia Artificial, en una decisión histórica...