Buscar
Tecnología

Lectura 6:00 min

6 propuestas de regulación de la inteligencia artificial

La Unión Europea, China, Chile y Argentina están entre los países donde comienzan a surgir intentos por regular la inteligencia artificial.

Ilustración EE: Nayelly Tenorio

El crecimiento de la industria de inteligencia artificial ha hecho que los gobiernos comiencen a discutir su regulación. La Unión Europea, China, Chile y Argentina están entre los países donde comienzan a surgir intentos por regular la inteligencia artificial, casos que fueron recopilados por la Facultad de Derecho y el IALab de la Universidad de Buenos Aires en las Propuestas de regulación y recomendaciones de inteligencia artificial en el mundo

De acuerdo con el Índice de Inteligencia Artificial de la Universidad de Stanford, en 2023 se produjeron 32 modelos de inteligencia artificial dentro de la industria y sólo 3 en la academia.

1. Unión Europea

En abril de 2021, la Comisión Europea recibió la propuesta de Reglamento por el que se establecen Normas Armonizadas en materia de inteligencia artificial, la cual se sigue discutiendo hasta la fecha en el Parlamento y Consejo Europeos y que se ha convertido en la legislación a la que más se hace referencia cuando se discute acerca de la regulación en inteligencia artificial.  

Esta propuesta de regulación para la Unión Europea considera prácticas de inteligencia artificial prohibidas y sistemas de inteligencia artificial de alto riesgo.

Prácticas de inteligencia artificial prohibidas:

  • La venta, el servicio o el uso de sistemas de inteligencia artificial que utilice técnicas subliminales para alterar el comportamiento de una persona de modo tal que se dañe a sí misma o a otra persona, física o psicológicamente.  
  • La venta, el servicio o el uso de sistemas de inteligencia artificial por parte de las autoridades para evaluar la fiabilidad de personas físicas atendiendo a su conducta social o a características personales, de modo que que se cause un trato perjudicial o desfavorable a determinadas personas o colectivos enteros.  
  • El uso de sistemas de identificación biométrica en tiempo real en espacios de acceso público para la aplicación de la ley. La restricción de esta práctica se exceptúa en caso de que su propósito sea “la búsqueda selectiva de posibles víctimas concretas de un delito, incluidos menores desaparecidos; la prevención de una amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas o de un atentado terrorista, y la detección, la localización, la identificación o el enjuiciamiento de la persona que ha cometido o se sospecha que ha cometido ciertos delitos”.

Sistemas de inteligencia artificial de alto riesgo:

Los sistemas de IA de alto riesgo son aquellos que sirven para la identificación biométrica y categorización de personas físicas; la gestión y funcionamiento de infraestructuras esenciales; los utilizados para el acceso de estudiantes o su evaluación dentro del sistema educativo; aquellos que se usan para la selección, contratación y promoción de trabajadores; para el acceso y disfrute de servicios públicos y privados esenciales y sus beneficios; en asuntos relacionados con la aplicación de la ley; en la gestión de la migración, el asilo y el control fronterizo y en la administración de justicia y procesos democráticos.

Estos sistemas de alto riesgo, según los cataloga el proyecto de reglamento para la Unión Europea, cuentan con requisitos, como el establecimiento de un sistema de gestión de riesgos; obligaciones de transparencia; además de que la regulación propone la existencia de sandboxes de inteligencia artificial, es decir, espacios controlados de pruebas de esta tecnología.  

2. Chile

El Congreso chileno es otro de los organismos gubernamentales que ha abordado una iniciativa para regular la inteligencia artificial. El proyecto de Ley que Regula los Sistemas de Inteligencia Artificial, la Robótica y las Tecnologías Conexas, en sus distintos ámbitos de aplicación fue presentado en abril de 2023.

Esta iniciativa, de forma similar al reglamento de la Unión Europea, considera a sistemas de riesgo inaceptable y a los sistemas de alto riesgo, y a ambos les asigna prácticamente las mismas definiciones que los de la iniciativa europea. 

3. Brasil

En el caso de Brasil, se han presentado dos proyectos de ley para regular el uso de sistemas de inteligencia artificial, una en 2020 y otra en 2023. Mientras que el primero era bastante limitado, al establecer solo algunos principios, derechos y obligaciones; el segundo, igual que en el caso de Chile, recoge prácticamente el mismo enfoque que el de la Unión Europea, aunque también incluye derechos específicos de las personas afectadas por la Inteligencia Artificial

4. Argentina

Argentina ha aprobado una serie de Recomendaciones para una IA fiable, orientadas exclusivamente a quienes formen parte del sector público y que están basadas sobre todo en estándares internacionales sobre principios éticos de la inteligencia artificial, incluidos en documentos como las Recomendaciones sobre la ética de la IA de la Unesco, los principios de la OCDE sobre Inteligencia Artificial y la Conferencia de Asilomar organizada por el instituto Future of Life. 

5. China

A diferencia del proyecto de reglamento de la Unión Europea, las Medidas Provisionales para la Gestión de Servicios de Inteligencia Artificial Generativa de China, que entrarán en vigencia el 15 de agosto de 2023, establecen una serie de reglas que los distintos componentes de la cadena de valor de la inteligencia artificial deben observar en el desarrollo de esta tecnología. 

Las medidas abordan desde cuestiones políticas que deben ser tomadas en cuenta por los desarrolladores de contenido con inteligencia artificial; pasando por cuestiones de discriminación, ética comercial, transparencia, etiquetado de datos, obligaciones de los proveedores y derechos de los usuarios.

6. El marco de la OCDE 

Los 36 países que integran la OCDE, incluido México, firmaron, en mayo de 2019, un primer conjunto de directrices de políticas intergubernamentales en materia de inteligencia artificial, que consideran seis principios y cinco recomendaciones para la elaboración de políticas públicas o regulaciones sobre Inteligencia Artificial.

Entre los principios se encuentra el crecimiento inclusivo, desarrollo sostenible y el bienestar; la transparencia y explicabilidad y la rendición de cuentas. Mientras que la OCDE recomienda invertir en investigación y desarrollo de IA; dar forma a un entorno político propicio para la IA; así como desarrollar la capacidad humana y prepararse para la transformación del mercado laboral.  

rodrigo.riquelme@eleconomista.mx

Reportero de Tecnología

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas