Buscar
Tecnología

Lectura 8:00 min

¿Quién quiere regular la inteligencia artificial?

Foto: Shutterstock

Foto: Shutterstock

En el invierno de 2016, el gestor de domótica Google Nest realizó una actualización del software de sus termostatos que causó un daño en las baterías. Un gran número de usuarios quedó desconectado, aunque muchos pudieron cambiar las baterías, comprar un nuevo termostato o esperar a que Google lo solucionase. La empresa indicó que el fallo habría sido causado por el sistema de inteligencia artificial (IA) que gestionaba esas actualizaciones.

¿Qué hubiera pasado si la mayor parte de la población usase uno de esos termostatos y el fallo dejase a medio país expuesto al frío durante días? Un problema técnico se habría convertido en una emergencia social que habría requerido de la intervención del estado. Todo por un sistema de inteligencia artificial defectuoso.

Ninguna jurisdicción en el mundo ha desarrollado una regulación comprensiva y específica para los problemas generados por la inteligencia artificial. Eso no quiere decir que exista un vacío legislativo completo: muchos de los daños que la inteligencia artificial pueda causar tienen otras vías de respuesta.

Por ejemplo:

  1. Para accidentes causados por coches autónomos los seguros seguirán siendo el primer destinatario de las reclamaciones.

  2. Las compañías que utilicen sistemas de inteligencia artificial para sus procesos de selección laboral podrán ser demandadas en caso de incurrir en prácticas discriminatorias.

  3. Las aseguradoras que incurran en prácticas contra el consumidor derivadas de los análisis generados por sus modelos de inteligencia artificial para fijar precios y decidir a quién aseguran seguirán teniendo que responder como empresas.

En general, otras normas que ya existen –como el derecho de contratos, transporte, daños, de consumo, incluso normas de protección de los derechos humanos– cubrirán de manera adecuada muchas de las necesidades regulatorias de la inteligencia artificial.

En general no parece suficiente. Existe un cierto consenso en que el uso de estos sistemas va a generar problemas que no tienen fácil solución en nuestros sistemas jurídicos. Desde la difusión de responsabilidad entre desarrolladores y usuarios profesionales hasta la escalabilidad de los daños, los sistemas de inteligencia artificial desafían nuestra lógica jurídica.

Por ejemplo, si una inteligencia artificial encuentra información ilegal en la web profunda y toma decisiones de inversión basadas en ella, ¿debe responder el banco que gestiona los fondos de pensiones o la empresa que crea el sistema automatizado de inversión por esas prácticas ilegales de inversión?

Si una comunidad autónoma decide incorporar un copago en recetas médicas gestionado por un sistema de inteligencia artificial y ese sistema comete pequeños errores (por ejemplo, unos céntimos en cada receta), pero que afectan a casi toda la población, ¿quién es responsable por la falta de control inicial? ¿La administración? ¿El contratista que instala el sistema?

Hacia un sistema regulatorio europeo (y global)

Desde la presentación en abril de 2021 de la propuesta de reglamento de la Unión Europa para la regulación de la inteligencia artificial, la llamado AI Act, se ha puesto en marcha el lento proceso legislativo que debería llevarnos a un sistema regulatorio para todo el Espacio Económico Europeo y, tal vez, Suiza, en 2025. Los primeros pasos ya se están haciendo notar con las agencias estatales, que ejercerán parte del control sobre los sistemas.

Pero ¿qué pasa fuera de la Unión Europea? ¿Quién más quiere regular la inteligencia artificial?

En estas cuestiones tendemos a mirar a Estados Unidos, China y Japón, y a menudo asumimos que la legislación es una cuestión de grados: más o menos protección ambiental, más o menos protección del consumidor. Sin embargo, en el contexto de la inteligencia artificial sorprende lo diferentes que son las visiones de los legisladores.

Estados Unidos

En Estados Unidos la legislación fundamental sobre IA es una norma de limitado contenido sustantivo, más preocupada por la ciberseguridad que, en su lugar, remite a otras técnicas regulatorias indirectas, como la creación de estándares. La idea subyacente es que los estándares desarrollados para controlar el riesgo de los sistemas de inteligencia artificial irán siendo aceptados voluntariamente por las empresas y devendrán sus normas de facto.

Para mantener un cierto control sobre esos estándares, en lugar de dejarlo al arbitrio de las organizaciones que normalmente desarrollan estándares técnicos y son controladas por las propias empresas, en este caso los estándares de control del riesgo de los sistemas de IA están siendo desarrollados por una agencia federal (NIST).

Estados Unidos está así inmerso en un proceso abierto a industria, consumidores y usuarios para crear estándares. Este va ahora acompañado por un borrador de la Casa Blanca para una Carta de Derechos para la IA, también de carácter voluntario. Al mismo tiempo, numerosos estados están intentando desarrollar legislación específica para ciertos contextos concretos, como el uso de inteligencia artificial en procesos de selección laboral.

China

China ha desarrollado un complejo plan para no solo liderar el desarrollo de la inteligencia artificial, sino también su regulación.

Para ello, combinan:

  1. Experimentación regulatoria (ciertas provincias podrán desarrollar sus propias normas para, por ejemplo, facilitar el desarrollo de la conducción autónoma).

  2. Desarrollo de estándares (con un complejo plan que cubre más de treinta subsectores).

  3. Regulación dura (por ejemplo, de los mecanismos de recomendación en internet para evitar recomendaciones que puedan alterar el orden social).

Por todo ello, China está comprometida con un control regulatorio de la inteligencia artificial que no impida su desarrollo.

Japón

En Japón, en cambio, no parecen particularmente preocupados por la necesidad de regular la inteligencia artificial.

En su lugar confían en que su tradición de partenariado entre estado, empresas, trabajadores y usuarios evite los peores problemas que la inteligencia artificial pueda causar. De momento centran sus políticas en el desarrollo de la sociedad 5.0.

Canadá

Tal vez el país más avanzado desde un punto de vista regulatorio sea Canadá. Allí, desde hace dos años, todo sistema de inteligencia artificial usado en el sector público debe someterse a un análisis de impacto que prevea sus riesgos.

Para el sector privado el legislativo canadiense está discutiendo ahora una norma similar (si bien mucho más simplificada) a la europea. Un proceso similar fue iniciado el año pasado en Brasil. Si bien parecía haber perdido impulso, puede ahora ser rescatado tras las elecciones.

De Australia a India

Otros países, desde México a Australia, pasando por Singapur e India, están en una situación de compás de espera.

Estos países parecen confiar en que sus normas actuales puedan adaptarse para prevenir los peores daños que la inteligencia artificial pueda causar y permitirse esperar a ver qué pasa con otras iniciativas.

Dos partidos con visiones diferentes

Dentro de esta diversidad legislativa se están jugando dos partidos.

El primero, entre los partidarios de que es demasiado pronto para regular una tecnología disruptiva –-y no bien entendida-– como la inteligencia artificial; y aquellos que prefieren tener un marco regulatorio claro que ataque los principales problemas y que al mismo tiempo cree seguridad jurídica para los desarrolladores y usuarios.

El segundo partido, y tal vez el más interesante, es una competición por ser el regulador de facto a nivel global de la inteligencia artificial.

La apuesta de la Unión Europea es clara: crear normas primero que vinculen a todo aquel que quiera vender sus productos en su territorio. El éxito del Reglamento General de Protección de Datos, que es hoy por hoy la referencia global para empresas tecnológicas, anima a las instituciones europeas a seguir dicho modelo.

Frente a ellos, China y Estados Unidos han optado por evitar regulaciones detalladas, con la esperanza de que sus empresas puedan desarrollarse sin excesivas cortapisas y que sus estándares, aun voluntarios, se conviertan en la referencia para otros países y empresas.

En esto, el tiempo juega en contra de Europa. Estados Unidos publicará la primera versión de sus estándares en los próximos meses. La Unión Europea no contará con una legislación aplicable hasta dentro de dos años. Tal vez el exceso de ambición europea vaya a tener un coste, dentro y fuera del continente, creando normas que cuando entren en vigor hayan sido ya sobrepasadas por otras regulaciones. The Conversation

José-Miguel Bello y Villarino, Researcher Fellow Automated Decision-Making and Society ARC CoE / Diplomat (on leave), University of Sydney

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas

Suscríbete