Lectura 6:00 min
La IA necesita la supervisión de la ONU
Las Naciones Unidas deben establecer urgentemente una Agencia Internacional de Sistemas Basados en Datos para promover usos seguros y pacíficos de la inteligencia artificial y garantizar que estos sistemas respeten los derechos humanos. Una institución de este tipo también tendría autoridad regulatoria para ayudar a determinar la aprobación en el mercado de productos de IA.
ZÚRICH. Muchos científicos y líderes tecnológicos han hecho sonar la alarma sobre la inteligencia artificial en los últimos años, emitiendo terribles advertencias que no se habían escuchado desde el advenimiento de la era nuclear. Elon Musk, por ejemplo, ha dicho que “la IA es mucho más peligrosa que las armas nucleares”, lo que le llevó a formular una pregunta importante: “¿Por qué no tenemos supervisión regulatoria? Esto es una locura”.
El difunto Stephen Hawking expresó una observación similar: “A menos que aprendamos a prepararnos y evitar los riesgos potenciales, la IA podría ser el peor evento en la historia de nuestra civilización. Trae peligros, como poderosas armas autónomas o nuevas formas para que unos pocos opriman a la mayoría”.
Dadas las consecuencias potencialmente catastróficas de una IA no controlada, existe una clara necesidad de barreras internacionales para garantizar que esta tecnología emergente (más exactamente llamada sistemas basados en datos) sirva al bien común. Específicamente, eso significa garantizar que los derechos humanos se respeten en todo el mundo, incluso en línea.
Con ese fin, los gobiernos deberían introducir regulaciones que promuevan sistemas basados en datos que busquen proteger a los impotentes de los poderosos, garantizando que los derechos humanos sean respetados, protegidos, implementados y realizados durante todo el ciclo de vida de dichos sistemas, incluido el diseño, el desarrollo, producción, distribución y uso.
Igualmente importante es que las Naciones Unidas deban establecer urgentemente una Agencia Internacional de Sistemas Basados en Datos (IDA), un organismo de vigilancia global de la IA que promueva el uso seguro, sostenible y pacífico de estas tecnologías, garantice que respeten los derechos humanos y fomente la cooperación. en el campo. También tendría autoridad regulatoria para ayudar a determinar la aprobación en el mercado de productos de IA. Dadas las similitudes entre los sistemas basados en datos y las tecnologías nucleares, la Agencia Internacional de Energía Atómica (OIEA) sería el mejor modelo para una institución de este tipo, sobre todo porque es una de las pocas agencias de la ONU con dientes.
El éxito de la OIEA ha demostrado que somos capaces de actuar con cautela y prohibir la búsqueda ciega de avances tecnológicos cuando el futuro de la humanidad y del planeta está en juego. Después de que los bombardeos de Hiroshima y Nagasaki revelaran las devastadoras consecuencias humanitarias de la guerra nuclear, se restringieron la investigación y el desarrollo en el campo de la tecnología nuclear para evitar resultados aún peores. Esto fue posible gracias a un régimen internacional –la OIEA– con fuertes mecanismos de aplicación.
Un número creciente de expertos de todo el mundo ha pedido el establecimiento de una IDA y ha apoyado la creación de sistemas basados en datos y fundamentados en el respeto de los derechos humanos. The Elders, un grupo independiente de líderes globales fundado por Nelson Mandela, ha reconocido los enormes riesgos de la IA y la necesidad de que una agencia internacional como la OIEA “gestione estas poderosas tecnologías dentro de protocolos de seguridad sólidos” y garantice que se “utilicen” de manera consistente con el derecho internacional y los tratados de derechos humanos”. En consecuencia, alientan a los países a presentar una solicitud a la Asamblea General de la ONU para que la Comisión de Derecho Internacional redacte un tratado internacional que establezca una nueva agencia de seguridad de la IA.
Entre los partidarios influyentes de un marco regulatorio jurídicamente vinculante para la IA se encuentra Sam Altman, director ejecutivo de OpenAI, cuyo lanzamiento público de ChatGPT a finales de 2022 inició la carrera armamentista de la IA. El año pasado, Altman pidió una autoridad internacional que pueda, entre otras cosas, “inspeccionar sistemas, exigir auditorías, comprobar el cumplimiento de las normas de seguridad (y]) imponer restricciones a los grados de implementación y niveles de seguridad”. Incluso el papa Francisco ha enfatizado la necesidad de establecer una institución multilateral que examine las cuestiones éticas que surgen de la IA y regule su desarrollo y uso mediante “un tratado internacional vinculante”.
La ONU, por su parte, ha destacado la importancia de promover y proteger los derechos humanos en los sistemas basados en datos. En julio de 2023, el Consejo de Derechos Humanos adoptó por unanimidad una resolución sobre “Tecnologías digitales nuevas y emergentes y derechos humanos”, que señala que estas tecnologías “pueden carecer de una regulación adecuada” y destaca la necesidad “de medidas efectivas para prevenir, mitigar y remediar impactos adversos de dichas tecnologías sobre los derechos humanos”. Con ese fin, la resolución exige el establecimiento de marcos para las evaluaciones de impacto, el ejercicio de la debida diligencia y la garantía de recursos efectivos, supervisión humana y responsabilidad legal.
Más recientemente, en marzo, la Asamblea General de la ONU adoptó por unanimidad una resolución sobre “Aprovechar las oportunidades que brindan los sistemas de inteligencia artificial seguros y confiables para el desarrollo sostenible”. Esta histórica resolución reconoce que “los mismos derechos que las personas tienen fuera de línea también deben protegerse en línea, incluso durante todo el ciclo de vida de los sistemas de inteligencia artificial”.
Ahora que la comunidad internacional ha reconocido el imperativo de proteger los derechos humanos en sistemas basados en datos, el próximo paso es obvio: la ONU debe ahora traducir este consenso global en acción mediante el establecimiento de una AIF.
El autor
Peter G. Kirchschläger, profesor de Ética y director del Instituto de Ética Social ISE de la Universidad de Lucerna, es profesor invitado en el Centro de Inteligencia Artificial de la ETH Zúrich.
Derechos de autor: Project Syndicate, 2024.