Buscar
Opinión

Lectura 6:00 min

Externalizar nuestro futuro a la IA con fines de lucro

Los últimos acontecimientos sugieren que los responsables de las políticas y otras personas que ocupan puestos de autoridad pública están más que dispuestos a ceder el control total a las corporaciones que comercializan la inteligencia artificial. Una vez más, los beneficios seguirán siendo privados, pero los costos futuros inevitablemente correrán a cargo del público.

NUEVA YORK. En el transcurso del mes pasado, el gobernador de California, Gavin Newsom, vetó un proyecto de ley de seguridad de la inteligencia artificial, y la Real Academia Sueca de Ciencias le entregó el Premio Nobel de Química a David Baker, profesor de la Universidad de Washington, y a Demis Hassabis y John M. Jumper, empleados de la subsidiaria DeepMind de Google y de su empresa derivada Isomorphic Labs. Tal vez parezca que estos dos episodios tienen poco en común, pero juntos sugieren que externalizar el futuro de la humanidad a corporaciones privadas que maximizan el lucro es algo a celebrar. 

Si bien el proyecto de ley de California no era perfecto, representaba el primer esfuerzo sustancial para hacer que los desarrolladores se hicieran responsables de los potenciales perjuicios que sus modelos de IA pudieran causar. Asimismo, se centraba no sólo en cualquier riesgo sino en el “perjuicio crítico”, como el desarrollo de armas de destrucción masiva o la generación de un daño, como mínimo, de al menos 500 millones de dólares.

La industria tecnológica, Google incluida, hizo un lobby feroz contra el proyecto de ley, apelando a un argumento muy viejo. Como señaló la junta editorial del Financial Times, las nuevas regulaciones podrían “frenar el surgimiento de un tipo de innovación que podría ayudar a diagnosticar enfermedades, acelerar la investigación científica e impulsar la productividad”: Una vez más, esos costos de oportunidad se consideran más perjudiciales que cualquier daño que la IA pudiera causar a la capacidad de las personas de controlar su propio destino, o incluso de vivir en paz en sus sociedades.

El Premio Nobel 2024 representa la primera ocasión en que el galardón ha sido otorgado en una ciencia natural a empleados de una corporación multinacional. Todos los ganadores anteriores eran o habían sido profesores universitarios o investigadores de institutos de investigación financiados por el gobierno, que habían publicado sus resultados en publicaciones revisadas por pares y puesto sus hallazgos a disposición del mundo. Más allá de si fue o no la intención de la Academia sueca, su decisión de incluir a los investigadores de Google viene a legitimar la privatización de la ciencia, que ya no es parte de los bienes comunes de la humanidad. Como muchos otros recursos antes, la ciencia de IA está encerrada en un jardín amurallado al que sólo pueden acceder aquellos que pagan la entrada.

Es verdad, el modelo de IA AlphaFold2, que les valió el premio a Hassabis y a Jumper, junto con su código fuente, está a disposición del público. Según AlphaFold.com, “DeepMind de Google y el Instituto Europeo de Bioinformática de EMBL (EMBL-EBI) se han asociado para crear AlphaFold DB para que la comunidad científica pueda acceder a estas predicciones de manera gratuita”. Por otro lado, DeepMind tiene múltiples patentes para AlphaFold. Según la lógica de los derechos de propiedad, la empresa, no el público, siempre tendrá la última palabra sobre el uso de la tecnología. El sitio web de AlphaFold es una “.com”, lo que denota algo fundamentalmente diferente del Proyecto del Genoma Humano, por ejemplo, con su URL “.gov”.

En el mundo de la tecnología de la información, “gratis” nunca es gratis. Los pagos se hacen en datos, no en dólares. Los datos que le permiten a AlphaFold predecir la estructura tridimensional de una proteína provienen del domino público. El socio de DeepMind en el desarrollo de AlphaFold es una organización de investigación intergubernamental financiada por más de 20 estados miembro de la Unión Europea. Según Jumper, “los datos públicos fueron esenciales para el desarrollo de AlphaFold”. Sin los datos compilados y organizados por científicos que recibieron para ello dinero de los contribuyentes, AlphaFold no existiría.

A pesar de la clarividencia de los funcionarios públicos a la hora de crear esta gigantesca base de datos, los gobiernos suelen ser menospreciados por no tener el conocimiento, las capacidades, los recursos y la previsión necesarios para promover las innovaciones y hacer avanzar el progreso científico y económico. Constantemente nos dicen que sólo el sector privado, con sus incentivos monetarios convincentes, puede hacer lo necesario para impulsar al mundo hacia adelante.

En realidad, el sector privado normalmente se aprovecha del trabajo realizado por científicos financiados con dinero público o empleados por institutos públicos de investigación. El primer satélite fue lanzado por el gobierno de Estados Unidos, no por Elon Musk; el ejército norteamericano desarrolló Internet antes de que pasara a comercializarse, y las empresas farmacéuticas rara vez invierten en investigación básica. ¿Por qué preocuparse cuando se puede esperar a que los científicos financiados por los Institutos Nacionales de Salud de Estados Unidos u organismos similares hagan avanzar un campo hasta el punto en que se puedan hacer inversiones rentables?

Esa es la lógica de las corporaciones con ánimo de lucro. Su objetivo son los retornos financieros, no el progreso humano. Una vez en el juego, intentan monopolizar el conocimiento científico asegurándose patentes u ocultando sus hallazgos detrás de barreras provistas por la ley de secreto comercial. Sin la ayuda del Estado, no tendrían ni ciencia básica ni protecciones legales para los monopolios que les proporcionan grandes beneficios, que luego esgrimen como prueba de su superioridad sobre el gobierno.

No es difícil entender por qué las empresas privadas disfrutan de este juego. El misterio es por qué los gobiernos se prestan voluntariamente al juego de la industria, entregando años de investigación financiada con fondos públicos sin garantizar que la población tenga voz y voto a la hora de determinar cómo se la usa. La legislación de California habría exigido que los modelos de IA incluyeran una capacidad de desconexión total en caso de que las cosas salieran mal, pero esta estipulación se eliminó con el resto del proyecto de ley.

No hay nada nuevo en el argumento de que si no sabemos lo suficiente sobre los daños futuros, deberíamos abstenernos de interferir en los mercados “privados”, que siempre funcionan mejor sin la “interferencia” del gobierno. Las empresas petroleras y gasíferas dependieron de él cuando negaron el riesgo del cambio climático y su contribución al mismo, a pesar de que su propia investigación les dijera lo contrario. Sin embargo, aquí estamos otra vez. Aparentemente, deberíamos poner nuestro futuro en manos de las corporaciones privadas, cuyo sólo objetivo es maximizar el valor de los accionistas. ¿Qué podría salir mal?

La autora

Katharina Pistor, profesora de Derecho Comparativo en la Facultad de Derecho de Columbia, es la autora de The Code of Capital: How the Law Creates Wealth and Inequality (Princeton University Press, 2019).

Copyright: Project Syndicate, 2024

www.project-syndicate.org

Temas relacionados

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas

Suscríbete