Buscar
Opinión

Lectura 6:00 min

La forma correcta de regular la IA

Las nuevas tecnologías suelen tener consecuencias no deseadas que son difíciles de revertir, lo que probablemente también se aplique a la inteligencia artificial. Pero en lugar de detener el desarrollo de la IA, deberíamos participar en más experimentos a pequeña escala para identificar daños potenciales cuando todavía sea posible limitarlos.

TORONTO, La llegada de nuevas tecnologías tiende a avivar una ansiedad generalizada, más comúnmente acerca de la automatización y el desplazamiento de trabajadores humanos. Los luditas al comienzo de la era industrial son quizás el ejemplo más citado de esta tecnofobia, pero desde entonces tales preocupaciones han surgido periódicamente.

Sin embargo, la amenaza percibida de la inteligencia artificial parece mayor en comparación con los avances tecnológicos del pasado. La gente está preocupada no sólo por el reemplazo humano, sino también por la posibilidad de su extinción. Últimamente, los tecnólogos se han estado preguntando unos a otros: “¿Cuál es tu p(perdición)?” (la estimación que uno hace de la probabilidad de que la IA destruya a la humanidad). La respuesta puede variar según el día. Pero el número exacto seleccionado en la escala de cero a 100 importa menos que la pregunta subyacente: ¿qué tan pesimista eres acerca de la IA?

En marzo de 2023, más de 1,000 investigadores y ejecutivos de tecnología firmaron lo que se conoció como la carta de pausa. Pidieron a todos los laboratorios de IA que detuvieran durante al menos seis meses “el entrenamiento de sistemas de IA más potentes que ChatGPT-4”. Los firmantes iban desde el pionero de la IA, Yoshua Bengio, hasta el economista Daron Acemoglu y el multimillonario tecnológico Elon Musk. Es un grupo que no debería ser ignorado, pero, hasta donde yo sé, lo fueron. No hubo ninguna pausa perceptible, aunque vale la pena señalar que, al momento de escribir este artículo, no se ha lanzado ningún sistema de inteligencia artificial significativamente más poderoso que ChatGPT-4.

Los expertos que firmaron la carta de pausa se adhirieron al principio de precaución, que exige reducir el ritmo y aprender más si una actividad puede causar un daño irreparable. Pero por cada experto que hace hincapié en la precaución, hay otros que abogan por el rápido desarrollo de la tecnología de IA. Después de todo, durante más de una década, muchos economistas, incluido yo, hemos observado cómo las nuevas empresas llevaban al mercado increíbles avances en IA. Hubo avances en la detección del cáncer, sistemas de seguridad, herramientas para ayudar a los discapacitados, tutores para ampliar las oportunidades educativas y vehículos autónomos para aumentar la movilidad y la independencia de las personas mayores.

Una pausa sólo retrasaría esos beneficios. Entonces, si bien una pausa puede ser aconsejable, debemos asegurarnos de que nuestros temores sobre posibles daños se basen en algo más que especulaciones.

Para ayudar a determinar la validez de las preocupaciones sobre la IA, vale la pena comprender su procedencia. La primera es la experiencia histórica. La mayoría de las nuevas tecnologías tienen beneficios y costos y, a veces, los últimos superan a los primeros. Thomas Midgley Jr. inventó el tetraetilo de plomo, un aditivo de la gasolina que reduce las detonaciones del motor y mejora drásticamente la confiabilidad del vehículo, y el freón, una sustancia química clave para la refrigeración. Pero sus creaciones provocaron envenenamiento por plomo y liberaron clorofluorocarbonos que agotaron la capa de ozono, y ambos finalmente fueron prohibidos.

En su libro Power and Progress de 2023, Acemoglu y Simon Johnson sostuvieron que este resultado, en la mayoría de los casos, era la norma. Entonces, mientras los economistas generalmente creen que los beneficios de la mayoría de las nuevas tecnologías terminan superando los costos, otros ven la IA como la última de una larga lista de tecnologías potencialmente peligrosas que se adoptaron antes de comprender completamente cuáles podrían ser estos costos.

La segunda fuente de preocupación sobre la IA es que tiene varios daños identificables. Existen conflictos sobre cómo se entrenan dichos sistemas, como lo ejemplifica la demanda del New York Times contra OpenAI y Microsoft por presunta infracción de derechos de autor. Algunos innovadores han dejado claro que su objetivo es reemplazar a los trabajadores con IA, mientras que los estudiantes ya están utilizando grandes modelos de lenguaje para completar exámenes y tareas.

Además de perturbar la educación y el lugar de trabajo, la IA se ha utilizado para vigilar a los ciudadanos, imitar a personas mediante deepfakes y mejorar las armas militares. También existen preocupaciones legítimas de que las empresas establecidas que ya poseen grandes cantidades de datos mejoren su poder de mercado. Estos daños identificables pueden sopesarse con los beneficios de la tecnología y, si es necesario, abordarse mediante regulaciones o, como ocurre con el petróleo con plomo y los clorofluorocarbonos, mediante una prohibición total.

Esto nos lleva de nuevo al tercer motivo de preocupación: muchas de las consecuencias de las nuevas tecnologías son no deseadas e impredecibles, y esto probablemente también se aplicará a la IA. Por ejemplo, ahora existe una preocupación generalizada de que las redes sociales estén dañando la salud mental de los niños. Pero, lo que es más importante, no existe una solución regulatoria sencilla, dada la ubicuidad de estas plataformas.

El hecho de que las consecuencias no deseadas sean a menudo difíciles de revertir plantea sus propios problemas y parece forzar una elección binaria entre IA o ninguna IA. Pero éste es un falso dilema. De hecho, significa que deberíamos realizar más experimentos a pequeña escala con IA para identificar daños potenciales cuando todavía sea posible limitarlos.

La potencial irreversibilidad de las consecuencias no deseadas de una nueva tecnología también sugiere una solución más matizada y papel multifacético de la regulación de la IA. Debemos realizar investigaciones continuas para identificar las consecuencias inmediatamente después de que aparecen y realizar análisis apropiados de costo-beneficio. Además, deberíamos encontrar formas de hacer que la adopción de la IA sea más reversible, lo que podría implicar reformas institucionales y de infraestructura. Esto proporcionará un mayor nivel de seguro contra daños reales en caso de que la IA tenga efectos secundarios no deseados, al tiempo que garantizará que la sociedad pueda cosechar sus beneficios.

Este comentario ha sido adaptado de una conferencia que se pronunciará en el Festival Internacional de Economía de Turín.

El autor

Joshua Gans es profesor de Gestión Estratégica en la Rotman School of Management de la Universidad de Toronto.

Derechos de autor: Project Syndicate, 2024.

www.project-syndicate.org

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas

Suscríbete