Buscar
Opinión

Lectura 7:00 min

La aburrida verdad de la IA

Pensar que la inteligencia artificial avanza a gran velocidad y crea riesgos existenciales para la humanidad es confundir manía con progreso útil. La tecnología se parece menos a las armas nucleares que a muchas otras tecnologías que han evolucionado lentamente y que han aparecido antes, desde la telefonía hasta las vacunas.

CAMBRIDGE. Los expertos que advierten sobre los riesgos catastróficos de la inteligencia artificial y los equiparan a los de la aniquilación nuclear ignoran la naturaleza gradual y difusa del desarrollo tecnológico. Como sostuve en mi libro de 2008, The Venturesome Economy, las tecnologías transformadoras —desde el motor a vapor, el avión, la computadora, la telefonía móvil e Internet hasta los antibióticos y las vacunas de ARNm— evolucionan mediante un juego prolongado y en el que participa una cantidad masiva de actores, que desafía el comando y control verticalistas.

El vendaval de destrucción creativa propuesto por Joseph Schumpeter, y otras teorías más recientes que anuncian con bombos y platillos los avances disruptivos, es engañoso. Como mostraron el especialista en historia económica Nathan Rosenberg y muchos otros, las tecnologías transformadoras no surgen repentinamente de la nada, sino que para lograr avances significativos es necesario descubrir y superar gradualmente muchos problemas imprevistos.

Las nuevas tecnologías crean nuevos riesgos, siempre se desarrollan aplicaciones militares junto con los usos comerciales y civiles: los aviones y vehículos terrestres motorizados se vienen utilizando en los conflictos desde la Primera Guerra Mundial, y las computadoras personales y la comunicación móvil son indispensables para la guerra moderna. Sin embargo, la vida sigue; las sociedades tecnológicamente avanzadas han desarrollado mecanismos legales, políticos y a través de las fuerzas del orden para contener los conflictos y la criminalidad que los avances tecnológicos hacen posibles. La jurisprudencia es fundamental en Estados Unidos y otros países que se rigen por el derecho anglosajón o common law; esos mecanismos —como las propias tecnologías— evolucionan y se adaptan, producen soluciones pragmáticas en vez de constructos visionarios.

El proyecto Manhattan, que desarrolló la bomba atómica y contribuyó a poner fin a la Segunda Guerra Mundial, fue una excepción. Su mandato era militar y de alta prioridad. Como los nazis estaban tratando de desarrollar su propia bomba, la velocidad y el liderazgo eficaz eran fundamentales. Y cuando la guerra termonuclear sin cuartel se convirtió en una amenaza real, el arte de gobernar y la disuasión estratégica evitaron el día del juicio final.

Pero las armas nucleares son una analogía engañosa de la IA, que siguió el patrón habitualmente difuso y entrecortado de la mayoría de las transformaciones tecnológicas. La IA abarca tecnologías dispares —como el aprendizaje automático, el reconocimiento de patrones y el procesamiento del lenguaje natural— y sus aplicaciones son extremadamente amplias. La característica que las une es principalmente aspiracional: ir más allá del mero cálculo para lograr inferencias e interpretaciones especulativas, pero útiles.

A diferencia del proyecto Manhattan, que avanzó a una velocidad vertiginosa, los desarrolladores de la IA vienen trabajando en ella desde hace más de siete décadas, insertándola silenciosamente en todo, desde las cámaras digitales y los escáneres hasta los teléfonos automáticos y los sistemas de frenado automático e inyección de combustible en los automóviles, los efectos especiales en las películas, las búsquedas de Google, las comunicaciones digitales y las plataformas de redes sociales. Y, como ocurrió con otros avances tecnológicos, desde hace mucho se la usa con fines militares y criminales.

Sin embargo, el progreso de la IA ha sido gradual e incierto. La computadora Deep Blue de IBM derrotó al campeón mundial de ajedrez Garry Kasparov en 1997, 40 años después de que un investigador de IBM escribiera el primer programa para jugar al ajedrez. Y aunque el sucesor de Deep Blue, Watson, ganó 1 millón de dólares por derrotar a quienes en ese momento eran campeones del programa de preguntas y respuestas Jeopardy! en 2011, fue un fracaso comercial: en 2022, IBM vendió Watson Health por una fracción de los miles de millones de dólares que había invertido en él. El asistente inteligente de Microsoft, Clippy, fue ridiculizado, y después de años de desarrollo, los teclados predictivos siguen creando resultados embarazosos.

El aprendizaje automático —básicamente, un procedimiento estadístico mejorado del que dependen muchos programas de IA— requiere una retroalimentación confiable, pero eso depende de resultados inequívocos generados a través de un proceso estable. Las intenciones humanas ambiguas, y la impulsividad y creatividad dificultan el aprendizaje estadístico y limitan, por lo tanto, el alcance útil de la IA. Aunque los programas de IA reconocen impecablemente mi rostro en los aeropuertos, no logran comprender de manera precisa las sutilezas cuando hablo lenta y cuidadosamente. Las imprecisiones de 16 generaciones de programas profesionales de dictado (compré el primero 1997) me han resultado frustrantes en reiteradas ocasiones.

Los grandes modelos de lenguaje (LLM, por su sigla en inglés), que se han convertido en la cara visible de la IA, no son rupturas tecnológicas que trascienden mágicamente los límites del aprendizaje automático, quienes afirman que la IA avanza a una velocidad increíble confunden los avances útiles con una manía. Comencé a usar con entusiasmo las búsquedas con IA allá por la década de 1990, por lo que mis expectativas eran altas cuando me inscribí en la versión beta de ChatGPT en diciembre de 2022, pero la ilusión de que ese sistema, o algún otro LLM, me ayudase a escribir el libro que estaba preparando quedó trunca. Aunque los LLM respondían con oraciones entendibles a preguntas planteadas en lenguaje natural, sus respuestas, que sonaban convincentes, a menudo eran inventos.

Por ello, aunque descubrí que mis búsquedas en Google en la década de 1990 me ahorraron una enorme cantidad de tiempo, la necesidad de verificar la veracidad de las respuestas de los LLM afectó negativamente mi productividad. Mis intentos para usarlos en la edición y las ilustraciones del manuscrito también resultaron en una pérdida de tiempo. Esas experiencias me hacen temblar cuando pienso en los programas informáticos llenos de errores generados con LLM que se lanzan al mundo.

Dicho eso, las fantasías de los LLM pueden ser complementos valiosos para la creación de historias y otros productos de entretenimiento. Es posible que chatbots sean capaces de aumentar los beneficios con atención al cliente barata, aunque exasperante. Tal vez algún día un avance revolucionario aumente los usos útiles de esa tecnología... por ahora, sin embargo, esos objetos parlantes —a menudo mendaces— no justifican ni la euforia ni el pánico por “riesgos existenciales para la humanidad”. Lo mejor es mantener la calma y dejar que la tradicional evolución descentralizada de la tecnología, las leyes y regulaciones siga su camino.

El autor

Amar Bhidé, profesor de políticas sanitarias de la Escuela de Salud Pública Mailman de la Universidad de Columbia, publicará en breve Uncertainty and Enterprise: Venturing Beyond the Known [Incertidumbre e iniciativa: más allá de lo conocido] (Oxford University Press).

Copyright: Project Syndicate, 2024

www.project-syndicate.org

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas

Suscríbete