Lectura 4:00 min
Los peligros latentes en la inteligencia artificial
El éxito en la creación de inteligencia artificial sería el evento más grande en la historia de la humanidad. Desafortunadamente, también podría ser el último, a menos que aprendamos a evitar los riesgos”.
Stephen Hawking
Desde hace un par de años, las discusiones en torno a los beneficios y los riesgos de la inteligencia artificial se han incrementado. Esto me recordó una plática que escuché hace un tiempo, de Nick Bostrom, un filósofo sueco que, entre otros temas, se ha especializado en los peligros de la llamada súper inteligencia, que es la posibilidad, cada vez más cercana, de que un agente artificial posea una inteligencia superior a la de cualquier ser humano. Los expertos en inteligencia artificial no se han puesto de acuerdo sobre cuándo dicho agente dejará de ser un sueño ―o una pesadilla―. Veamos.
Todo lo que la especie humana ha logrado depende de cambios evolutivos relativamente menores que han moldeado la mente humana. Cualquier transformación subsecuente en el pensamiento puede tener grandes consecuencias: la inteligencia artificial es uno de esos cambios que tendrá efectos de enorme magnitud sobre los cuales debemos reflexionar.
No hace muchos años la inteligencia artificial se trataba simplemente de insertar comandos en una caja o máquina de Turing y los programadores construían de forma rudimentaria sistemas de información. Hoy, se ha dado un cambio paradigmático, donde las máquinas crean algoritmos que son capaces de aprender. El resultado es una inteligencia artificial multidimensional, capaz de realizar diferentes procesos que están cada vez más cerca de igualar algunas técnicas de aprendizaje de la mente humana.
Algunos expertos en inteligencia artificial estiman que, en un par de décadas, las computadoras tendrán el mismo nivel intelectual y habilidad de realizar tareas que un humano adulto. Sin embargo, hay especialistas que advierten que estamos más cerca de lo que pensamos, vistos los recientes adelantos en la materia.
Si bien no sabemos con toda certeza cuándo se lograrán estos avances, no hay duda de que los límites del procesamiento de información superarán eventualmente nuestros límites biológicos.
El potencial de la inteligencia artificial permanece latente de la misma forma que el átomo se mantuvo latente hasta 1945 y provocará una revolución a la misma escala. Eventualmente, el destino de la humanidad dependerá de lo que haga la súper inteligencia. Esto significa que, de acuerdo con lo planteado por Bostrom, la inteligencia artificial podría ser la última invención que tendrá que hacer el ser humano y todas las tecnologías antes imaginadas en ciencia ficción pueden convertirse en una realidad.
La súper inteligencia podrá tener una madurez tecnológica extremadamente poderosa, lo cual podría significar un futuro moldeado por sus preferencias. Para entender este sistema es necesario evitar pensarlo en la escala humana y concebir la inteligencia artificial de forma más abstracta. La inteligencia debe entenderse como un proceso de optimización con una configuración particular.
La súper inteligencia es un proceso de optimización que utiliza todos los medios disponibles para alcanzar una meta, lo cual no significa necesariamente que haya una conexión entre inteligencia y un objetivo que los humanos consideren como deseable.
De acuerdo con Bostrom, los seres humanos no pueden confiar que tendrán a la inteligencia artificial bajo control y pensar que, si empiezan a obtenerse resultados no deseados, la tecnología puede apagarse.
Esto se debe a que las personas se han vuelto altamente dependientes de la tecnología y la inteligencia artificial podría ser capaz de anticipar amenazas y actuar. La única salida es crear una inteligencia artificial que aprenda acerca de lo que los seres humanos valoran, que contemple objetivos que los seres humanos calificarían como deseables y que actúe de acuerdo con esos valores.
*El autor es presidente y fundador de Grupo Salinas.
@RicardoBSalinas