Lectura 9:00 min
La Inteligencia Artificial está automatizando la muerte de personas: Brian Green
El académico de la Universidad de Santa Clara, California, visita México para presentarse en el festival El Aleph y hablar sobre las implicaciones éticas de la Inteligencia Artificial.
La Inteligencia Artificial requiere de un marco ético que acompañe el desarrollo de esta tecnología, de acuerdo con Brian Green, investigador de la Universidad de Santa Clara, California, quien estudia las normas que deben observar los desarrolladores y usuarios de los sistemas de Inteligencia Artificial y aprendizaje automatizado (machine learning).
En entrevista con El Economista, en el marco del festival El Aleph, organizado por la UNAM, el académico estadounidense habla sobre cómo se define la ética en relación con la Inteligencia Artificial; los sesgos que esta tecnología replica de sus desarrolladores y de los riesgos que supone si no se pone atención a su dimensión ética.
Green habla también del uso de Inteligencia Artificial en contextos bélicos, como es el caso del conflicto entre Israel y Palestina o entre Rusia y Ucrania, para los cuales advierte que la automatización podría llevar a una deshumanización aún mayor de las víctimas de la guerra.
—¿Cómo definiría la ética en el contexto de la inteligencia artificial y cómo cree que debería influir en el desarrollo y la aplicación de este tipo de tecnología?
—Lo primero que diría es que la ética es realmente importante para la inteligencia artificial, porque con la inteligencia artificial estamos tratando de sacar la inteligencia humana de nuestra mente y ponerla fuera de nosotros, en la realidad, para que funcione de forma automática. Si funciona automáticamente para hacer algo bueno, entonces eso es bueno. Pero si funciona automáticamente para hacer algo malo, entonces eso es realmente malo, porque simplemente seguirá haciendo esa cosa una y otra vez.
Entonces, se vuelve realmente importante asegurarse de que, a medida que se crean estas máquinas y, con suerte, antes de crear la máquina, ya se haya pensado en la ética para que la máquina pueda dirigirse de la mejor forma posible hacia sus usuarios.
—En situaciones en las que los algoritmos toman decisiones críticas, como en la justicia o en el cuidado de la salud, ¿cómo se pueden mitigar los sesgos y garantizar la equidad y la justicia?
Esto pasa porque los humanos que trabajan en el sistema de salud y de justicia ya tienen sesgos. Algunos médicos son mejores que otros médicos. Algunos jueces son más justos que otros jueces. Entonces, idealmente, la IA debería poder imitar solo los mejores elementos y nunca los peores. Pero la forma en que funciona un conjunto de datos en Inteligencia Artificial es que junta todo y por eso, es probable que haya algo malo. Habrá algún tipo de sesgo que ya está contaminando los resultados o dirigiendo la IA hacia la toma de decisiones erróneas.
Entonces, debemos ser conscientes de ello. Necesitamos tratar de deshacernos de esos sesgos, esa injusticia, pero luego hay otro sesgo en torno a la justicia que podría aparecer y que estaría en la dirección opuesta. Hemos visto esto con Google AI, por ejemplo. Trabajan muy duro para hacer que su modelo sea lo más diverso e inclusivo posible, pero luego tienes, ya sabes, nazis que representan a todas las etnias del mundo y cosas así. Han compensado en exceso en la otra dirección.
—¿Y quién debería ser el responsable cuando ocurren este tipo de fallas? ¿Deberían ser los desarrolladores, las empresas o tal vez, incluso, los usuarios?
Ésta es una pregunta muy delicada. Es muy difícil de responder. Hasta cierto punto, todos deberían ser responsables y, al mismo tiempo, tal vez nadie debería ser responsable. Entonces llegamos a la situación en la que tal vez el usuario toma una mala decisión, pero solo pudo tomar la mala decisión porque la empresa lo hizo posible, y solo se les permitió hacer eso, porque el gobierno no tenía una ley en contra. Entonces, los tres son responsables de esa manera y si todos son responsables, entonces nadie es responsable, que es la situación que tenemos ahora, cuando la gente niega su responsabilidad por este tipo de cosas. Pero en última instancia, es necesario resolver el problema y no se debería pensar en términos de diferentes partes que están luchando entre sí, sino en cómo se puede hacer que las diferentes partes cooperen. ¿Hay alguna manera de asegurarnos de que los usuarios estén lo suficientemente educados para no tomar malas decisiones? ¿Hay formas de asegurarnos de que las corporaciones tengan ingenieros muy bien educados?
—El año pasado platiqué con el CEO de Google Cloud y me dijo que la regulación de los modelos de IA en diferentes países debería ser similar, porque este tipo de modelos son difíciles de implementar y si se necesita modificar cada modelo en cada país, habrá problemas. Pero, ¿qué piensas sobre la idea de establecer un código ético global o un sistema de supervisión independiente o una autoridad global?
—Este es un tema de relaciones internacionales y culturales realmente muy difícil, y es que las cosas que son aceptables en China no son aceptables en los Estados Unidos y viceversa. Entonces, tenemos que preguntarnos si existen valores éticos universales. Hay algunos valores éticos universales, pero son extremadamente básicos, hay cosas como asegurarse de que la civilización siga funcionando, que no mates a la gente, no cometas genocidio. Asegurar que la gente pueda tener familias e hijos y criar a la próxima generación y vivir un futuro sostenible es el segundo valor. El tercero es la división del trabajo. El cuarto es asegurarse de que haya un sistema educativo funcionando y el último es asegurarse de que se valore la verdad, porque si la gente no puede decir qué es verdad y qué es falso, terminas viviendo en un mundo que no es el mundo real y eso siempre tiene repercusiones negativas, extensamente negativas. Sin embargo, cuando entras en este sistema específico, como ¿qué significa buscar la verdad en China o en Estados Unidos? Bueno, en China se te permite vigilar a tu gente con mucho, mucho más detalle que en Estados Unidos. Entonces, la vigilancia es aceptable en China, pero no en los Estados Unidos. Entonces, este tipo de diferentes valores fácilmente podrían resultar en un mundo donde cada país deba tener su propio modelo de IA debido a los requisitos legales de ese país.
—¿Qué piensas sobre el uso de la IA en aplicaciones militares, por ejemplo, drones autónomos o incluso la selección de algunas personas?
— La Inteligencia Artificial se está usando en conflictos como el de Israel y el de Ucrania. Creo que todo el mundo entiende que las guerras son un fracaso en primer lugar. Pero cuando empiezas a automatizar la matanza de personas, hay algo realmente malo. Parece que no deberías poder simplemente configurar una máquina para que vaya y mate a alguien. ¿Cuál es la necesidad humana de guiar a un robot para que mate a alguien? Parece haber algo fundamentalmente irrespetuoso en simplemente dejar que la computadora lo haga. Como si ni siquiera fuera importante que un humano esté detrás de eso o que sienta los efectos negativos, los efectos psicológicos de saber que está matando a alguien.
Cuanto más lejos puedas matar a una persona es más fácil psicológicamente, porque los humanos, naturalmente, no queremos lastimarnos unos a otros de esa manera. Entonces, cuanto más fácil puedas hacer que nos lastimemos, más fácil será que las personas se maten y si seguimos delegando esto en la IA, entonces debemos empezar a pensar en un escenario de ciencia ficción, con máquinas súper inteligentes, en el que digas: "salgan y maten a los malos". Salen, los matan y regresan, y nunca viste nada de lo que sucedió.
—¿Cuál es tu opinión sobre la posibilidad de que la IA eventualmente supere o iguale a la inteligencia humana? ¿Y cuáles serían las implicaciones sociales de tal desarrollo?
—Bueno, una cosa que diría es que la IA ya ha superado la inteligencia humana en algunos aspectos. La forma número uno en que lo ha hecho hasta ahora es que es más rápida que nosotros. Entonces, si le pides a ChatGPT o Bard que te den una respuesta, te darán una larga respuesta escrita más rápido de lo que una persona podría siquiera hablar de ello. Por ejemplo, puedes usar un modelo como PaLM o LaMDA [modelos de lenguaje grande de Google] que funcionan muy bien en biología, química y física. Pueden responder a esas preguntas a un nivel de posgrado. Entonces, un nivel de respuesta de estudiante de doctorado, eso no es algo que casi cualquier humano tenga la capacidad de hacer, tal vez un estudiante de posgrado o un profesor. Pueden responder ese tipo de preguntas. Entonces, en algunos aspectos ya se está volviendo sobrehumano. Entonces, la siguiente pregunta es: ¿Es realmente inteligente en primer lugar? Y lo que diría es que, fundamentalmente, no es inteligente. Lo que está haciendo es creando asociaciones estadísticas entre palabras basadas en el conjunto de datos con el que está operando. Es como decir, si alguien te da estas palabras, estas son las palabras que les devuelves. No hay comprensión ahí. No hay conocimiento. No hay sabiduría en la medida en que tenga alguna de esas cosas. Es solo porque los encontró en internet y en algún lugar de su conjunto de datos. Y luego los combinó en su respuesta. Entonces, hay algunas cosas en las que ya es sobrehumana y hay otras en las que no lo es. Lo que diría es que la IA seguirá mejorando con el tiempo. Se volverá sobrehumana en más cosas todo el tiempo. Sin embargo, hay ciertas cosas en las que no será mejor que los humanos nunca.
rodrigo.riquelme@eleconomista.mx
rrg