Lectura 3:00 min
Inteligencia Artificial y ética
El martes 21 de marzo este diario publicó la siguiente información: «Bard, el robot conversacional de Google, ya está abierto para todo el público». Si bien Google entra de lleno a la competencia contra Chat GPT de OpenAI y Microsoft, lo cierto es que basta con visitar bard.google.com para ver que desde México el robot conversacional aún no está disponible del todo. Es cosa de tiempo. Quien haya tenido tiempo de «conversar» con estas inteligencias artificiales habrá notado el tremendo potencial que tienen para interactuar con seres humanos: construyen respuestas interesantes, y cada vez más complejas, a los planteamientos que les hacemos: desde información histórica a recetas para cocinar con un conjunto de ingredientes que el chat puede «leer» de una fotografía. Sin duda pronto será posible que esta herramientas den clases de historia a nivel básico o sean guías de museos. A muchos asusta esta perspectiva. Pero el problema viene de otro lado.
Los vendedores por internet llevan años utilizando Inteligencia Artificial para hacer más eficientes sus procesos, bajar sus costos y sugerirle al cliente productos que podrían ser de su preferencia. Pero también las compañías aseguradoras, los hospitales, los bancos han invertido buenas cantidades de recursos para mejorar sus herramientas de Inteligencia Artificial. Debemos tener en cuenta, como señala Christina Pazzanese en Ethical concerns mount as AI takes bigger decision-making role in more industries que si bien podría parecer que usar herramientas de Inteligencia Artificial para tomar decisiones por nosotros elimina nuestras subjetividades, nuestros intereses y prejuicios, lo cierto es que esto no es tan sencillo. Es fácil mostrar cómo los algoritmos detrás de los resultados que ofrecen las herramientas de las empresas o los propios buscadores de internet, pueden estar cargados con prejuicios dañinos. Esto es lo que pretende visibilizar el documental “Revolución vs el algoritmo”, cito la descripción que hace Wired de un fragmento del documental: «La actriz mexicana Maya Zapata le pide a Google que busque imágenes relacionadas con pobreza. El resultado arroja a personas morenas y migrantes cruzando por la frontera sur de México, sobre todo. “La pobreza es prieta”, dice la actriz».
Si los algoritmos van a decidir quién merece un puesto de trabajo, un tratamiento médico, un préstamo bancario, una beca, sin duda debemos poner atención a la discriminación dañina que se puede colar en su programación. Los gobiernos deberían regular lo que se permite al programar. Para ello necesitan entender que estudiar la incorrección moral de la discriminación es importante para atajar no solo el problema derivado del trato entre personas, sino del que surge del trato que nos den las inteligencias artificiales. Les dejo una liga al libro Trato de sombras, publicado por la UNAM y que es de libre acceso, que aborda distintos acercamientos a la discriminación.
Twitter: @munozoliveira