Los peligros de la inteligencia artificial están en el ser humano
Desde hace años se han generado discusiones sobre implicaciones alrededor de este desarrollo tecnológico que llevan a una interrogante: ¿Cuál es el riesgo de la inteligencia artificial?
Julio Sánchez Onofre
Feb 17, 2017 |
7:39
Foto: Reuters
relacionadas
compartir
Widgets Magazine

Al hablar de inteligencia artificial, los optimistas proyectan escenarios del futuro donde las computadoras nos ayudarán a entender el mundo, mejorar nuestra calidad de vida y desarrollar la llamada superinteligencia.

Desde hace varios años se han generado discusiones sobre las implicaciones éticas, económicas y culturales alrededor de este desarrollo tecnológico que llevan a una interrogante: ¿Cuál es el mayor riesgo de la inteligencia artificial?

NOTICIA: Compañías tecnológicas invirtieron 3,400 mdd en desarrollo de IA en 2016

“El mayor riesgo es que los humanos dejen de pensar por ellos mismos y que las máquinas piensen por nosotros”, dijo Jean Pierre Kloppers, director general de BrandsEye, plataforma dedicada a evaluar el comportamiento y la interacción de las personas en los ambientes virtuales.

La visión de Kloppers como de varios expertos participantes en el encuentro VOR Superinteligencias es que las máquinas no deberán tomar el control del mundo ni relegar las decisiones que toma el ser humano. Mark Riedl, director del Entertainment Intelligence Laboratory de Georgia Tech, pone el primer argumento: la inteligencia artificial puede tener fallas de origen de los datos y un ejemplo se puede encontrar en los vehículos autónomos.

“Los errores en la clasificación de la información usualmente está relacionada con los sensores pues no tienen la capacidad de reconocimiento como los humanos. Aun cuando las máquinas tengan un 99.95% de precisión en el análisis de datos, cuando los datos llegan erróneos, el análisis es erróneo”, explicó.

Su visión es que las mejores aplicaciones de inteligencia artificial serán aquellas en las que el ser humano sea quien determine la última decisión y tomar el control.

Y es que muchas de las decisiones y percepciones del mundo están basadas en los valores y en los contextos que las máquinas aún no son capaces de entender. El claro ejemplo está en “Tay”, un experimento de Microsoft en Twitter donde la máquina, a través de un sistema de aprendizaje a través de la interacción con los usuarios de la red social y basado en el cómputo cognitivo, se transformó en un robot xenófobo y racista. Y es que el bot de Microsoft no tuvo la capacidad de entender cuando un usuario hablaba en serio, realizaba una broma o lo hacía de forma sarcástica.

NOTICIA: La Inteligencia Artificial y el repensar del mercado laboral

Y este aspecto tampoco pudo ser detectado en las encuestas que daban por sentada la preferencia sobre la permanencia del Reino Unido en la Unión Europea, o de Hillary Clinton sobre Donald Trump en la carrera presidencial de Estados Unidos. Nadie lo vio venir, sólo aquéllos que entendieron el sentir de la ciudadanía durante el análisis de los datos de su vida digital.

Pero cuando la inteligencia artificial entra en otros aspectos de la vida pública como la impartición de justicia, se abren otros debates alrededor de la justicia y ética en la tecnología.

Brian Christian, autor del libro The Most Human Human recupera el caso de la tecnología de Northpoint utilizada para predecir comportamientos criminales, que fue investigada por ProPublica. El medio estadounidense reveló el año pasado que los algoritmos de esta empresa realizan una clasificación racial para determinar el índice de peligrosidad criminal de una persona. En conclusión, las personas de raza negra eran catalogadas como “peligrosas” aun cuando sus perfiles y antecedentes fueran similares a las de las personas blancas.

“En el siglo 21 los sistemas toman control en un nivel cada vez más profundo y están en posiciones de tomar decisiones. La pregunta es cómo hacemos que nuestros valores se incluyan en el sistema, e implementar esos valores es cada vez más importante cada día”, consideró.

¿Y si es el ser humano quien ha trasladado los valores negativos a su vida virtual? Fox Harrell, director del Imagination, Computation and Expression Laboratory del MIT, da evidencias de que esto ha sido así al analizar los avatares de los videojuegos. Uno de ellos, Oblivion.

NOTICIA: Con IA, Wipro quiere triplicar su tamaño en México

Harrell, utilizando un algoritmo, encontró que los avatares femeninos, los negros o incluso los pelirrojos tienen diferentes “capacidades” en sus mundos virtuales, incluyendo inteligencia o fuerza, lo que hace que las percepciones parciales de la sociedad se trasladen al mundo virtual.

“Hay valores, prejuicios e intenciones y al diseñar videojuegos, tienen estos valores bien explícitos”, dijo.

Al poner sobre la mesa el problema de las noticias falsas y su viralización a través de redes sociales como Facebook, Brian Christian lamenta que los usuarios hayamos entregado la libertad de escoger nuestros propios valores al algoritmo de la red social e incluso nos haya encerrado en una burbuja que imposibilita rebatir esa información.

“Nosotros escogemos los valores respecto al contenido, pero no escogemos los valores del sistema mismo”, reconoció.
Y la tendencia es que esto se traslade a otras industrias, como la financiera o la bancaria donde obtener un préstamo para vivienda o para iniciar un negocio se base en las percepciones y valores que se obtienen de las redes sociales, relegando el aspecto humano.

“En cierto modo, me preocupa un mundo en el que todo parezca perfecto, pero en realidad nunca vamos a saber qué hay detrás de los propietarios de vivienda o de los negocios que nunca arrancaron”, señaló.

NOTICIA: Clases de ética para robots

Entonces, ¿el peligro son las máquinas o los valores que les estamos inculcando?

Blaise Agüera y Arcas, uno de los principales científicos de Google, dice que nos hemos preocupado demasiado en entender qué valores deben existir en las máquinas. Pero considera que los mayores riesgos están en mantener los valores dañinos de la sociedad como las presunciones racistas, y trasladarlos a la tecnología: “ese es el riesgo más alto”.

julio.sanchez@eleconomista.mx

erp

0 Comentarios
Comentarios
Periódico El Economista es una empresa de