Clases de ética para robots
Si la ética y la moral humanas son arenas movedizas que hay que pisar con cuidado; la ética y la moral de las máquinas semejan un pantano inaccesible.
Rodrigo Riquelme
Feb 13, 2017 |
17:46

Un niño cruza la calle aunque la señal de paso está en rojo, sin notar que un auto sin conductor, sin pasajeros y al cual los frenos le han fallado avanza hacia él a una velocidad considerable. El vehículo autónomo debe decidir si atropellará al niño o si, al desviarse de su ruta original, pasará sobre un niño, una mujer atleta, un bebé y un ladrón que cruzan el otro extremo de la calle con la señal en verde. ¿Qué debe hacer el auto sin conductor?

NOTICIA: ¿Dejarías que un algoritmo eligiera al próximo presidente de México?

Ésta es una de las muchas situaciones que plantea la MIT Moral Machine, un experimento del Instituto Tecnológico de Massachusetts (MIT, por su sigla en inglés) cuyo objetivo es conocer la forma en la que los vehículos autónomos deben tomar decisiones ante situaciones de emergencia desde una perspectiva humana. Todas las situaciones presentadas por la MIT Moral Machine tienen un escenario en común: un vehículo autónomo viaja hacia un cruce de peatones y debe elegir si mantiene su ruta y atropella a una o varias personas o si se desvía y se impacta directamente contra una barrera o contra un grupo distinto.

Si la ética y la moral humanas son arenas movedizas que hay que pisar con cuidado; la ética y la moral de las máquinas son un pantano aparentemente inaccesible. ¿Acaso los robots tienen una moral?, ¿qué dilemas éticos plantea el tránsito de vehículos autónomos en la ciudad? y ¿qué papel juega la justicia dentro de las decisiones que toma un algoritmo?

NOTICIA: No hay por qué temer a la Inteligencia Artificial

Esta inquietud acerca de la ética y la moral de las máquinas surge en medio de lo que el Foro Económico Mundial (WEF) ha llamado la Cuarta Revolución Industrial. Cabe destacar que todas las revoluciones industriales se han visto acompañadas por dilemas éticos. La invención de la máquina de vapor, con la que dio inicio la Primera Revolución Industrial (1784), supuso el establecimiento de una relación de dependencia entre los dueños de las máquinas y los trabajadores que las manejaban. El desarrollo de la electricidad y la producción en serie de la Segunda Revolución Industrial (1870) ocasionaron la división del trabajo. Los dispositivos electrónicos y las máquinas autónomas de la Tercera Revolución Industrial (1969) sustituyeron a miles de trabajadores en los centros de producción.

Los dilemas éticos y morales de la primera, segunda y tercera revolución industriales eran indisociables del comportamiento humano, mientras que los dilemas éticos y morales de la Cuarta Revolución Industrial están más relacionados con el comportamiento de las máquinas. Con el nacimiento de la Inteligencia Artificial y el consiguiente aprendizaje de las máquinas, éstas tendrán que soportar el peso de tomar decisiones humanas.

De acuerdo con Vinayak Dalmia and Kavi Sharma, las implicaciones éticas de las máquinas apenas están comenzando a vislumbrarse, pero en el futuro serán un tema que ocupará el centro del debate tecnológico. Según estos desarrolladores tecnológicos, estos son algunos de los casos en los que las máquinas y los seres humanos pueden enfrentar dilemas éticos y morales:

  • ¿La edición genética debe ser utilizada para manipular la raza humana y crear ‘bebés de diseño?
  • ¿Qué pasaría si un algoritmo decidiera tu ascenso laboral, tu admisión a la universidad o si tu pareja se casará contigo
  • ¿Es ético construir robots con emociones?
  • ¿Cuál es el impacto a largo plazo de los alimentos genéticamente modificados?

El objetivo de esta reflexión es destacar que las máquinas son en realidad sujetos a-morales, es decir, que sus decisiones (si es que pueden ser llamadas así y no cálculos) están basadas en la efectividad de su propio funcionamiento y no en las consideraciones éticas y morales que todos los seres humanos hemos realizado alguna vez. Es en este sentido en que destaca la MIT Moral Machine: si los vehículos autónomos no pueden decidir por sí mismos qué decisión tomar, son los seres humanos los que deben asumir la realización de esta tarea.

NOTICIA: 4 tipos de Inteligencia Artificial que debes conocer

Para que las máquinas tengan cierto grado de moral, los seres humanos debemos estar convencidos de lo que ésta implica.

rodrigo.riquelmeg@eleconomista.mx

0 Comentarios
Comentarios
Periódico El Economista es una empresa de