Buscar
Opinión

Lectura 6:00 min

Simpatía por el algoritmo

El lanzamiento de ChatGPT, un nuevo chatbot de inteligencia artificial, nos obliga a repensar qué tareas se pueden realizar con una mínima intervención humana. Si una IA es capaz de aprobar el examen de la barra, ¿hay alguna razón por la que no pueda brindar un buen asesoramiento legal?

ESTOCOLMO – En retrospectiva, 2022 será visto como el año en que la inteligencia artificial (IA) ganó credibilidad en las calles. El lanzamiento de ChatGPT por parte del laboratorio de investigación OpenAI, con sede en San Francisco, atrajo una gran atención y planteó preguntas aún mayores.

Solo en su primera semana, ChatGPT atrajo a más de un millón de usuarios y se usó para escribir programas de computadora, componer música, jugar juegos y tomar el examen de la barra de abogados. Los estudiantes descubrieron que podía escribir ensayos útiles dignos de una calificación B, al igual que los maestros, aunque más lentamente, para su gran consternación.

ChatGPT está lejos de ser perfecto, al igual que los ensayos de estudiantes de calidad B están lejos de ser perfectos, y la información que proporciona es tan confiable como la información disponible, que proviene de Internet. El uso que haga de esa información depende de su entrenamiento, que implica un aprendizaje supervisado o, dicho de otro modo, preguntas formuladas y respondidas por humanos.

Las ponderaciones que ChatGPT asigna a sus posibles respuestas se derivan del aprendizaje por refuerzo, donde los humanos califican la respuesta. Se les pide a los millones de usuarios de ChatGPT que voten a favor o en contra de las respuestas del bot cada vez que hacen una pregunta. De la misma manera que los comentarios útiles de un instructor a veces pueden enseñar a un estudiante de calidad B a escribir un ensayo de calidad A, no es imposible que ChatGPT eventualmente obtenga mejores calificaciones.

Esta inteligencia artificial rudimentaria nos obliga a replantearnos qué tareas se pueden llevar a cabo con una mínima intervención humana. Si una Inteligencia Artificial es capaz de aprobar el examen de la barra, ¿hay alguna razón por la que no pueda escribir un resumen legal o brindar un buen asesoramiento legal? Si una IA puede aprobar el examen de licencia médica de mi esposa, ¿hay alguna razón por la que no pueda proporcionar un diagnóstico u ofrecer un buen consejo médico?

Una implicación obvia es un desplazamiento más rápido de los trabajos, en comparación con las olas anteriores de automatización, y una reestructuración más rápida de los trabajos sobrevivientes. Y los trabajos que serán automatizados y desaparecerán no se limitarán a los poco calificados y mal pagados.

Menos obvio es quién está a salvo del desempleo tecnológico. ¿Qué rasgos humanos, si los hay, no podrá simular una IA? ¿Son esos rasgos innatos o se pueden enseñar?

Los trabajos más seguros serán aquellos que requieran empatía y originalidad. La empatía es la capacidad de comprender y compartir los sentimientos y emociones de los demás. Crea la compasión y la comprensión interpersonales que son fundamentales para las interacciones sociales y el bienestar emocional. Es especialmente valioso en circunstancias y períodos de dificultad. Es por eso que se valora la empatía en los líderes religiosos, los cuidadores y los consejeros de duelo.

Es posible imaginar que, con la ayuda de un software de reconocimiento facial, una IA pueda aprender a reconocer los sentimientos de sus interlocutores (que pueda aprender lo que se conoce como “empatía cognitiva”). Pero obviamente no puede compartir sus sentimientos (no puede aprender “empatía afectiva”) de la misma manera que mi esposa, en sus momentos empáticos, comparte mis sentimientos. Agregue eso a la lista de razones por las que una IA no puede reemplazar a mi esposa, mi médico o mi rabino.

No hay consenso sobre si se puede cultivar y enseñar la empatía afectiva. Algunos argumentan que la empatía afectiva es provocada por neuronas espejo en el cerebro que no pueden estimularse ni controlarse artificialmente. La empatía es algo que experimentamos, no algo que podamos aprender. De ello se deduce que algunos de nosotros estamos mejor preparados que otros para ser cuidadores y consejeros de duelo.

Otros investigadores sugieren que esta respuesta emocional sí se puede enseñar. Incluso hay una empresa de capacitación para médicos clínicos llamada Empathetics, Inc. Si es cierto, es posible que más personas puedan estar preparadas para trabajos seguros para la automatización donde se requiere empatía afectiva.

Pero si los humanos pueden aprender empatía afectiva, ¿por qué no pueden hacerlo los algoritmos? La idea de que los trabajos que requieren empatía afectiva permanecerán a salvo de la automatización supone que las personas pueden distinguir la verdadera empatía de la simulación.

La originalidad significa hacer algo que no se ha hecho antes, por ejemplo, crear una pintura, una composición o un comentario periodístico totalmente diferente a lo que se ha hecho antes. La originalidad es distinta de la creatividad, que implica combinar elementos preexistentes de formas novedosas.

Otro producto de OpenAI, DALL•E, puede generar imágenes sofisticadas a partir de descripciones de texto (“una pintura de una manzana” o “la ‘Mona Lisa’ con bigote”). Esto ha creado cierta consternación entre los artistas. Pero ¿son sus respuestas, derivadas de un gran conjunto de datos de pares de texto e imágenes, obras de arte originales?

Es cuestionable si son originales en el sentido de retratar una imagen estéticamente agradable como ninguna vista antes, en lugar de combinar elementos visuales existentes asociados con el texto existente. Los artistas que comercian con la originalidad pueden no tener nada que temer, suponiendo, por supuesto, que los espectadores puedan distinguir las obras de arte originales del resto.

Una vez más, no hay consenso sobre si la originalidad es innata o se puede enseñar. La respuesta, muy probablemente, es: un poco de ambos.

¿Qué tan preocupados deberíamos estar? Teclea “Escribe un comentario de 800 palabras sobre Inteligencia Artificial para Project Syndicate” en ChatGPT y juzga por ti mismo.

El autor

profesor de economía de la Universidad de California, Berkeley, es el autor más reciente de In Defense of Public Debt (Oxford University Press, 2021).

Copyright: Project Syndicate, 1995 - 2023

www.projectsyndicate.org

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas