Buscar
Arte e Ideas

Lectura 10:00 min

La transparencia pública en los tiempos de ChatGPT

Foto: Shutterstock

Foto: Shutterstock

Cuando se acercan las elecciones, recibimos mucha información sobre políticos y gobiernos. Pero ¿cómo podemos comprobar si es cierta? Los expertos sugieren que consultemos portales de transparencia y de datos abiertos u otros registros oficiales, una solución que puede resultar confusa si no estamos familiarizados con términos técnicos y tratamiento de datos complejos.

Normalmente, confiamos en intermediarios, como medios de comunicación, grupos políticos, activistas o asociaciones ciudadanas. Recibimos información directamente de ellos o la encontramos en Google y redes sociales. Pero esto nos expone a diversos problemas de desinformación, como información falsa, engañosa o incorrecta.

Fácil acceso

Debido a su facilidad de uso, muchas personas optan por usar chatbots basados en inteligencia artificial, como ChatGPT o Bing AI, para obtener respuestas sobre transparencia pública. Estos chatbots escuchan atentamente nuestras preguntas y nos proporcionan respuestas, además de estar abiertos a ampliar la información brindada.

Ambos chatbots se basan en tecnología de modelos de lenguaje de gran escala GPT de OpenAI, pero las respuestas de Bing AI suelen ser más informales y breves que las de ChatGPT. La principal diferencia radica en que Bing AI, quizá debido a su acceso a búsquedas en Internet, proporciona enlaces a las fuentes utilizadas en sus respuestas, mientras que ChatGPT no lo hace.

Además, es importante destacar que Bing AI se basa en noticias de prensa en lugar de en datos oficiales cuando se trata de preguntas sobre gobiernos y responsables públicos. Por lo tanto, sus respuestas se basan en fuentes secundarias en lugar de información de primera mano.

Invenciones y medias verdades

Cuando se trata de preguntas sobre gobiernos y responsables públicos, los chatbots plantean tres problemas relacionados con la desinformación: alucinaciones, sesgos y concentración empresarial. Estos problemas no son nuevos en el ámbito de la información en Internet.

En primer lugar, está el fenómeno de la alucinación, que se refiere a la generación de contenido falso o sin sentido en las respuestas. Esto puede ser especialmente perjudicial cuando las respuestas parecen creíbles y convincentes, lo que puede llevarnos a confiar en información falsa.

Además, contribuye a la desinformación mediante la disminución de la credibilidad de toda la información disponible en la Red. También debemos recordar que los seres humanos somos más propensos a aceptar falsedades que se ajustan a nuestras creencias preexistentes.

En segundo lugar, existen posibles sesgos en las respuestas, ya que estas estarán condicionadas por las fuentes utilizadas durante el entrenamiento del chatbot. El riesgo se multiplica porque estas fuentes no se revelan, debido al desconocimiento de los propios creadores y al temor de incluir sin consentimiento información personal o protegida por derechos de autor. Esto puede generar parcialidad en el chatbot, pues las decisiones sobre las fuentes empleadas y su importancia pueden influir en las respuestas, favoreciendo algunas fuentes por encima de otras.

No debemos olvidar que actualmente la desinformación se propaga rápidamente en grupos de mensajería y comunidades digitales cerradas. Estos entornos cerrados ocultan la magnitud de las campañas de desinformación y permiten que lleguen a aquellos grupos más susceptibles de creer en ellas.

Un chatbot que presenta alucinaciones o sesgos, ya sean intencionados o accidentales, se puede convertir rápidamente en una fuente de autoridad en estos círculos. Debido a su naturaleza de diálogo y su capacidad para crear una apariencia de empatía con los usuarios, se vuelve difícil cuestionar las respuestas antes de que los ciudadanos las reciban y las asimilen.

Concentración empresarial

En tercer lugar, la alta demanda de recursos energéticos y hardware necesarios para producir chatbots funcionales ha llevado a que su oferta esté centralizada en grandes gigantes tecnológicos como Meta, Google o la alianza OpenAI-Microsoft.

Esto plantea un nuevo riesgo de desinformación, ya que estas empresas pueden influir en las respuestas y ser presionadas por los gobiernos para sesgar la información, tal como ocurre en regímenes como el de China. Incluso podrían convertirse en una amenaza para las democracias si deciden favorecer sus propios intereses o agendas políticas específicas al proporcionar respuestas sesgadas.

Además, la centralización en corporaciones conocidas por extraer datos de los ciudadanos plantea problemas adicionales de privacidad en Internet. Podría llevar a la creación de perfiles y al seguimiento de ciudadanos interesados en temas específicos. Este escenario plantea preocupaciones similares a los desórdenes informativos ocurridos en procesos electorales pasados, como el caso Cambridge Analytica durante las elecciones estadounidenses de 2016.

Nuestro futuro

Los modelos de inteligencia artificial pronto controlarán muchos aspectos de nuestra vida cotidiana, y la transparencia de los gobiernos no será una excepción. La forma en que se diseñen y se alimenten de datos los chatbots, así como las empresas u organizaciones que los desarrollen, determinarán nuestro acceso a la información pública. Esto tendrá un impacto directo en la relación entre los ciudadanos y los gobiernos, fundamental para cualquier sociedad democrática, y no debería quedar exclusivamente en manos de los intereses comerciales del sector privado que actualmente dominan los avances de esta tecnología.

Sin embargo, no debemos olvidar que nuestra última línea de defensa es nuestro propio pensamiento crítico. Aunque contar con una ayuda en forma de chatbot preguntón que desafíe nuestra credulidad puede ser útil, siempre debemos cuestionar la información que recibimos y buscar fuentes confiables y diversas para obtener una visión más completa y precisa de los asuntos públicos.

Jesús García García, Profesor Titular del Departamento de Contabilidad, Universidad de Oviedo

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Jesús García García, Universidad de Oviedo

Cuando se acercan las elecciones, recibimos mucha información sobre políticos y gobiernos. Pero ¿cómo podemos comprobar si es cierta? Los expertos sugieren que consultemos portales de transparencia y de datos abiertos u otros registros oficiales, una solución que puede resultar confusa si no estamos familiarizados con términos técnicos y tratamiento de datos complejos.

Normalmente, confiamos en intermediarios, como medios de comunicación, grupos políticos, activistas o asociaciones ciudadanas. Recibimos información directamente de ellos o la encontramos en Google y redes sociales. Pero esto nos expone a diversos problemas de desinformación, como información falsa, engañosa o incorrecta.

Fácil acceso

Debido a su facilidad de uso, muchas personas optan por usar chatbots basados en inteligencia artificial, como ChatGPT o Bing AI, para obtener respuestas sobre transparencia pública. Estos chatbots escuchan atentamente nuestras preguntas y nos proporcionan respuestas, además de estar abiertos a ampliar la información brindada.

Ambos chatbots se basan en tecnología de modelos de lenguaje de gran escala GPT de OpenAI, pero las respuestas de Bing AI suelen ser más informales y breves que las de ChatGPT. La principal diferencia radica en que Bing AI, quizá debido a su acceso a búsquedas en Internet, proporciona enlaces a las fuentes utilizadas en sus respuestas, mientras que ChatGPT no lo hace.

Además, es importante destacar que Bing AI se basa en noticias de prensa en lugar de en datos oficiales cuando se trata de preguntas sobre gobiernos y responsables públicos. Por lo tanto, sus respuestas se basan en fuentes secundarias en lugar de información de primera mano.

Invenciones y medias verdades

Cuando se trata de preguntas sobre gobiernos y responsables públicos, los chatbots plantean tres problemas relacionados con la desinformación: alucinaciones, sesgos y concentración empresarial. Estos problemas no son nuevos en el ámbito de la información en Internet.

En primer lugar, está el fenómeno de la alucinación, que se refiere a la generación de contenido falso o sin sentido en las respuestas. Esto puede ser especialmente perjudicial cuando las respuestas parecen creíbles y convincentes, lo que puede llevarnos a confiar en información falsa.

Además, contribuye a la desinformación mediante la disminución de la credibilidad de toda la información disponible en la Red. También debemos recordar que los seres humanos somos más propensos a aceptar falsedades que se ajustan a nuestras creencias preexistentes.

En segundo lugar, existen posibles sesgos en las respuestas, ya que estas estarán condicionadas por las fuentes utilizadas durante el entrenamiento del chatbot. El riesgo se multiplica porque estas fuentes no se revelan, debido al desconocimiento de los propios creadores y al temor de incluir sin consentimiento información personal o protegida por derechos de autor. Esto puede generar parcialidad en el chatbot, pues las decisiones sobre las fuentes empleadas y su importancia pueden influir en las respuestas, favoreciendo algunas fuentes por encima de otras.

No debemos olvidar que actualmente la desinformación se propaga rápidamente en grupos de mensajería y comunidades digitales cerradas. Estos entornos cerrados ocultan la magnitud de las campañas de desinformación y permiten que lleguen a aquellos grupos más susceptibles de creer en ellas.

Un chatbot que presenta alucinaciones o sesgos, ya sean intencionados o accidentales, se puede convertir rápidamente en una fuente de autoridad en estos círculos. Debido a su naturaleza de diálogo y su capacidad para crear una apariencia de empatía con los usuarios, se vuelve difícil cuestionar las respuestas antes de que los ciudadanos las reciban y las asimilen.

Concentración empresarial

En tercer lugar, la alta demanda de recursos energéticos y hardware necesarios para producir chatbots funcionales ha llevado a que su oferta esté centralizada en grandes gigantes tecnológicos como Meta, Google o la alianza OpenAI-Microsoft.

Esto plantea un nuevo riesgo de desinformación, ya que estas empresas pueden influir en las respuestas y ser presionadas por los gobiernos para sesgar la información, tal como ocurre en regímenes como el de China. Incluso podrían convertirse en una amenaza para las democracias si deciden favorecer sus propios intereses o agendas políticas específicas al proporcionar respuestas sesgadas.

Además, la centralización en corporaciones conocidas por extraer datos de los ciudadanos plantea problemas adicionales de privacidad en Internet. Podría llevar a la creación de perfiles y al seguimiento de ciudadanos interesados en temas específicos. Este escenario plantea preocupaciones similares a los desórdenes informativos ocurridos en procesos electorales pasados, como el caso Cambridge Analytica durante las elecciones estadounidenses de 2016.

Nuestro futuro

Los modelos de inteligencia artificial pronto controlarán muchos aspectos de nuestra vida cotidiana, y la transparencia de los gobiernos no será una excepción. La forma en que se diseñen y se alimenten de datos los chatbots, así como las empresas u organizaciones que los desarrollen, determinarán nuestro acceso a la información pública. Esto tendrá un impacto directo en la relación entre los ciudadanos y los gobiernos, fundamental para cualquier sociedad democrática, y no debería quedar exclusivamente en manos de los intereses comerciales del sector privado que actualmente dominan los avances de esta tecnología.

Sin embargo, no debemos olvidar que nuestra última línea de defensa es nuestro propio pensamiento crítico. Aunque contar con una ayuda en forma de chatbot preguntón que desafíe nuestra credulidad puede ser útil, siempre debemos cuestionar la información que recibimos y buscar fuentes confiables y diversas para obtener una visión más completa y precisa de los asuntos públicos.

Jesús García García, Profesor Titular del Departamento de Contabilidad, Universidad de Oviedo

Este artículo fue publicado originalmente en The Conversation. Lea el original.

Temas relacionados

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas

Suscríbete