Buscar
Tecnología

Lectura 4:00 min

ChatGPT hipnotiza y consterna a 6 meses de su lanzamiento

ChatGPT de OpenAI revoluciona la inteligencia artificial, al impulsar el mercado de procesamiento de lenguaje natural y plantear beneficios y desafíos en aplicaciones futuras.

El fenómeno la inteligencia artificial y su ChatGPT se han puesto de modaShutterstock

Seis meses después de su lanzamiento, en noviembre de 2022, ChatGPT sigue generando fascinación y preocupación entre el público y la industria tecnológica.

¿Qué es? ChatGPT es un generador de lenguaje creado por la empresa estadounidense OpenAI y financiado por Microsoft. Es un punto de contacto con los seres humanos del modelo de lenguaje autorregresivo GPT (Generative Pre-trained Transformer), una herramienta que utiliza técnicas de inteligencia artificial, en particular el aprendizaje automatizado (machine learning), para generar textos nuevos a partir de textos anteriores.

La innovación que hizo que OpenAI cobre tal relevancia, aunque existan otros modelos de lenguaje con una mayor cantidad de parámetros, fue la posibilidad de comunicarse de manera sencilla con el generador a través de un chat.

Es la inteligencia artificial para uso doméstico.

  • La tecnología detrás de ChatGPT tiene varias décadas en desarrollo. El procesamiento de lenguaje natural (NLP), la base detrás de ChatGPT, es una técnica de inteligencia artificial cuyos inicios datan de los años 40 del siglo XX.
  • Entre los avances que han hecho posible la aparición de GPT están el Neocognitron de 1980, una propuesta de red neuronal del japonés Kunihiko Fukushima para el reconocimiento de caracteres escritos.
  • Por sus venas también corren el desarrollo de la red neuronal convolucional LeNet de 1998 y el desarrollo y la creación de las redes neuronales de tipo transformer, como la que usa GPT, por parte de ingenieros de Google en 2017.
  • GPT es una red neuronal de tipo transformer entrenada con miles de millones de palabras en tareas de aprendizaje no supervisado, autónomo.

Según sus creadores, GPT ha demostrado un buen desempeño en tareas como la traducción, la respuesta a preguntas, el desciframiento de palabras, el uso de nuevas palabras en un enunciado y la realización de operaciones aritméticas de tres dígitos.

Cronología de GPT de OpenAI

  • Marzo de 2023: OpenAI lanza GPT-4, que representa un avance significativo en los modelos de lenguaje de inteligencia artificial. La API de GPT-4 tuvo una lista de espera y también fue una característica del servicio ChatGPT Plus.
  • Noviembre de 2022: Sale a la luz ChatGPT, una versión actualizada y mejorada de GPT-3, con el añadido de  también conocida como GPT-3.5, fue lanzada en 2022. La cantidad de datos utilizados para entrenar ChatGPT no ha sido revelada.
  • Mayo de 2020: OpenAI lanzó GPT-3, un modelo de lenguaje con 175,000 millones de parámetros, lo que le brindaba una capacidad sin precedentes para entender y generar texto similar al humano.
  • Febrero de 2019: OpenAI lanzó GPT-2, una versión más potente del modelo GPT original, con 1,500 millones de parámetros.
  • Junio de 2018: OpenAI presentó el primer modelo GPT, basado en la arquitectura del transformer, dentro del artículo académico "Improving Language Understanding by Generative Pre-Training".

Futuro de GPT

El procesamiento del lenguaje natural (NLP) es un mercado que alcanzó los 15,700 millones de dólares en 2022 y se espera que triplique su tamaño hacia el 2027, según datos de Markets and Markets.

Gigantes tecnológicos como Google y Microsoft, con su integración entre GPT-3 y el buscador Bing, se han apurado a lanzar sus propias versiones de modelos de lenguaje que interactúan con cualquier persona a través de un chat automatizado (chatbot).

El futuro de ChatGPT es incierto, pero sus creadores identifican aplicaciones beneficiosas para la sociedad, como el autocompletado de código y escritura, la asistencia gramatical o la mejora de las respuestas de los motores de búsqueda.

Al mismo tiempo advierten sobre sus “aplicaciones potencialmente dañinas”, como la generación de información errónea, spam, phishing, abuso de procesos legales y gubernamentales, redacción de ensayos académicos fraudulentos y técnicas de ingeniería social.

Además, la automatización de trabajos realizados por humanos, los sesgos de género y la falta de representación, así como las grandes cantidades de energía utilizada para realizar los procesos de cómputo que requiere GPT, también se cuentan entre los potenciales problemas que puede generar este modelo de lenguaje.

rodrigo.riquelme@eleconomista.mx

Reportero de Tecnología

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas