Buscar
Tecnología

Lectura 4:00 min

Marc Benioff augura que todos tendremos un agente de Inteligencia Artificial personal

Salesforce mejora la precisión de sus herramientas IA a más del 60%, superando la de modelos como GPT y Copilot, mediante el uso de conjuntos de datos depurados y guías de precisión. 

Marc Benioff, director ejecutivo de Salesforce durante su conferencia a Dreamforce 2024. Foto EE: Rodrigo Riquelme

Marc Benioff, director ejecutivo de Salesforce durante su conferencia a Dreamforce 2024. Foto EE: Rodrigo Riquelme

San Francisco, Cal. El fundador y director ejecutivo de la firma de relacionamiento con clientes (CRM) Salesforce, Marc Benioff, augura que todos contaremos con un asistente de Inteligencia Artificial personal en los próximos años.

De acuerdo con el también dueño de la revista Time, es esta la razón de que la compañía busca que 1,000 millones de clientes finales en todo el mundo interactúen con uno de los agentes de IA que la compañía ha comenzado a implementar entre las empresas que usan su plataforma.

Durante el Dreamforce 2024, el evento que la compañía realiza cada año en su ciudad natal San Francisco, Benioff presentó los agentes de Inteligencia Artificial que integran la Agentforce, los cuales según el director ejecutivo son el siguiente paso de esta tecnología, después de los chatbot conversacionales y los asistentes inteligentes tipo copilot.

“Nuestro objetivo es que, cuando regresemos a Dreamforce el próximo año, tengamos 1,000 millones de consumidores interactuando con nuestros agentes”, dijo Benioff.      

Inteligencia Artificial sin alucinaciones

Uno de los problemas alrededor de la Inteligencia Artificial que preocupan a las personas que quieren utilizar esta tecnología para llevar a cabo su trabajo es la precisión y la presencia de alucinaciones en los  resultados que ofrece. 

De acuerdo con Benioff, mientras que la tasa de precisión de la mayoría de los modelos y asistentes de Inteligencia Artificial, como GPT de OpenAI y Copilot de Microsoft, no supera 30%; la IA de Salesforce ha alcanzado niveles de precisión superiores a 60% y de hasta 90% con el motor de razonamiento (reasoning engine) Atlas.

Silvo Savarese, profesor de la Universidad de Stanford y científico en jefe de Salesforce, dijo durante la conferencia que los modelos de IA que la compañía utiliza para habilitar a los agentes en las cargas de trabajo de sus clientes son alimentados con conjuntos de datos muy depurados, además de que son implementados mediante “guías” (guardrails) que permiten que los resultados que ofrecen sean precisos. 

Romper el Hazlo tú mismo

La misión de la fuerza de agentes de IA de Salesforce, en palabras de Benioff, es destruir el Hazlo tu mismo (Do it yourself) que impera entre las organizaciones al momento de integrar tecnología de Inteligencia Artificial en sus cargas de trabajo.

En conferencia de prensa, que no estuvo exenta de ácidos comentarios acerca de Microsoft y su asistente Copilot, Benioff dijo que desde la implementación de la nube a principios del año 2000 hasta los modelos de Inteligencia Artificial más recientes, la mayoría de las compañías tecnológicas han promovido un modelo de Hazlo tú mismo, por el cual las compañías ofrecen su producto para que el cliente sea el que lo implemente.

Para el directivo, el modelo de Salesforce y sus productos adyacentes, como Slack y Tableau es entregar un producto que ofrezca resultados inmediatos, sin la necesidad de que sus clientes tengan que realizar demasiados esfuerzos de implementación y desarrollo o de contratar a especialistas dedicados a una tecnología en particular.

El futuro de los agentes

De acuerdo con Savarese, el siguiente paso de estos agentes de Inteligencia Artificial será la interacción entre agentes y la interacción entre varios agentes y varios humanos; así como el paso del mundo digital al mundo físico.

Savarese dijo en conferencia que la siguiente iteración de estos modelos son los llamados multimodelos, es decir, contar con agentes capaces de interactuar con los usuarios de diferentes formas, como la imagen, el sonido y el video, y no solo con elementos textuales.

“El siguiente gran paso es tomar a aquellos agentes que son capaces de entender imágenes, videos e interacciones físicas y pasarlos del mundo digital al mundo físico y veremos ejemplos realmente interesantes”, dijo Savarese.

rodrigo.riquelme@eleconomista.mx

Temas relacionados

Reportero de Tecnología

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Noticias Recomendadas

Suscríbete