Lectura 4:00 min
5 retos del procesamiento de datos para la Inteligencia Artificial
Salud, servicios financieros y bancarios, manufactura, cadena de suministro y hasta la industria alimentaria son los sectores que de acuerdo con los directivos de compañías como IBM, Lenovo, SAP, Dell y Fujitsu, están implementando a mayor velocidad la Inteligencia Artificial y el análisis de grandes datos.
San Francisco.- “No hay IA (Inteligencia Artificial) sin AI (Arquitectura de Información)”, dijo Madhu Kochar, vicepresidenta de Desarrollo de Producto para el segmento de datos e inteligencia artificial de IBM. Durante el panel sobre los retos que tiene en procesamiento de datos para el desarrollo de la Inteligencia Artificial y la Analítica, en el marco del Data Centric Innovation Day de Intel, se discutieron los principales retos y oportunidades que tienen la adquisición, el procesamiento y el análisis de datos para la implementación de proyectos de Inteligencia Artificial en todas las industrias.
Salud, servicios financieros y bancarios, manufactura, cadena de suministro y hasta la industria alimentaria son los sectores que de acuerdo con los directivos de compañías como Lenovo, SAP, Dell y Fujitsu, están implementando a mayor velocidad la Inteligencia Artificial y el análisis de grandes datos. No obstante, de acuerdo con Ravi Pendekanti, vicepresidente senior de Soluciones para Servidores de Dell Technologies, sólo 18 a 20% de los clientes con los que trabaja esta área de la compañía confían en el grado de madurez de su organización para procesar datos mediante técnicas de inteligencia artificial como el machine learning.
Estos son cinco de los retos que enfrentan las empresas para procesar datos en función de una estrategia de inteligencia artificial:
1.- Grandes cantidades de datos
Los clientes están luchando por administrar una gran cantidad de datos. Desde el punto de vista de los recursos y la energía que se destina a este objetivo, es como estar en una carrera que nunca se va a ganar. “Los datos están creciendo a un nivel mucho mayor que la infraestructura y la arquitectura”, dijo Alex Lam, director de la oficina de Estrategia Glogal de Negocio de Producto para Fujitsu en Norteamérica. De acuerdo con el directivo, el reto de sus clientes es cómo priorizar la información y concentrarse más en aquellos datos que son relevantes, lo que puede jugar un importante papel en cómo capturan la información y cuánta información capturan.
2.- Datos basura
Para Ravi Pendekanti,de Lenovo, el segundo reto para el procesamiento de grandes datos es no exponerse a la captura y el almacenamiento de datos basura. “Las empresas deben asegurarse de que no están almacenando basura. ¿Cómo hacemos para estar seguros de que estamos capturando los datos adecuados?”, dijo. La clave, según Pendekanti, radica en contar con dos o hasta cuatro personas que constantemente estén verificando la calidad de la información que entra para ser analizada.
3.- Desconocimiento de los datos
El desconocimiento de los datos con los que se cuenta, su estructura, qué formato de base de datos los almacena, todas estas deficiencias hacen que las organizaciones si bien piensen que cuentan con inteligencia, no saben cómo aprovecharla. Según Madhu Matta, vicepresidente y director general de Inteligencia Artificial y Cómputo de Alto Rendimiento de Lenovo, todos sus clientes creen que hay inteligencia en su información -lo cual probablemente es cierto- pero para la inteligencia artificial es muy difícil procesar datos que no han sido limpiados. “El 75% del reto de analizar datos para la inteligencia artificial es limpiarlos”, dijo.
4.- Origen de los datos
Para el directivo de Lenovo, otro gran problema es que para un determinado uso dentro del negocio, las empresas no saben de dónde obtener la información. En este sentido, de acuerdo con Madhu Kochar, de IBM, las organizaciones deben preguntarse si su información está lista para ser analizada por la inteligencia artificial, lo que implica si es posible acceder a los datos que generan sus clientes o la propia organización sin importar si están estructurados o no estructurados.
5.- Confianza en los datos (seguridad)
“¿En realidad puedo confiar en estos datos?, porque cuando los uses para entrenar a tu algoritmo de aprendizaje automático (machine learning) esta confianza se va a ver reflejada en los resultados”, remató en su participación la directiva de IBM. Esto mismo dijo Dirk Basenach, líder de Bases de Datos para la alemana SAP, para quien es necesario contar con profesionales con las habilidades necesarias para discriminar y observar los sesgos que puede generar estas tecnologías y que sepan responder a preguntas como: ¿desde dónde vienen los sesgos?, ¿desde los sets de datos?, ‘desde el análisis?. “En los próximos cinco años será un problema no contar con estas habilidades”, dijo.