Lectura 4:00 min
¿Vendrán los robots a acabar con los mercados?
Imagine que vive en un país en el que al gobierno se le ocurre prohibir todo tipo de inteligencia artificial (IA). No podría usted usarla para beneficio personal o el de su empresa. No podría usar ChatGPT ni cualquier otro chatbot y tampoco reglas automáticas para acomodar los correos electrónicos que le llegan. Sería simplemente una prohibición desproporcionada porque ese tipo de inteligencia artificial tiene poco riesgo.
Sin embargo, hay inteligencia artificial que permite hacer reconocimientos faciales masivos, sistemas de puntuación social, réplicas de su imagen diciendo cosas que realmente no dijo, generar algoritmos para orquestar acuerdos anticompetitivos, etcétera. Esta IA sí que puede ser peligrosa.
De tal modo, hay IA que genera riesgos altos e IA que no genera riesgos. La regulación de esta herramienta tiene entonces que estar basada en un enfoque de riesgos. La IA con alto riesgo puede regularse estrictamente o prohibirse. La IA sin riesgo alguno no tiene por qué regularse, mucho menos prohibirse.
El uso de diversas herramientas de IA genera eficiencias, por ejemplo, las que permiten analizar grandes cantidades de datos, la automatización de procesos o la reducción de errores humanos. Este tipo de IA debe incluso impulsarse. Si a la vez genera algún tipo de riesgo, puede regularse de tal modo que se minimicen estos y se magnifiquen sus beneficios.
Los enfoques fatalistas de regulación de la IA basados en “pesadillas” en las que los robots cobran vida y dominan al mundo, pueden inhibir mucha actividad económica en el corto plazo, lo cual de forma indirecta impacta en los empleos y la calidad de vida de las familias.
Toda regulación de estrategias empresariales basadas en IA en principio debe ser analizada caso por caso por las autoridades para que no se inhiba la tan necesaria innovación en los procesos productivos.
Qué nivel de riesgo genera una herramienta de IA puede ser difícil de saber, será tarea de los reguladores irlo decidiendo caso por caso, ayudados por supuesto por la academia y los expertos.
Desde la óptica de competencia económica, la principal preocupación de la IA que amerita un debate sobre su regulación es el entrenamiento de algoritmos para facilitar las prácticas anticompetitivas. Por ejemplo, entrenar a una máquina para que fije automáticamente el precio de una empresa igualando al de su competidor podría implicar que haya siempre un único precio en el mercado, lo cual dejaría sin opciones reales a los consumidores. Sin embargo, el mero seguimiento de precios entre competidores no es por sí mismo una práctica anticompetitiva, pues con los estándares actuales se requiere la existencia de un acuerdo entre competidores para poner el mismo precio.
Otra posible conducta para la que se podría entrenar un algoritmo es para la discriminación de precios. Esta puede incentivar a que haya más consumidores en un mercado, pero dependiendo las circunstancias, también puede usarse para explotarlos o desplazar anticompetitivamente a un competidor. El Big Data y los algoritmos podrían usarse para predecir con mayor certeza la disposición a pagar de los compradores de un bien y extraer un mayor excedente del consumidor.
Si una empresa tecnológica vende un insumo a un competidor, podría entrenar a un algoritmo para que siempre le ofrezca precios poco convenientes. No obstante habría que analizar si lo hizo únicamente con la finalidad de desplazar al competidor.
En conclusión, existen retos que la IA nos plantea y qué podrían requerir su regulación. Sin embargo, esto que sucede es algo que ha pasado la humanidad cada cierto tiempo con la aparición de nuevas tecnologías: la imprenta, el ferrocarril, la TV, el Internet, etcétera. Prohibirla sería igual o más catastrófico que dejarla sin regular en absoluto.