Buscar
Opinión

Lectura 7:00 min

La inversión en innovación: a propósito de la Ley de Inteligencia Artificial de la Unión Europea

El 2 de febrero de 2024, el Comité de Representantes Permanentes del Consejo de la Unión Europea (Coreper de la UE), aprobó el texto de la Ley de Inteligencia Artificial (IA) de la UE, lo cual constituye uno de los pasos más importantes para la adopción definitiva de la primera ley integral del mundo sobre IA. La posibilidad, cada vez más cercana, de que exista una ley que regule el desarrollo, despliegue y adopción de la IA provoca innumerables debates, entre ellos, la cuánta regulación de esta tecnología es necesaria. 

Los defensores de la propuesta señalan que la mayoría de las obligaciones que contempla la propuesta están dirigidas a las tecnologías de alto riesgo, y que estas, en general, son muy pocas o de usos muy limitados en comparación con otras aplicaciones de la tecnología, por lo cual el impacto de la regulación estaría determinado a estos casos de usos concretos. Igualmente, se considera que dada la importancia que adquiere el mercado europeo, cualquier empresa que pretenda aprovecharse de sus beneficios e introducir productos y/o servicios de IA deberán cumplir con los estándares ético-regulatorios establecidos en la norma. Mientras que, por otro lado, se encuentran aquellas personas que consideran que el establecimiento de dichos estándares tendría como principal efecto limitar o frenar la innovación. 

Sin dudas la propuesta regulatoria presenta cuestiones positivas y negativas, sin embargo, aún es temprano para emitir juicios de valor sobre la eficacia de la norma y su impacto en el ecosistema de innovación. No es lógico, ni razonable, hacer conjeturas a priori, presagiando un escenario gris para el desarrollo de la IA en el contexto europeo. Puesto que, aunque el foco de atención se ha centrado en el aspecto regulatorio, debe tenerse en cuenta que la regulación de la IA en la Unión Europea llega acompañada de un conjunto de medidas, denominadas paquete de innovación en IA, que tienen como finalidad apoyar a las startups y pymes de IA.

Dentro de las medidas referidas se encuentran garantizar a las empresas el acceso a superordenadores para agilizar el aprendizaje y entrenamiento de grandes modelos de IA de propósito general; el diseño de una ventanilla única para las nuevas empresas e innovadores donde se les apoye en el desarrollo algorítmico, la evaluación de pruebas así como la validación de modelos de IA a gran escala; apoyo financiero a las startups y pymes en los programas Horizonte Europa y Europa Digital, con una inversión pública y global de alrededor de 4,000 millones de euros hasta el 2027; la realización de inversiones públicas y privadas para las empresas emergentes y en fase de expansión de la IA, incluyendo capital de riesgo.Igualmente se promoverá la preparación de talento a partir de la formación y capacitación, el desarrollo de un Espacio Común Europeo de Datos a disposición de la comunidad de IA y la iniciativa GenAI4EU, con el objetivo de apoyar el desarrollo de nuevos casos de uso y aplicaciones emergentes en catorce ecosistemas industriales incluidos el sector público, la robótica, la salud, la biotecnología, la fabricación, la movilidad, el clima y los mundos virtuales, entre otras.

En otras palabras, la regulación de la IA forma parte de una estrategia más ambiciosa de desarrollar este tipo de tecnologías en el contexto europeo. El conjunto de medidas previstas podría, en gran parte subvertir o, al menos, aminorar los efectos que la regulación traer consigo en el ecosistema de innovación para las pequeñas y medianas empresas. Ello significa que el centro de atención en el debate de la regulación de la IA no se encuentra, como algunos sostienen, en una contradicción entre regular e innovar, sino más bien en un tema de inversión en innovación, el cual no solo es responsabilidad del Estado sino también del sector privado. 

Las obligaciones normativas han existido siempre en diversos sectores de la tecnología con el fin precisamente de poder minimizar sus riesgos. La regulación es necesaria, pero no suficiente. Se corre el riesgo de que se convierta en letra muerta sino se toman en cuenta un conjunto de medidas dirigidas a fomentar su aplicación y desarrollo. El problema se halla en que los países en vía de desarrollo, como México, tal vez no puedan pagar el costo que va asociado a la regulación y al desarrollo de este tipo de tecnologías. Esta situación fue prevista desde el año 2018 en el Índice de Preparación para la Automatización: ¿quién está listo para la inminente ola de automatización? donde precisamente se afirmaba que, para los países con ingresos medios la adaptación a la automatización sería más difícil que para otros, dada la gran brecha existente entre los países de ingresos altos de aquellos con ingresos medios y bajos.

En materia de IA se ha caído en el determinismo legal de pensar que, no se debe regular para no matar la innovación o que la regulación elimina por sí misma los riesgos tecnológicos y/o sociales de su aplicación. Sin embargo, pese a lo que suele pensarse, la regulación no es en sí misma una solución para ninguno de estos problemas. El impacto del Derecho en el desarrollo y adopción de la tecnología es limitado, por sí solo no fomenta la innovación, como tampoco por sí solo, elimina los riesgos que representa. La regulación no basta. 

Una regulación sin disponibilidad de recursos económicos condenaría a las pequeñas y medianas empresas nacionales al cumplimiento de cargas normativas que no siempre podrían cumplimentar, provocándose su desplazamiento del mercado y absorción por las grandes compañías tecnológicas; mientras que, la desregulación convertiría a las personas en objeto de la voracidad comercial de las empresas tecnológicas y, a la postre, eliminaría la competencia de las pequeñas y medianas empresas, como ya ha sucedido en otros casos en materia tecnológica. Para ello, es importante comprender los límites del Derecho en relación con las tecnologías. La norma jurídica es solo la cara exterior de un problema estratégico de seguridad nacional que precisa de recursos económicos para su desarrollo e implementación. 

En cualquier escenario posible y, aun cuando las regulaciones sean flexibles o adaptables, lo cierto es que, es necesario prever recursos financieros públicos y/o privados y mecanismos de protección que fomenten a las pequeñas y medianas empresas tecnológicas que innoven, así como ciudadanos comprometidos e informados que tengan las capacidades y habilidades necesarias para aplicar y utilizar dichas tecnologías de manera responsable. La ciencia y la innovación éticas no caminan de la mano de la austeridad, no van en el mismo sentido, queramos o no, implican un gasto y a su vez, una inversión. Le corresponderá a la sociedad y a sus líderes determinar si lo pagan o no. 

* Jorge Luis Ordelin Font es doctor, académico de la División de Estudios Jurídicos del CIDE y experto en derecho e inteligencia artificial.

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas

Suscríbete