Lectura 7:00 min
Cómo pensar la política en torno a la IA
Mientras los formuladores de políticas y reguladores de todo el mundo se enfrentan a los recientes avances en inteligencia artificial, deberían buscar en la Unión Europea un modelo básico sobre cómo equilibrar la libertad y la seguridad. La clave es centrarse no en la tecnología, sino en los riesgos que probablemente acompañarán a sus diversos usos.
BRUSELAS. En Poznan, 325 kilómetros al este de Varsovia, un equipo de investigadores de tecnología, ingenieros y cuidadores infantiles están trabajando en una pequeña revolución. Su proyecto conjunto, Insension, usa reconocimiento facial alimentado por inteligencia artificial para ayudar a niños con discapacidades intelectuales y múltiples graves a interactuar con otros y con su entorno, y así conectarse más con el mundo. Es una prueba del poder de esta tecnología vertiginosa.
A miles de kilómetros de allí, en las calles de Beijing, el reconocimiento facial alimentado por IA es utilizado por los funcionarios del gobierno para rastrear los movimientos diarios de los ciudadanos y mantener a toda la población bajo una estrecha vigilancia. Es la misma tecnología, pero el resultado es fundamentalmente diferente. Estos dos ejemplos encapsulan el desafío más amplio de la IA: la tecnología subyacente, en sí misma, no es ni buena ni mala; todo depende de cómo se la utilice.
La naturaleza esencialmente dual de la IA sirvió de fundamento para diseñar la Ley de Inteligencia Artificial Europea, una regulación centrada en los usos de la IA y no en la tecnología en sí misma. Nuestra estrategia se resume en un principio simple: cuanto más riesgosa la IA, más contundentes las obligaciones para quienes la desarrollan.
La IA ya permite numerosas funciones inofensivas que realizamos a diario: desde desbloquear nuestros teléfonos hasta recomendar canciones con base en nuestras preferencias. Simplemente no necesitamos regular todos esos usos. Pero la IA también influye cada vez más en momentos decisivos de nuestras vidas. Cuando un banco investiga a alguien para determinar si califica o no para una hipoteca, no tiene que ver sólo con otorgarle un préstamo; tiene que ver con ponerle un techo sobre la cabeza y permitirle generar riqueza e ir en busca de seguridad financiera. Lo mismo es válido cuando los empleadores usan software de reconocimiento de emociones como un complemento de su proceso de reclutamiento, o cuando se utiliza la IA para detectar enfermedades en imágenes cerebrales. Esto último no es un simple chequeo médico de rutina; es literalmente una cuestión de vida o muerte.
En estos tipos de casos, la nueva regulación impone obligaciones significativas a los desarrolladores de IA. Deben cumplir con un rango de requerimientos, desde realizar análisis de riesgo para garantizar una solidez técnica, supervisión humana y ciberseguridad, antes de comercializar sus sistemas en el mercado. Asimismo, la ley de IA prohíbe todos los usos que claramente vayan en contra de nuestros valores más fundamentales. Por ejemplo, la IA no se puede utilizar para una “puntuación social” o técnicas subliminales con el fin de manipular a poblaciones vulnerables, como los niños.
Aunque algunos dirán que este control de alto nivel disuade la innovación, en Europa lo vemos de otra manera. Por empezar, las reglas indiferentes al tiempo ofrecen la certeza y la confianza que los innovadores tecnológicos necesitan para desarrollar nuevos productos. Pero, más precisamente, la IA no alcanzará su gigantesco potencial positivo a menos que los usuarios finales confíen en ella. Aquí, aún más que en muchos otros campos, la confianza sirve como un motor de innovación. Como reguladores, podemos crear las condiciones para que la tecnología florezca respetando nuestra obligación de garantizar la seguridad y la confianza pública.
Lejos de desafiar la estrategia basada en el riesgo de Europa, el auge reciente de los modelos de IA de propósito general (GPAI, por su sigla en inglés) como ChatGPT no hizo más que darle más transcendencia. Si bien estas herramientas ayudan a los estafadores en todo el mundo a producir correos electrónicos fraudulentos que son alarmantemente creíbles, los mismos modelos también se podrían utilizar para detectar contenido generado por IA. En el espacio de apenas unos meses, los modelos de GPAI han llevado a la tecnología a un nuevo nivel en términos de las oportunidades que ofrece y los riesgos que ha introducido.
Por supuesto, una de las amenazas más intimidantes es que tal vez no siempre podamos distinguir lo que es falso de lo que es real. Las “mentiras profundas” ya están causando escándalos y acaparan los titulares. A fines de enero, imágenes pornográficas falsas de la ícono del pop global Taylor Swift alcanzaron 47 millones de vistas en X (ex Twitter) antes de que la plataforma finalmente suspendiera al usuario que las había compartido.
No es difícil imaginar el daño que este tipo de contenido puede provocarle a la salud mental de un individuo. Pero si se lo aplica en una escala más amplia, como en el contexto de una elección, podría amenazar a poblaciones enteras. La ley de IA ofrece una respuesta clara para este problema. El contenido generado por IA tendrá que ser rotulado como tal para que todos sepan de inmediato que no es real. Eso significa que los proveedores tendrán que diseñar sistemas de modo tal que el audio, el video, las imágenes y el texto sintéticos estén marcados en un formato legible por máquina, y detectable como generado o manipulado artificialmente.
A las empresas se les dará la posibilidad de hacer todo para que sus sistemas cumplan con la regulación. Si no cumplen, serán multadas. Las multas oscilarían entre 35 millones de euros (37 millones de dólares) o 7% del ingreso anual global (que es superior) por violaciones de aplicaciones prohibidas de la IA; 15 millones de euros o 3% por violaciones de otras obligaciones, y 7.5 millones de euros o 1.5% por brindar información incorrecta. Pero no se trata sólo de multas. Los sistemas de IA que no cumplan con las regulaciones tampoco podrán ser comercializados en el mercado de la UE.
Europa es pionera en materia de regulación de la IA, pero nuestros esfuerzos ya están ayudando a movilizar respuestas en otras partes. A medida que muchos otros países empiezan a abrazar marcos similares —inclusive Estados Unidos, que colabora con Europa en “una estrategia para la IA basada en los riesgos para promover tecnologías de IA confiables y responsables”—, nos sentimos confiados en que nuestra estrategia general es la correcta. Hace apenas unos meses, inspiró a los líderes del G7 a acordar un Código de Conducta sobre Inteligencia Artificial único en su tipo. Estas especies de protecciones internacionales ayudarán a mantener a los usuarios a salvo hasta que empiecen a surtir efecto las obligaciones legales.
La IA no es ni buena ni mala, pero abrirá las puertas a una era global de complejidad y ambigüedad. En Europa, hemos diseñado una regulación que refleja esta realidad. Tal vez más que cualquier otra pieza de la legislación de la UE, ésta requirió un delicado equilibrio entre poder y responsabilidad, entre innovación y confianza y entre libertad y seguridad.
La autora
Margrethe Vestager es vicepresidenta ejecutiva de la Comisión Europea.
Derechos de autor: Project Syndicate, 2024.