Lectura 6:00 min
La Ciudad de México se enfrenta al desafío de regular la Inteligencia Artificial
La Ciudad de México busca regular la inteligencia artificial en el ámbito gubernamental, centrándose en la seguridad de datos, prevención de discriminación y transparencia.
La Ciudad de México se ha convertido en una de las primeras entidades en el país en presentar una iniciativa para regular la inteligencia artificial (IA) mediante una ley específica.
La iniciativa, presentada por el Instituto de Transparencia, Acceso a la Información Pública, Protección de Datos Personales y Rendición de Cuentas de la Ciudad de México, tiene como objetivo establecer lineamientos para el uso de esta tecnología en el ámbito gubernamental.
La nueva ley propuesta contiene alrededor de 75 artículos, un número reducido en comparación con los estándares internacionales. Según Emilio Carrillo, socio en Pérez Correa González, esto puede reflejar tanto una falta de comprensión profunda de la tecnología, como un intento de cubrir lo esencial sin extenderse en detalles.
“Se trata de un buen intento, pero únicamente eso: un primer paso con una visión limitada de la IA y sus posibles impactos. Por ahora, la propuesta parece ser más una base que una solución completa”, dijo.
El especialista también hizo una analogía contundente al comparar el desarrollo de la IA con la construcción de una bomba atómica sin suficiente teoría para prever sus efectos. En su opinión, los científicos en el campo de la IA están construyendo una tecnología cuyo alcance y consecuencias todavía se desconocen en gran medida.
Tres principios clave
La ley se centra en tres principios fundamentales: la seguridad de los datos, la prevención de la discriminación algorítmica y la protección de los derechos de los ciudadanos. Carrillo destaca que el primer principio, la seguridad de los datos, es especialmente relevante en una época donde la privacidad es un bien cada vez más escaso.
“Cada vez que ingresamos a un edificio, nos toman una foto; nuestras huellas y demás datos biométricos se recogen constantemente. Sin embargo, la ley aún no cuenta con mecanismos efectivos para proteger esta información, especialmente cuando el gobierno es el principal responsable de su manejo”, dijo
El segundo principio, la prevención de la discriminación algorítmica, plantea cómo los datos que alimentan a los modelos de IA suelen estar sesgados, replicando y amplificando prejuicios.
Carrillo argumentó que, si bien la ley busca evitar esto, no se tienen las herramientas ni los recursos para auditar los modelos y garantizar que no se discrimine por raza, género, nivel socioeconómico o cualquier otra característica.
Finalmente, el tercer principio, la transparencia y auditabilidad de los sistemas, es el que enfrenta mayores desafíos, pues los sistemas de IA actuales operan como “cajas negras” donde es complicado determinar el proceso exacto que lleva a una decisión.
“La ley dice que los sistemas deben ser auditables, pero ¿qué tan viable es auditar un sistema de 185,000 millones de parámetros? ¿Qué tan efectivo puede ser ese proceso?”, cuestionó Carrillo.
La carrera armamentista de la IA
Uno de los puntos que el experto considera más preocupantes es la rapidez con la que los sistemas de IA evolucionan, dejando obsoletas las regulaciones casi tan pronto como se implementan.
“Es una carrera armamentista: los sistemas crecen a diario, tanto en complejidad como en capacidad”, explicó. Según Carrillo, esta velocidad de crecimiento hace que sea poco realista pretender que una ley pueda mantenerse actualizada y adaptarse a todos los avances.
Asimismo, las leyes actuales de protección de datos en México, aunque establecen ciertos parámetros de privacidad, no son lo suficientemente robustas como para abordar los riesgos que la IA implica para la seguridad de los datos personales.
“Estamos tratando de regular algo que nos sobrepasa. Sería más efectivo enfocarse en regular la capacitación de los funcionarios que estarán a cargo de estos sistemas, estableciendo requisitos mínimos y, quizá, promoviendo un mejor uso de la IA en lugar de intentar ponerle límites que, en la práctica, resultan imposibles de imponer”, dijo.
Consentimiento informado
Carrillo destaca otro punto débil en la iniciativa: la ausencia de mecanismos claros para el consentimiento informado. Al contratar servicios públicos, los ciudadanos generalmente deben proporcionar datos personales sin conocer los detalles de su uso o sin poder negarse.
“La ley no contempla la forma en la que los ciudadanos serán informados ni cómo otorgarán un consentimiento realmente informado, lo cual es alarmante, ya que la IA estará tomando decisiones con sus datos”, agrega.
Además, la falta de opciones de reclamación es otro aspecto preocupante. Si un ciudadano resulta afectado por una decisión tomada por un sistema de IA, la ley no ofrece una alternativa para solicitar la revisión humana de esa decisión. Este punto, según Carrillo, plantea serios problemas éticos y prácticos.
“Los ciudadanos deberían tener la opción de acudir a un ser humano si consideran que han sido afectados por una decisión de la IA. De lo contrario, nos arriesgamos a quedar atrapados en decisiones automatizadas sin una vía de salida”, advierte.
¿Es viable la regulación de la IA?
Para Carrillo, el intento de regular la IA, aunque bienintencionado, puede resultar infructuoso. “Estamos tratando de regular algo que se transforma y crece a una velocidad que supera nuestras capacidades. La ley parte de la idea de que la tecnología permanecerá estática, pero la realidad es que avanza a pasos agigantados.”
Una de las críticas más fuertes de Carrillo hacia la propuesta es la falta de un programa integral de capacitación para los funcionarios que manejarán estos sistemas. Aunque se menciona la capacitación en un artículo transitorio, no se especifica cómo se llevará a cabo ni el nivel de conocimiento que se espera de los operadores.
Sin una capacitación adecuada, es poco probable que los funcionarios puedan manejar correctamente los sistemas de IA o explicar sus decisiones a los ciudadanos.
“Se trata de un punto crucial, ya que un sistema sin el personal capacitado es un riesgo tanto para la eficiencia de la tecnología como para los derechos de los ciudadanos”, dijo.
rodrigo.riquelme@eleconomista.mx