Buscar
Tecnología

Lectura 5:00 min

Estos son los riesgos de la Inteligencia Artificial en México

Los sesgos en algoritmos de IA y la ausencia de un marco normativo ponen en riesgo la equidad y la seguridad cibernética en el país.

Junto con las oportunidades que ofrece, gracias a la Inteligencia Artificial también emergen una serie de riesgos que deben ser considerados y gestionados con precaución. 

En un conversatorio titulado Inteligencia artificial: Fundamentos éticos, técnicos y casos prácticos, organizado por la empresa Xeleva Group y la Secretaría de Infraestructura, Comunicaciones y Transportes (SICT) expertos de diferentes sectores en México abordaron estos desafíos desde sus respectivas disciplinas, arrojando luz sobre las complejidades que enfrenta el país en este ámbito.

Falta de preparación y recursos

Uno de los primeros riesgos identificados es la disparidad en la preparación y los recursos disponibles para desarrollar y utilizar Inteligencia Artificial en México. 

Aída Huerta Barrientos, profesora de la Facultad de Ingeniería de la UNAM, subrayó que “si no tenemos supercomputadoras, capacitación e infraestructura, simplemente no podemos lograr los avances que otros países están consiguiendo”. 

Este déficit puede resultar en una creciente brecha tecnológica entre México y naciones más desarrolladas, limitando la capacidad del país para competir en la economía global y, más preocupante aún, para protegerse de las amenazas emergentes en el ciberespacio.

Ética y sesgos

El tema de la ética es recurrente cuando se habla de IA. Catalina Ovando, directora general de Política de Telecomunicaciones y de Radiodifusión de la SICT, mencionó que uno de los grandes peligros es que “los datos, aunque correctos en su procesamiento, pueden estar sesgados y no ser convenientes para la equidad de todos”. 

Un caso ejemplar es el uso de IA en la selección de personal, donde los algoritmos, basados en datos históricos, pueden perpetuar sesgos de género y raza. Google, por ejemplo, decidió dejar de utilizar IA para este propósito al detectar que sus algoritmos favorecían desproporcionadamente a los hombres.

Seguridad cibernética

La seguridad es otro aspecto crucial cuando se discuten los riesgos de la IA. Miguel Báez, subdirector de Investigación Cibernética de la Secretaría de Seguridad Ciudadana de la Ciudad de México, expresó su preocupación por cómo la inteligencia artificial está siendo utilizada con fines maliciosos. 

“Hemos visto ejemplos de deepfakes utilizados para suplantar identidades y cometer fraudes. Estos avances tecnológicos son aprovechados por delincuentes para desarrollar nuevas formas de ingeniería social y ataques cibernéticos”. 

La falta de una legislación robusta y específica sobre IA en México agrava el problema, dejando a las autoridades en desventaja frente a los ciberdelincuentes.

Marco normativo

Uno de los puntos más discutidos en el conversatorio fue la falta de un marco normativo adecuado para la IA en México. Ovando enfatizó que “nos hace falta un marco normativo que defina claramente cuáles son las responsabilidades y facultades de los diferentes ámbitos de gobierno para obligarnos y protegernos ante posibles malas prácticas”. 

En comparación con la Unión Europea, que ya ha implementado regulaciones estrictas sobre el uso de IA, México aún está en una fase temprana de desarrollo legislativo. Esto deja a los ciudadanos y empresas en una posición vulnerable, sin una protección adecuada contra abusos.

Privacidad

La recolección y manejo de datos es otro tema que genera preocupación. Los datos personales son el combustible que impulsa a muchas de las tecnologías de IA, pero su manejo inadecuado puede llevar a violaciones de privacidad y abusos. 

Ovando destacó que “no se deben pedir datos de más, y es crucial asegurar que los datos recolectados sean eliminados una vez que ya no sean necesarios”. 

En este sentido, se hace evidente la necesidad de educar tanto a las empresas como a los usuarios sobre la importancia de la privacidad de los datos y las consecuencias de su mal uso.

Un aspecto vital en la discusión sobre IA es su impacto en los derechos humanos. En este sentido, Ernesto Priani, profesor de la Facultad de Filosofía y Letras de la UNAM, sugirió que uno de los mayores riesgos es “no saber de qué hablamos cuando hablamos de inteligencia artificial”

Según Priani, existe una confusión conceptual que puede llevar a la aplicación incorrecta de tecnologías de IA, con graves implicaciones para los derechos humanos. La vigilancia masiva y el uso de IA en sistemas de justicia, por ejemplo, pueden resultar en la violación de derechos fundamentales si no se aplican con criterios éticos claros.

Colaboración sector público y privado

Uno de los consensos alcanzados en el conversatorio fue la necesidad de una colaboración estrecha entre el gobierno, el sector privado y la academia para mitigar los riesgos asociados con la IA. 

Miguel Báez resaltó la importancia de esta cooperación, mencionando que “la tríada de instituciones nos nutre muchísimo y es esencial para avanzar en el desarrollo y la regulación de la IA en México”. 

Esta colaboración debe enfocarse en establecer principios éticos claros y en desarrollar un marco regulatorio que proteja a los ciudadanos mientras fomenta la innovación.

La inteligencia artificial presenta tanto oportunidades como desafíos significativos para México. Mientras que su potencial para transformar sectores como la salud, la educación y la seguridad es inmenso, los riesgos asociados con su uso indebido y la falta de regulación no pueden ser subestimados. 

rodrigo.riquelme@eleconomista.mx

Temas relacionados

Reportero de Tecnología

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas