Buscar
Opinión

Lectura 6:00 min

Atención con que las grandes tecnológicas manejen la regulación de la IA

Las grandes empresas tecnológicas han demostrado durante mucho tiempo una descarada voluntad de crear herramientas peligrosas que dañan a los usuarios y socavan la democracia en nombre de maximizar las ganancias. Debería ser obvio que permitirles dominar el proceso de redacción de reglas globales para la IA y el ámbito digital es un gran error.

ZÚRICH. En octubre pasado, la Comisión Europea adoptó una nueva hoja de ruta para combatir el narcotráfico y el crimen organizado, una de las amenazas a la seguridad más serias que enfrenta el bloque. Por razones obvias, los responsables de las políticas de la Unión Europea no invitaron a miembros de los cárteles para que los ayuden a diseñar y desarrollar esta estrategia; pedir la opinión de las redes criminales sólo habría servido para que a estas les resultara más fácil seguir operando con total impunidad.

Pero cuando se trata de regular la transformación digital y la inteligencia artificial (IA), que plantean infinidad de riesgos, los responsables de las políticas están haciendo lo contrario. Están colaborando con grandes tecnológicas como Meta (Facebook), Alphabet (Google), Amazon, Apple y Microsoft, aunque sus ejecutivos hayan demostrado un deseo descarado de crear herramientas peligrosas y perjudicar a los usuarios en nombre de una maximización de las ganancias.

Por ejemplo, “grupos de trabajo” nacionales, regionales e internacionales, “grupos de expertos” y “juntas asesoras” que incluyen a representantes de las grandes tecnológicas están preparando propuestas para regular la transformación digital y la IA. Más allá de esto, algunas iniciativas y conferencias sobre este tema están financiadas por las mismas empresas que esos empeños pretenden regular.

Las amenazas que plantean los sistemas digitales son complejas y de amplio alcance. Las nuevas tecnologías están incrementando drásticamente la desigualdad global y los gigantes tecnológicos se han convertido en consumidores gigantescos de energía, con serias implicancias para el cambio climático y el medio ambiente. Quizá lo más preocupante sean las violaciones casi constantes del derecho a la privacidad, debido a la falta de seguridad de los datos y de protecciones contra la vigilancia. Es una práctica estándar de la industria recopilar cantidades gigantescas de datos y venderlos al mejor postor. Como resultado de ello, las plataformas digitales parecen conocernos mejor de lo que nos conocemos a nosotros mismos, y la vida online está plagada de manipulación económica y política.

Por otra parte, ya se ha visto que la manipulación algorítmica y la desinformación amenazan el correcto funcionamiento de la democracia. Antes de la elección presidencial de 2016 en Estados Unidos, por ejemplo, la consultoría política Cambridge Analytica recopiló información de unos 87 millones de usuarios de Facebook en un intento por influir en los votantes. La empresa y sus afiliados ya habían utilizado datos de manera inapropiada para intentar influir en la votación por el Brexit del Reino Unido.

Más recientemente, el desarrollo acelerado de los grandes modelos de lenguaje (LLM) como ChatGPT de OpenAI ha habilitado nuevas vías de fraude, inclusive a través de falsedades profundas en audio y video que pueden destruir reputaciones. Los LLM también han facilitado la propagación de noticias falsas, un flagelo que se siente de manera más aguda en las democracias, donde una marea de contenido generado por IA amenaza con ahogar a nuestro periodismo de calidad y desestabilizar a países enteros en cuestión de horas (como sucedió con los recientes disturbios de la extrema derecha en el Reino Unido). Asimismo, las mismas estrategias se pueden utilizar para engañar a los consumidores.

Pero eso no es todo: el uso de las redes sociales ha estado asociado a perjuicios considerables a la salud mental de los jóvenes. Y muchos en el campo han manifestado preocupación por el impacto disruptivo que podrían tener los ciberataques sustentados en IA y las armas autónomas en la paz y la seguridad internacional, para no mencionar los riesgos existenciales que plantean estas armas.

Las grandes tecnológicas han venido manifestando poca preocupación por el daño que se le causa a la gente y por la violación de sus derechos. Esto es especialmente cierto en el caso de las empresas de redes sociales, que, por lo general, ganan más en ingresos publicitarios cuanto más tiempo los usuarios permanezcan en sus plataformas. En 2021, un informante entregó documentación que mostraba que Facebook sabía que sus algoritmos y plataformas promocionaban contenido nocivo, pero no implementó contramedidas significativas. Eso no debería sorprendernos: hay estudios que han determinado que los usuarios pasan más tiempo en línea cuando expresan odio, enojo y furia.

A pesar de su falta de voluntad para autocontrolarse, las grandes tecnológicas quieren ayudar a diseñar las regulaciones para la esfera digital y la IA. Sentar a estas empresas a la mesa es irónico y, a la vez, trágico. Los gobiernos y la comunidad internacional están permitiendo que estos gigantes dominen el proceso de creación de un nuevo marco regulatorio y mecanismos de supervisión. Pero confiar en quienes sacan rédito de los problemas fundamentales del sector es un error peligroso.

La buena noticia es que existen infinidad de expertos independientes y académicos que pueden proporcionar información valiosa sobre la mejor manera de regular el desarrollo y el uso de la IA y otras tecnologías digitales. Por supuesto, el sector privado debe participar en estos procesos de formulación de políticas, pero no más que otras partes interesadas, entre ellas las organizaciones de la sociedad civil.

La innovación tecnológica ya no debería servir sólo a los intereses de unas pocas corporaciones multinacionales. Para garantizar un futuro sustentable en el que todos podamos llevar una vida digna y próspera, los responsables de las políticas no deben permitir que los gigantes tecnológicos manejen la regulación de las plataformas digitales y las aplicaciones de IA que vayan surgiendo.

El autor

Peter G. Kirchschläger, profesor de Ética y director del Instituto de Ética Social de la Universidad de Lucerna, es profesor visitante en ETH Zurich.

Copyright: Project Syndicate, 2024

www.project-syndicate.org

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Noticias Recomendadas

Suscríbete