Buscar
Opinión

Lectura 8:00 min

¿Quién establecerá la ética del metaverso?

• Muchas empresas están tratando de dar forma a cómo se utilizarán la realidad virtual y las identidades digitales para organizar una mayor parte de nuestra vida diaria, desde el trabajo y la atención médica hasta las compras, los juegos y otras formas de entretenimiento. Las oportunidades del metaverso parecen ilimitadas, pero también lo son los riesgos, ante la falta de una supervisión independiente

LONDRES – El metaverso aún no ha llegado, y cuando llegue no será un dominio único bajo el control de una sola empresa. Facebook quiso inducirnos a tener esa impresión cuando cambió su nombre a Meta, pero su cambio de marca coincidió con inversiones de gran importancia por parte de Microsoft y Roblox. Todas estas empresas se están inclinando con dirección a dar forma a cómo se utilizarán las identidades digitales y la realidad virtual para organizar una parte aún mayor de nuestras vidas cotidianas: desde el trabajo y la atención médica hasta las compras, los juegos y otras formas de entretenimiento.

El metaverso no es un concepto nuevo. El término fue acuñado por el novelista de ciencia ficción Neal Stephenson en su libro Snow Crash publicado el año 1992, en dicho libro se describe una distopía hipercapitalista en la que la humanidad ha optado, colectivamente, por vivir en entornos virtuales. Hasta ahora, la experiencia no ha sido menos distópica aquí, en el mundo real. La mayoría de los experimentos con entornos digitales inmersivos se han visto empañados de inmediato por la intimidación, el acoso, la agresión sexual digital y todos los otros abusos que hemos llegado a asociar con plataformas que “se mueven rápido y rompen cosas”.

Nada de esto debería causar sorpresa. La ética de las nuevas tecnologías siempre ha ido a la zaga de las innovaciones propiamente dichas. Por esta razón, las partes interesadas independientes deberían proporcionar modelos de gobernanza antes de que lo hagan las corporaciones que tienen sus propios intereses, y actúen teniendo en mente sus propios márgenes de ganancia.

La evolución de la ética en la inteligencia artificial (IA) nos brinda una lección en este punto. Tras un gran avance en el reconocimiento de imágenes por medio de IA en el año 2012, se incrementó súbitamente el interés de las corporaciones y los gobiernos por este ámbito, atrayendo importantes contribuciones de especialistas y activistas en materia de ética, quienes publicaron (y volvieron a publicar) investigaciones sobre los peligros de capacitar a la IA para que trabaje con conjuntos de datos sesgados. Se desarrolló un nuevo lenguaje con el propósito de incorporar los valores que queremos mantener en el diseño de nuevas aplicaciones de IA.

Gracias a este trabajo, ahora sabemos que la IA está, en los hechos, “automatizando la desigualdad”, como dice Virginia Eubanks de la Universidad de Albany, SUNY, además está perpetuando los prejuicios raciales en la aplicación de la ley. Para llamar la atención sobre este problema, la científica informática Joy Buolamwini del MIT Media Lab lanzó Algorithmic Justice League, en el año 2016.

Esta primera oleada de respuestas apuntó la mira de la opinión pública con dirección a los problemas éticos asociados con la IA. Pero pronto dicha atención fue eclipsada por un renovado esfuerzo dentro del sector a favor de la autorregulación. Los desarrolladores de IA introdujeron kits de herramientas técnicas para realizar evaluaciones internas y evaluaciones por parte de terceros, con la esperanza de que esto fuera a aliviar los temores del público. No fue así, debido a que la mayoría de las empresas cuyo objetivo es el desarrollo de IA utilizan modelos de negocios que están en conflicto abierto con los estándares éticos que el público quiere que dichas empresas respeten.

Dando una mirada a los ejemplos más comunes, Twitter y Facebook no implementarán la IA de manera efectiva contra toda la gama de abusos que ocurren en sus plataformas porque hacerlo socavaría el “enfrentamiento” (la indignación) y, por lo tanto, las ganancias. Del mismo modo, estas y otras empresas de tecnología han aprovechado la extracción de valor y las economías de escala con el propósito de lograr casi-monopolios en sus respectivos mercados. Ahora no renunciarán voluntariamente al poder que han conseguido.

Más recientemente, los consultores corporativos y varios programas han profesionalizado la ética de la IA con el propósito de abordar los riesgos prácticos y de reputación vinculados a las fallas éticas. Aquellos que trabajan en IA dentro de las grandes empresas de tecnología se verían presionados a considerar preguntas tales como si una función debería optarse o no optarse por default; si es o no es apropiado delegar una tarea a la IA, y si se puede o no confiar en los datos que se utilizan para entrenar a las aplicaciones de IA. Con este fin muchas corporaciones tecnológicas establecieron juntas de ética que son, supuestamente, independientes. Sin embargo, desde ese entonces, la fiabilidad de esta forma de gobernanza se ha puesto en duda. Esto ocurrió tras la expulsión de investigadores internos de alto perfil, quienes expresaron su preocupación por las implicaciones éticas y sociales de ciertos modelos de IA.

Establecer una base ética sólida para el metaverso requiere que nos adelantemos a la autorregulación por parte del sector, es decir antes de que se convierta en la norma. También debemos tomar conciencia sobre cómo el metaverso ya se está alejando de la IA. Si bien la IA se ha centrado en gran medida en las operaciones corporativas internas, el metaverso está decididamente centrado en el consumidor, lo que significa que vendrá con todo tipo de riesgos de comportamiento que la mayoría de las personas no habrá considerado.

Así como la regulación de las telecomunicaciones (específicamente la Sección 230 de la Ley de Decencia en las Comunicaciones, una ley estadounidense del año 1996) proporcionó el modelo de gobernanza para las redes sociales, la regulación de las redes sociales se convertirá en el modelo de gobernanza predeterminado para el metaverso. Eso debería preocuparnos a todos. Si bien podemos prever fácilmente muchos de los abusos que ocurrirán en entornos digitales inmersivos, nuestra experiencia con las redes sociales sugiere que es posible que subestimemos la gran escala que alcanzarán, así como los efectos en cadena que conllevarán.

Sería mejor sobreestimar los riesgos que repetir los errores de los últimos 15 años. Un entorno totalmente digital crea la posibilidad de llevar a cabo una recopilación de datos aún más exhaustiva, incluyéndose en ella datos biométricos personales. Y, teniendo en cuenta que nadie sabe exactamente cómo responderán las personas a estos entornos, existen argumentos sólidos a favor de utilizar entornos de prueba aislados para realizar ensayos en el ámbito regulatorio, antes de que se autorice una implementación más amplia.

Todavía es posible prepararse de manera anticipada para enfrentar los desafíos éticos vinculados al metaverso; sin embargo, tenemos que estar conscientes de que el tiempo corre inexorablemente. Sin una supervisión independiente y eficaz, es casi seguro que este nuevo dominio digital se tornará cuestionable, ya que recreará todos los abusos e injusticias que trajeron consigo tanto de la IA como de las redes sociales, y añadirá otros abusos e injusticias que no podemos ni siquiera llegar a vislumbrar. Es posible que la constitución de una Liga para la Justicia del metaverso sea nuestra mayor esperanza.

Los autores

Josh Entsminger es estudiante de doctorado en innovación y políticas públicas en el UCL Institute for Innovation and Public Purpose.

Mark Esposito, cofundador de Nexus FrontierTech, es profesor asociado de políticas en el Institute for Innovation and Public Purpose del University College en London, profesor en Hult International Business School y coautor de The Emerging Economies under the Dome of the Fourth Industrial Revolution.

Terence Tse, cofundador y director ejecutivo de Nexus FrontierTech, es profesor en Hult International Business School.

Traducción del inglés: Rocío L. Barrientos

Copyright: Project Syndicate, 1995 - 2022

www.projectsyndicate.org

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Noticias Recomendadas