Buscar
Opinión

Lectura 4:00 min

Dilemas legales sobre la Inteligencia Artificial: los vehículos autónomos

California, 2018: un vehículo autónomo Tesla se accidentó presumiblemente por un fallo del piloto automático; su único tripulante falleció. ¿Quién es el responsable: el tripulante o el fabricante del automóvil? 

Definir el derecho aplicable a los robots o a las máquinas dotadas de Inteligencia Artificial, y sus responsabilidades puede considerar un camino complejo que es importante analizar en el ámbito legal, considerando condiciones de "responsabilidad objetiva" o "responsabilidad por riesgo creado".

Cuando una persona actúa de forma que produce resultados nocivos para otros, se genera una “responsabilidad subjetiva”. Existe un elemento subjetivo ligado a la intención. En tanto, cuando alguien asume la responsabilidad del uso de un instrumento peligroso, se genera una “responsabilidad objetiva”, es decir, asume una responsabilidad por riesgo creado. Bajo estas dos premisas debemos observar la naturaleza del objeto dotado de inteligencia artificial si dichos objetos suponen un peligro inminente. 

Desde la Revolución Industrial en el Siglo XIX, los autores franceses establecieron la responsabilidad de los patrones frente al obrero al hacerlo trabajar con nuevas máquinas que conllevaban nuevos riesgos. Así se crea la responsabilidad patronal inherente a riesgos de trabajo y enfermedades profesionales, reconocidos en México en el artículo 123 de nuestra Carta Magna, en la Ley Federal del Trabajo y en el Código Civil Federal. 

La responsabilidad objetiva, también llamada “Teoría del Riesgo Creado”, se justifica sobre la base de que toda persona física o moral que realice una actividad que pudiera ocasionar daños a terceros debe responder económicamente por estos. 

Si bien la tecnología con inteligencia artificial no supone un riesgo en sí mismo, esto depende de cada caso, toda vez que las empresas fabricantes deben cumplir con altos estándares internacionales de calidad y seguridad. Pero no están exentas de fallos ni pueden prever el mal uso de los consumidores, por lo que existe un riesgo compartido.

En el caso de Tesla en el 2018, la demanda en contra del fabricante fue por no hacer explícitos a sus consumidores los potenciales riesgos en el uso del piloto automático y por no contar con medidas de seguridad apropiadas. 

La empresa imputa la responsabilidad al conductor porque, alegan, siempre debe de permanecer al volante, atento de posibles alertas de fallos y porque la conducta de terceros es tan imprevisible que no se puede dejar todo en manos del asistente de manejo. 

Esto implica que la responsabilidad objetiva del conductor es la misma con la que se juzga el manejo de los vehículos actuales: la obligación es siempre del tripulante, y las primas de seguros se calculan en función de las características del auto y del conductor habitual, sin tomar en cuenta al fabricante. Si en un accidente fallecieran los pasajeros y no el conductor, de cara al derecho penal, el responsable de homicidio culposo sería el conductor y no el fabricante del vehículo. 

Este es el caso de los vehículos autónomos aún subordinados a la voluntad de un conductor, donde las consecuencias de los hechos siguen siendo provocadas por una conducta humana de acción o de omisión (o ambas). Sin embargo, será distinto sobre los anunciados vehículos autónomos que no requerirán en lo absoluto del conductor humano: la responsabilidad recaería cien por ciento en el fabricante. 

La llegada, no sólo del vehículo autónomo, sino de otros objetos “inteligentes” está cambiando los modelos de negocio que hemos visto evolucionar desde la revolución industrial. Sin duda alguna, este tipo de paradigmas, requieren que el legislador contemporáneo actualice algunas de las normas vigentes, civiles, penales, reglamentos de tránsito, etc., porque esta modernidad debe ir acompañada de un sistema legal (nacional e internacional) apropiado, que no entorpezca la evolución tecnológica, al tiempo que promueve la protección de los usuarios. 

Sin embargo, hay una asignatura pendiente en términos de normatividad sobre el alcance de la tecnología aplicada: la ética del fabricante, a quien hay que exigirle que, desde el diseño mismo de los aparatos o equipos, prevea todos los riesgos que implicarán para la vida diaria, la propiedad privada, la integridad física del consumidor, lo mismo que las amenazas latentes a la privacidad, la seguridad de la información y la protección de los datos personales. 

Y más allá, este es un tema vital porque existe en el mundo la tentación de otorgar a las máquinas inteligentes de personalidad legal. 

Cynthia Solís es socia directora de LexInf IT Legal Advisory.

Temas relacionados

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Noticias Recomendadas

Suscríbete