Artículos

¿Cómo resolvería un automóvil autónomo el dilema del tranvía? – Gizmodo

por Blake Montgomery

¿Qué harías si vieras que un auto sin conductor atropella a una persona?

En Ética de los robots, Mark Coeckelbergh, profesor de Filosofía de los Medios y la Tecnología en la Universidad de Viena, plantea el dilema del tranvía para 2022: ¿Debe el automóvil continuar su curso y matar a cinco peatones, o desviarse y matar a uno?

En el capítulo presentado aquí, Coeckelbergh examina cómo los humanos han conceptualizado a los robots como un marco más amplio y sondea cómo los autos autónomos manejarían situaciones de tráfico letales, y si esa es una pregunta que vale la pena. 

En la película de ciencia ficción estadounidense de 2004 I, Robot, los robots humanoides sirven a la humanidad. Sin embargo, no todo va bien. Después de un accidente, un robot rescata a un hombre del automóvil que se hunde, pero una niña de doce años no se salva. El robot calculó que el hombre tenía más posibilidades de sobrevivir; los humanos pueden haber tomado otra decisión. Más adelante en la película, los robots intentan arrebatarle el poder a los humanos. Los robots están controlados por una inteligencia artificial (IA), VIKI, que decidió que restringir el comportamiento humano y matar a algunos humanos asegurará la supervivencia de la humanidad. La película ilustra el temor de que los robots humanoides y la IA se apoderen del mundo. También apunta a dilemas éticos hipotéticos en caso de que los robots y la IA alcancen la inteligencia general. Pero, ¿es esto de lo que se trata y debería tratarse la ética de los robots?

¿Vienen los robots o ya están aquí?

Por lo general, cuando las personas piensan en robots, la primera imagen que les viene a la mente es un robot muy inteligente, parecido a un humano. A menudo, esa imagen se deriva de la ciencia ficción, donde encontramos robots que se ven y se comportan más o menos como humanos. Muchas narraciones advierten sobre los robots. que toman el control; el temor es que ya no sean nuestros sirvientes sino que nos conviertan en sus esclavos. El mismo término “robot” significa “trabajo forzado” en checo y aparece en la obra de teatro R.U.R. de Karel Čapek, representada en Praga en 1921, hace poco más de cien años. La obra se ubica en una larga historia de historias sobre máquinas rebeldes parecidas a humanos, desde Frankenstein de Mary Shelley hasta películas como 2001: A Space Odyssey, Terminator, Blade Runner y Yo, robot. En la imaginación del público, los robots son frecuentemente objeto de miedo y fascinación al mismo tiempo. Tenemos miedo de que tomen el relevo, pero al mismo tiempo es emocionante pensar en crear un ser artificial que sea como nosotros. Parte de nuestra herencia romántica, los robots son proyecciones de nuestros sueños y pesadillas sobre la creación de un otro artificial.

Primero, estos robots son principalmente aterradores; son monstruos y extraños. Pero a principios del siglo XXI surge en Occidente una imagen diferente de los robots: el robot como compañero, amigo y quizás incluso socio. La idea ahora es que los robots no deben estar confinados a fábricas industriales o planetas remotos en el espacio. En la imaginación contemporánea, se liberan de su sucio trabajo de esclavos y entran en el hogar como compañeros sociales agradables, serviciales y, a veces, sexys con los que puedes hablar. En algunas películas, todavía se rebelan en última instancia, piense en Ex Machina, por ejemplo, pero generalmente se convierten en lo que los diseñadores de robots llaman “robots sociales”. Están diseñados para la interacción “natural” entre humanos y robots, es decir, la interacción en la forma en que estamos acostumbrados a interactuar con otros humanos o mascotas. Están diseñados para que no den miedo ni sean monstruosos, sino lindos, útiles, entretenidos, divertidos y seductores.

Esto nos lleva a la vida real. Los robots no vienen; ya están aquí. Pero no son como los robots que conocemos en la ciencia ficción. No son como el monstruo de Frankenstein o Terminator. Son robots industriales y, en ocasiones, “robots sociales”. Sin embargo, estos últimos no son tan inteligentes como los humanos o sus parientes de ciencia ficción y, a menudo, no tienen forma humana. Incluso los robots sexuales no son tan inteligentes o capaces de conversar como el robot representado en Ex Machina. A pesar de los desarrollos recientes en IA, la mayoría de los robots no se parecen a los humanos en ningún sentido. Dicho esto, los robots están aquí y están aquí para quedarse. Son más inteligentes y más capaces de funcionar de forma autónoma que antes. Y hay más aplicaciones del mundo real. Los robots no solo se utilizan en la industria, sino también en el cuidado de la salud, el transporte y la asistencia en el hogar.

A menudo, esto facilita la vida de los humanos. Sin embargo, también hay problemas. De hecho, algunos robots pueden ser peligrosos, no porque intenten matarte o seducirte (aunque los “drones asesinos” y los robots sexuales también están en el menú de la ética de los robots), sino por razones más mundanas, como porque pueden quitarte el trabajo. pueden engañarte haciéndote creer que son una persona y pueden causar accidentes cuando los usas como taxi. Esos miedos no son ciencia ficción; se refieren al futuro próximo. De manera más general, desde el impacto de las tecnologías nucleares, digitales y de otro tipo en nuestras vidas y el planeta, existe una conciencia y un reconocimiento cada vez mayores de que las tecnologías están provocando cambios fundamentales en nuestras vidas, sociedades y medio ambiente, y por tanto es mejor que pensemos más y más críticamente, sobre su uso y desarrollo. Hay un sentido de urgencia: comprendamos y evaluemos mejor las tecnologías ahora, antes de que sea demasiado tarde, es decir, antes de que tengan impactos que nadie quiere. Este argumento también se puede hacer para el desarrollo y uso de la robótica: consideremos las cuestiones éticas que plantean los robots y su uso en la etapa de desarrollo y no después del hecho. 

Autos sin conductor, agencia moral y responsabilidad

Imagine un automóvil autónomo que circula a gran velocidad por un carril angosto. Los niños están jugando en la calle. El automóvil tiene dos opciones: o evita a los niños y choca contra una pared, probablemente matando al único pasajero humano, o continúa su camino y frena, pero probablemente demasiado tarde para salvar la vida de los niños. ¿Qué debe hacer el coche? ¿Qué harán los autos? ¿Cómo se debe programar el coche?

Este experimento mental es un ejemplo del llamado dilema del tranvía. Un tranvía de pista está a punto de arrollar a cinco personas atadas a una vía. Estás parado junto a la vía y puedes tirar de una palanca que redirige el carro a otra vía, donde una persona está atada. ¿Tiras de la palanca? Si no haces nada, cinco personas morirán. Si tiras de la palanca, una persona morirá. Este tipo de dilema se utiliza a menudo para hacer que la gente piense en lo que se percibe como los dilemas morales que plantean los coches autónomos. La idea es que esos datos puedan ayudar a las máquinas a decidir.

Por ejemplo, la plataforma en línea Moral Machine ha recopilado millones de decisiones de usuarios de todo el mundo sobre sus preferencias morales en los casos en que un conductor debe elegir “el menor de dos males”. Se preguntó a las personas si un automóvil autónomo debería priorizar a los humanos sobre las mascotas, a los pasajeros sobre los peatones, a las mujeres sobre los hombres, etc. Curiosamente, existen diferencias interculturales con respecto a las elecciones realizadas. Algunas culturas, como Japón y China, por ejemplo, tenían menos probabilidades de perdonar a los jóvenes que a los viejos, mientras que otras culturas, como el Reino Unido y los Estados Unidos, tenían más probabilidades de perdonar a los jóvenes. Por lo tanto, este experimento no solo ofrece una forma de abordar la ética de las máquinas, sino que también plantea la cuestión más general de cómo tener en cuenta las diferencias culturales en robótica y automatización. 

Fig. 3

La Figura 3 muestra un ejemplo de una situación de dilema del tranvía: ¿Debería el automóvil continuar su curso y matar a cinco peatones, o desviarse de su curso y matar a uno? Aplicar el dilema del tranvía al caso de los automóviles autónomos puede no ser la mejor forma de pensar. sobre la ética de los coches autónomos; afortunadamente, rara vez nos encontramos con este tipo de situaciones en el tráfico, o los desafíos pueden ser más complicados y no involucrar opciones binarias, y esta definición de problema refleja un enfoque normativo específico de la ética (consecuencialismo y, en particular, utilitarismo). Existe una discusión en la literatura sobre hasta qué punto los dilemas del tranvía representan los desafíos éticos reales. Sin embargo, los dilemas del tranvía se utilizan a menudo como una ilustración de la idea de que cuando los robots se vuelvan más autónomos, tenemos que pensar en la cuestión de si darles o no algún tipo de moralidad (si es que eso se puede evitar), y entonces, qué clase de moralidad. Además, los robots autónomos plantean interrogantes sobre la responsabilidad moral. Considera nuevamente el automóvil autónomo.

En marzo de 2018, un auto autónomo de Uber mató a un peatón en Tempe, Arizona. Había un operador en el coche, pero en el momento del accidente el coche estaba en modo autónomo. El peatón caminaba fuera del cruce de peatones. El SUV Volvo no disminuyó la velocidad cuando se acercó a la mujer. Este no es el único accidente fatal reportado. En 2016, por ejemplo, un automóvil Tesla Model S en modo de piloto automático no detectó un camión grande y un remolque que cruzaban la carretera y golpeó el remolque, matando al conductor de Tesla. Para muchos observadores, tales accidentes muestran no solo las limitaciones del desarrollo tecnológico actual (actualmente no parece que los autos estén listos para participar en el tráfico) y la necesidad de regulación; plantean desafíos con respecto a la atribución de responsabilidad. Considera el caso de Uber. ¿Quién es el responsable del accidente? El coche no puede asumir la responsabilidad. Pero todas las partes humanas involucradas pueden ser potencialmente responsables: la empresa Uber, que emplea un carrito que aún no está listo para la carretera; el fabricante de automóviles Volvo, que no logró desarrollar un automóvil seguro; el operador del automóvil que no reaccionó a tiempo para detener el vehículo; el peatón que no caminaba dentro del cruce de peatones; y los reguladores (p. ej., el estado de Arizona) que permitieron probar este automóvil en la carretera. ¿Cómo vamos a atribuir y distribuir la responsabilidad dado que el coche se conducía de forma autónoma y había tantas partes implicadas? ¿Cómo vamos a atribuir la responsabilidad en todo tipo de casos de robots autónomos y cómo vamos a abordar este problema como profesión (por ejemplo, ingenieros), empresa y sociedad, preferiblemente de manera proactiva antes de que ocurran accidentes?

Algunas preguntas sobre los robots autónomos

Como ilustra el accidente de Uber, los coches autónomos no son del todo ciencia ficción. Se están probando en la carretera y los fabricantes de automóviles los están desarrollando. Por ejemplo, Tesla, BMW y Mercedes ya prueban vehículos autónomos. Muchos de estos autos aún no son completamente autónomos, pero las cosas se están moviendo en esa dirección. Y los coches no son los únicos robots autónomos e inteligentes que existen. Considera nuevamente los robots autónomos en hogares y hospitales. 

¿Y si dañan a las personas? ¿Cómo puede esto ser evitado? ¿Y deberían proteger activamente a los humanos del daño? ¿Qué pasa si tienen que tomar decisiones éticas? ¿Tienen la capacidad de tomar tales decisiones? Además, algunos robots se desarrollan para matar (ver el capítulo 7 sobre robots militares). Si eligen su objetivo de forma autónoma, ¿podrían hacerlo de manera ética (asumiendo, por el bien del argumento, que permitimos que tales robots maten)? ¿Qué tipo de ética deben usar? ¿Pueden los robots tener una ética? Con respecto a los robots autónomos en general, la pregunta es si necesitan algún tipo de moralidad, y si esto es posible (si podemos y debemos tener “máquinas morales”). ¿Pueden tener agencia moral? ¿Qué es la agencia moral? ¿Y los robots pueden ser responsables? ¿Quién o qué es y debe ser responsable si algo sale mal?

Adaptado de Robot Ethics por Mark Coeckelbergh. Copyright 2022.

Via