Gráfico: SIMON LANDREIN |
El infame "dilema del tranvia" se presentó a millones de personas en un estudio global, revelando la diferencia entre la ética y las culturas.
En 2014, los investigadores del MIT Media Lab diseñaron un experimento llamado Moral Machine. La idea era crear una plataforma similar a un juego que llevara a las decisiones de la gente sobre cómo los autos que conducen por sí solos deberían priorizar vidas en diferentes variaciones del "dilema del tranvía". En el proceso, los datos generados proporcionarán información sobre las prioridades éticas colectivas de culturas diferentes.
Los investigadores nunca predijeron la recepción viral del experimento. Cuatro años después de la puesta en marcha de la plataforma, millones de personas en 233 países y territorios han registrado 40 millones de decisiones, lo que lo convierte en uno de los estudios más grandes jamás realizados sobre preferencias morales globales.
Un nuevo artículo publicado en Nature presenta el análisis de esos datos y revela la divergencia de la ética intercultural en función de la cultura, la economía y la ubicación geográfica.
El problema del tranvía clásico es el siguiente: se ve un tranvía fuera de control que se apresura por las pistas, a punto de golpear y matar a cinco personas. Tienes acceso a una palanca que podría cambiar el carro a una pista diferente, donde una persona diferente se encontraría con una muerte prematura. ¿Deberías tirar de la palanca y terminar una vida para salvar cinco?
La Máquina Moral tomó esa idea para probar nueve comparaciones diferentes que demostraron polarizar a las personas: si un vehículo autónomo da prioridad a los humanos sobre las mascotas, a los pasajeros sobre los peatones, a más vidas sobre menos, a las mujeres sobre los hombres, a las personas mayores que a las viejas, a las sanas y fuertes sobre las enfermas. clase alta sobre pobres, defensores de la ley sobre burladores de la ley? Y, finalmente, ¿debe el automóvil girar (tomar acción) o mantenerse en curso (inacción)?
Una pregunta de ejemplo planteada a los participantes de la Máquina Moral. Maquina Moral
|
Los investigadores encontraron que las preferencias de los países difieren ampliamente, pero también se correlacionan altamente con la cultura y la economía. Por ejemplo, los participantes de culturas colectivistas como China y Japón tienen menos probabilidades de salvar a los jóvenes por encima de los viejos, tal vez, según la hipótesis de los investigadores, debido a un mayor énfasis en el respeto a las personas mayores.
De manera similar, los participantes de países más pobres con instituciones más débiles son más tolerantes con los transeúntes irresponsables que con los peatones que cruzan legalmente. Y los participantes de países con un alto nivel de desigualdad económica muestran mayores brechas entre el tratamiento de las personas con estatus social alto y bajo.
Y, en lo que se reduce a la cuestión esencial del problema del tranvía, los investigadores descubrieron que el gran número de personas en peligro no siempre fue el factor dominante en la elección de qué grupo debería evitarse. Los resultados mostraron que los participantes de culturas individualistas, como el Reino Unido y los EE. UU., Pusieron un mayor énfasis en salvar más vidas dadas todas las demás opciones, tal vez, en opinión de los autores, debido al mayor énfasis en el valor de cada individuo.
Los países muy próximos entre sí también mostraron preferencias morales más cercanas, con tres grupos dominantes en el oeste, el este y el sur.
Los investigadores reconocieron que los resultados podrían ser sesgados, dado que los participantes en el estudio fueron auto-seleccionados y, por lo tanto, más propensos a estar conectados a Internet, de alto nivel social y conocedores de la tecnología. Pero aquellos interesados en conducir autos auto-conducidos probablemente también tendrían esas características.
El estudio tiene implicaciones interesantes para los países que actualmente están probando autos de conducción automática, ya que estas preferencias podrían jugar un papel en la configuración del diseño y la regulación de dichos vehículos. Los fabricantes de automóviles pueden encontrar, por ejemplo, que los consumidores chinos entrarían más fácilmente en un automóvil que se protegía a sí mismo sobre los peatones.
Pero los autores del estudio enfatizaron que los resultados no pretenden dictar cómo deben actuar los diferentes países. De hecho, en algunos casos, los autores consideraron que los tecnólogos y los formuladores de políticas deberían anular la opinión pública colectiva. Edmond Awad, un autor del artículo, mencionó la comparación del estado social como ejemplo. "Parece preocupante que a las personas les resulte aceptable en gran medida salvar un estatus más alto que un estatus más bajo", dijo. "Es importante decir: 'Oye, podríamos cuantificar eso' en lugar de decir 'Oh, tal vez deberíamos usar eso'". Los resultados, dijo, deben ser usados por la industria y el gobierno como base para entender cómo el público Reaccionaría a la ética de diferentes decisiones de diseño y políticas.
Awad espera que los resultados también ayuden a los tecnólogos a pensar más profundamente sobre la ética de la Inteligencia Artificial (IA) más allá de los autos que conducen por sí mismos. "Utilizamos el problema del tranvía porque es una muy buena forma de recopilar estos datos, pero esperamos que la discusión sobre ética no se mantenga dentro de ese tema", dijo. "La discusión debería pasar al análisis de riesgo, sobre quién corre más riesgo o menos riesgo, en lugar de decir quién va a morir o no, y también sobre cómo está ocurriendo el sesgo". Cómo estos resultados podrían traducirse en un diseño y una regulación más éticos de la IA es algo que espera estudiar más en el futuro.
"En los últimos dos, tres años más personas comenzaron a hablar sobre la ética de la IA", dijo Awad. “Más personas han comenzado a tomar conciencia de que la IA podría tener diferentes consecuencias éticas en diferentes grupos de personas. El hecho de que veamos personas comprometidas con esto, creo que eso es algo prometedor ".
Fuente: https://www.technologyreview.com/s/612341/a-global-ethics-study-aims-to-help-ai-solve-the-self-driving-trolley-problem/