¿Qué es Moral Machine?

Compartir

¿Qué es?
Agosto 2018

Moral Machine, que puede traducirse como “la moral de las máquinas”, se trata de una plataforma creada para recopilar información acerca de cuestiones que involucran dilemas morales a partir de un cuestionario interactivo a usuarios de Internet. A través de la simulación de situaciones críticas, en las cuales el usuario debe decidir qué hacer de acuerdo a sus convicciones o creencias, el experimento apunta a conformar una “ética general” para luego ser implementada en dispositivos que impliquen el uso de Inteligencia Artificial, como los automóviles autónomos.

 

La Inteligencia Artificial (IA) es un campo en crecimiento desde mediados del siglo pasado y, aunque con períodos más fuertes y otros más débiles, se caracteriza por su rápido progreso. En esta tecnología prima la transferencia de control propio de las personas hacia las máquinas. Es por ello que este proceso atraviesa una trama compleja en tanto conlleva implicancias que se encuentran atadas a “cuestiones morales”. 

Los seres humanos, como sujetos sociales, desarrollamos criterios éticos durante nuestro crecimiento e interacción con el otro, conformando un amplio y variado espectro donde se conjugan cuestiones culturales que le otorgan gran diversidad. Dichas cuestiones morales constituyen lo que pretende transferirse a las máquinas para que su autonomía esté complementada con esa información y así puedan tomar decisiones en situaciones críticas.

Se trata de una de las tareas más dificultosas que encuentra el desarrollo de la IA en determinados campos como, por ejemplo, su aplicación en los automóviles. La conducción autónoma ya es posible, pero los fabricantes y tecnólogos continúan trabajando para que esta metodología pueda fusionarse con las conductas humanas, es decir, conseguir que los dispositivos actúen a través de la “percepción humana” ante situaciones límite.

Con el objetivo de buscar la autonomía en el control de los movimientos por parte de las máquinas, dotándolas de un complemento o soporte similar a la toma de decisiones que poseemos los humanos nació Moral Machine, una herramienta desarrollada por el grupo Scalable Cooperation en el Instituto de Tecnología de Massachusetts (MIT, por sus siglas en inglés). 

En este sentido, una de las funciones de este desarrollo está ligada a la recolección de datos. Esta constituye una plataforma que propone diferentes escenarios, donde los usuarios deben decidir qué acción realizar ante una situación que implica un riesgo tanto para quien está dentro de la máquina que emplea esta tecnología (un automóvil o un tren), o para personas que se ven dentro de esta situación peligrosa sin tener relación con su uso.

Los escenarios presentados permiten al usuario emitir una opinión de cómo deben tomarse decisiones de manera autónoma que, luego de ejecutarse, generan un gran caudal de información para ser utilizada en investigaciones futuras enfocadas en las medidas automáticas de los dispositivos que empleen Inteligencia Artificial. Su éxito se basa en la recopilación de enormes cantidades de datos gracias a la gran convocatoria que posee la plataforma, lo que la convierte en un medio eficaz para la obtención de contenidos sobre ética de IA: la participación pública se establece como pieza fundamental.

Moral Machine conforma un instrumento que brinda posibles respuestas ante los actuales interrogantes que encuentra el desarrollo de esta técnica en sus numerosas aplicaciones (conducción autónoma, predicción de desastres meteorológicos, previsión de resultados de juicios, escritura de artículos, entre otras). Dicho mecanismo desempeña un papel cada vez más importante dentro de las nuevas tecnologías y brinda la posibilidad a los usuarios de crear nuevos escenarios o comparar los resultados entre sí, para conformar “la moral de las máquinas”.