Entrevista a Micaela Mantegna: Inteligencia Artificial y algoritmos

Compartir

Entrevista a Micaela Mantegna
Enero 2018

Micaela es abogada de la Universidad Nacional del Comahue de Argentina donde, además, fue docente. Fundó Geekylegal con el fin de divulgar temas vinculados al derecho y la tecnología. Escribe y edita noticias vinculadas a estas temáticas. Actualmente investiga sobre algoritmos, inteligencia artificial y derecho de los videojuegos en el Centro de Tecnología y Sociedad de la Universidad de San Andrés.

 

¿Qué opinás respecto al nivel de participación en esta segunda edición de IGF Argentina?

Desde mi experiencia lo que veo es un crecimiento. Tuve la suerte de poder estar en el primer IGF Argentina, y en este se ve reflejado el aumento de la participación. Está buenísimo que se sigan sumando voces ya que lo que necesitamos es debate cada vez más profundo y extenso sobre los temas que estamos tratando. Puntualmente, sobre lo que puedo hablar y vine a exponer - que son los temas de inteligencia artificial (IA), y Machine Learning vinculados a la gobernabilidad de los algoritmos - se necesita esta profundización y apertura de debate, con lo cual, celebro que siga creciendo.

Es un tema bastante complejo pero en virtud de tus conocimientos se observó que podés transmitirlos de manera muy clara en tus exposiciones. 

¡Gracias por el comentario, lo agradezco mucho! Vengo estudiando mucho el tema, estuve como Google Fellow, que es una beca que se obtiene investigando para el Centro de Tecnología y Sociedad (CETyS) para la Universidad de San Andrés. En este momento estoy allí como investigadora. Recientemente, estuve en el simposio de Inteligencia Artificial e Inclusión en Río de Janeiro, y pude observar que tenemos un muy buen nivel en lo que estamos investigando. Las conclusiones a las que estamos llegando no se quedan atrás de las del resto de los expositores. Además, sucedió que en la dirección que cursa nuestra investigación, hemos llegado a conclusiones que ni siquiera todavía las están avizorando. Las hemos presentado y sorprendieron, así que estoy muy contenta con el nivel de la Universidad en estos temas. Se proyecta el crecimiento del CETyS y la inserción dentro de una red de Centro de Estudio de investigación académica dentro de IA. Es un tema complejo, pero es un tema en el que necesitamos puentes entre la comunidad técnica, los abogados y los reguladores. Muchas veces termina siendo una cuestión de perseverar, tratar de entender, sentarse a estudiar y dialogar. Justamente, creo que la clave de todo esto es el diálogo: nadie va a poder dominar la totalidad de estos fenómenos por sí mismo. Nosotros necesitamos conversar con todos los sectores y necesitamos incitar a la comunidad técnica a que nos explique las cosas que como abogados y académicos no entendemos, y viceversa. Explicarles, desde nuestra experiencia, cuestiones de ética y de legalidad que quizás dentro de la eficacia de los modelos matemáticos, se pierden. Una de las cosas que más hablábamos en el seminario de inclusión es cómo hacer que los ingenieros se preocupen de las “cuestiones éticas” que nosotros tenemos. Mi respuesta intuitiva es hacerle entender a los ingenieros que el sesgo de un algoritmo es algo que es ineficaz, es decir, que su modelo está errado en la medida en que contenga rasgos discriminatorios o que no sean acordes con la ética. Pero como dije anteriormente, el cierre de todo será a través del diálogo interdisciplinario para resolver estos temas.

¿Qué podés contar sobre lo que mencionaste respecto a que existe un grupo que se está encargando del tema de IA?

Hay muchos grupos investigando en el país, uno es IA Argentina. Realmente hay iniciativas en donde se está tratando de exponer el tema desde su arista técnica y abrirlo a un público más amplio. La idea es tratar de “traducirlo” para que todos nos podamos involucrar, porque quizás es complejo si hablamos de machine learning o de determinados algoritmos de regresión. Hay que bajar estos conceptos a ejemplos concretos que se pueden encontrar en la vida cotidiana. El MIT (Massachusetts Institute of Technology, USA) realiza un buen trabajo en este sentido con la iniciativa de la “Moral Machine”. Desde su sitio propone diversos ejercicios que consisten en plantear diferentes escenarios morales sobre autos sin piloto, en los que cada usuario debe elegir cómo resolverlo. Con las respuestas de los usuarios se pretende armar un marco colectivo que sirva para construir un contexto ético. Otra cuestión necesaria es desmitificar los conceptos, mientras se siga hablando de manera críptica, parece que es un campo solo reservado a los expertos. En este sentido me parece clave la frase de Alejandro Crosa (Software Engineer en Twitter) cuando pregona “dejen de vender humo diciendo “inteligencia artificial”. A lo que hoy se llama IA es mayormente aplicaciones de aprendizaje automático (machine learning) y no una inteligencia general. Aunque el término se haya vuelto de uso común para englobar todo esto, es solo una parte de la disciplina de la inteligencia artificial. O sea, cuando corrés el velo de la terminología, hay aspectos en los que todos podemos involucrarnos, no quizás en lo técnico, ni al nivel de profundidad de la gente que se especializa en este campo, pero sí pensando cómo hacer ese puente hacia los problemas éticos y regulatorios que es tan necesario.

En el día a día estamos relacionados con esto, sólo que nos quedamos con lo que vemos en la pantalla y no observamos lo que ocurre “del otro lado”, ¿verdad? 

Exacto, es muy buena la apreciación. La IA, como toda tecnología, presenta beneficios y peligros. Pero uno de los problemas que vemos es cómo empezar a ser conscientes de que interactuamos con algoritmos constantemente, que cuando uno ve el resultado de su timeline en Facebook, en sus redes sociales o en Twitter, está viendo algo que decide por uno, que está filtrando información. Cuando, por ejemplo, Netflix te sugiere qué películas podés elegir, es porque está pensando en tu perfil y está seleccionando por vos las opciones que te pueden agradar. Entonces, eso puede convertirse en un arma de doble filo: por un lado bueno automatizando tareas rutinarias, pero por otro lado, ese perfil puede utilizarse el día de mañana en un sistema de scoring que te perjudique.

Con ello, entramos en el “dilema ético” que generan las nuevas tecnologías.

La IA va a generar una revolución y un cambio sin precedentes en la humanidad. Es inexorable, no es algo que nosotros podamos parar, pero sí es algo que debemos acompañar no sólo desde la regulación sino también desde la Gobernanza. Como en el ejemplo de recién, de la codificación de las reglas éticas en el software de ese auto que va a salir sin un piloto a la calle, no estamos hablando de un Estado que está regulando cómo va a ser eso, sino de una empresa que impone desde su lado privado su visión del mundo: proteger, por ejemplo, la seguridad de su pasajero frente a los demás. Desde la ONU y organismos internacionales están trabajando en algoritmos de alocación de recursos frente a desastres humanitarios con un impacto revolucionario para salvar vidas frente a una crisis. Las posibilidades de aplicación de estas técnicas son infinitas, pero debemos estar preparados para ese cambio.

Por último, ¿cuáles son los impedimentos que pueden entorpecer el desarrollo de este tipo de tecnologías en Argentina?

En realidad, yo creo que estamos en un momento en el cual si tenemos acceso a Internet, podemos acceder a un montón de cosas. Cuando comencé a investigar sobre automatización, no estudié dentro de un sistema de educación formal, sino que de manera autodidacta empecé a acceder a cursos, buscar papers y leer. Entonces, a nivel individual, creo que dependerá del interés que uno tenga para interiorizarse. Desde el lado de la industria es una pregunta interesante, porque creo que sería necesario una regulación que acompañe el crecimiento, incentivando la inversión en el sector. Como país, es una oportunidad para implementar políticas que ayuden a posicionarse estratégicamente como líderes del sector (siguiendo el modelo de Canadá, China o Estonia). Igualmente, tenemos un excelente capital intelectual, con universidades y profesionales de altísimo nivel, y además grupos que empujan la investigación, que quizás lo que necesitan en un poco más de visibilidad y ser invitados o convocados a participar en eventos de Gobernanza de Internet.