Inteligencia Artificial: Oportunidades y desafíos de presente y futuro

Los algoritmos ya están presentes en diferentes ámbitos de nuestra vida cotidiana, desde la información (o desinformación) que recibimos por redes sociales hasta la forma en que nos movilizamos por la ciudad o se implementan negocios. Los dilemas éticos asociados a esta revolución tecnológica, particularmente en el ámbito de la educación y el futuro del trabajo, son algunos de los focos del Núcleo Inteligencia Artificial y Sociedad de la Universidad de Chile [IA+SIC], unidad que hoy colabora en el desarrollo de una Política Nacional de Inteligencia Artificial participativa, al servicio de las personas y con foco en la ética y gobernanza digital. La UNESCO ha reconocido que la Inteligencia Artificial puede ser una gran aliada en el logro de los Objetivos de Desarrollo Sostenible de las Naciones Unidas (ODDs), a través de su contribución a la construcción de sociedades del conocimiento inclusivas. Los sistemas de Inteligencia Artificial pueden presentar grandes oportunidades en ámbitos como la salud, el futuro del trabajo, la educación, la ciencia y la comunicación, entre otros. Pero los desafíos son también numerosos, considerando que muchas tecnologías se implementan antes de conocer sus posibles impactos en la sociedad. Esa intersección, entre Inteligencia Artificial y dinámicas de inclusión y exclusión social, es donde el Núcleo Inteligencia Artificial y Sociedad del Instituto de la Comunicación e Imagen de la Universidad de Chile [IA+SIC] desarrolla sus líneas de trabajo.
Uno de los recientes cuestionamientos sobre la forma en que se diseñan e implementan sistemas de inteligencia artificial estuvo relacionado con el movimiento #BlackLivesMatter y el crimen de George Floyd, donde tecnologías algorítmicas filtraron y terminaron por invisibilizar publicaciones relevantes en redes sociales vinculadas a este movimiento. El episodio demostró los sesgos que estas tecnologías pueden tener y perpetuar, los que se pueden originar en los procesos de diseño, pero también abarcan el uso y calidad de los datos que utilizan los algoritmos para tomar determinadas decisiones. Este caso es sólo un ejemplo de las múltiples formas en que los sistemas de Inteligencia Artificial pueden tener repercusiones indeseadas ante una falta de equipos de desarrolladores diversos, auditorías éticas y regulaciones adecuadas.
El desafío del diseño, desarrollo, implementación y uso ético de la Inteligencia Artificial es uno de los ejes del trabajo del Núcleo [IA+SIC], unidad que a través de sus miembros, ha colaborado y colabora en iniciativas globales y nacionales como el Consenso de Beijing sobre Inteligencia Artificial y Educación, las Directrices sobre Inteligencia Artificial y derechos de niñas, niños y jóvenes de UNICEF, las Directrices sobre protección de la Infancia de la Unión Internacional de Telecomunicaciones y en la Política Nacional de inteligencia Artificial de nuestro país, a partir de la comprensión y estudio de cómo estas tecnologías son usadas e impactan en la vida de niñas, niños y jóvenes.
Auditorías algorítmicas
El desarrollo, implementación y uso ético de los sistemas de Inteligencia Artificial es un elemento transversal para los múltiples desafíos en este campo. Para Lionel Brossi, codirector del Núcleo [IA+SIC], la inclusión social y la transparencia deben ser los principios rectores de la Política Nacional de Inteligencia Artificial, tanto en su generación como en las definiciones sobre diseño e implementación de sistemas, seguridad y privacidad de datos. Agrega además la necesidad de que estas tecnologías sean explicables, “porque si no se puede comprender cómo funcionan y cómo toman determinadas decisiones, la ciudadanía no podrá evaluar si estos sistemas son justos o no”.
Cuando tratamos de entender cómo funcionan los algoritmos de redes sociales como Facebook o Instagram nos enfrentamos a verdaderas cajas negras, explica Ana María Castillo, codirectora del Núcleo. “Sabemos que los alimentamos con nuestros likes o con la atención que prestamos a los contenidos cuando estamos dentro de las plataformas, pero no sabemos realmente cómo las redes deciden mostrarnos ciertos contenidos y no otros, porque sus fórmulas no son abiertas, no están disponibles para nuestro conocimiento”.
En este contexto, la propuesta de auditorías algorítmicas a cargo de equipos humanos emerge ante la necesidad tanto de fiscalizar la recolección, protección y utilización de los datos, como de supervisar el funcionamiento ético de los algoritmos. “Esto permite asegurarse de que los sistemas de Inteligencia Artificial tomen mejores decisiones u operen de manera ética, protegiendo de forma adecuada el uso de datos, la seguridad y la privacidad de las personas, así como disminuir los potenciales impactos negativos que puedan tener sobre sujetos y comunidades”, afirma Lionel Brossi.
El factor humano detrás del algoritmo busca además una adecuación de estos sistemas a cada realidad local. “Por ejemplo, la desconexión del contexto al momento del desarrollo hace que los sistemas sean sesgados y no funcionen todo lo bien que esperaríamos. Y en la implementación, si no hay una regulación y fiscalización adecuada, es posible que esos sistemas en algún momento vulneren los derechos de las personas. Debemos pensar estos sistemas desde nuestros contextos situados para que se desarrollen de manera mucho más plural y diversa, y se atienda también a las posibles consecuencias negativas que pueden tener en la sociedad”, agrega Ana María Castillo.
Alfabetización ciudadana
Clave para una gobernanza ética de la Inteligencia Artificial es la educación de la ciudadanía y de los equipos diseñadores de sistemas para que produzcan tecnologías en donde los derechos humanos y la justicia social estén en el centro. Por esta razón, el Núcleo ha desplegado una campaña de alfabetización a partir de situaciones concretas y cotidianas, enfocada sobre todo en niños, niñas y jóvenes, quienes verán cada vez más impactadas sus vidas por esta revolución tecnológica.
Una de estas iniciativas, impulsada por UNICEF, y desarrollada junto al Ministerio de Ciencia y los programas Equipo Futuro y Explora, ha sido la realización de los talleres “Inteligencia Artificial y Derechos de niñas, niños y jóvenes” con participantes de todo el país, los que fueron inaugurados por el ministro de Ciencias, Andrés Couve, el pasado lunes 20 de julio.
Estos talleres tributarán a las Directrices de Inteligencia Artificial y derechos de niñas, niños y jóvenes que UNICEF presentará el próximo año. El objetivo es que tanto estas directrices como otras políticas y planes estratégicos de Inteligencia Artificial incluyan las voces, perspectivas y aportes de las y los jóvenes.
A este trabajo se suman instancias de formación y diálogo ciudadano que comenzaron a mediados de julio en el marco de la elaboración participativa de la Política Nacional de Inteligencia Artificial. “El propósito es que las ideas y planteamientos de estas mesas tengan incidencia en la Política, y ya existe una amplia diversidad de propuestas a nivel nacional. Se trata de una muy buena iniciativa, que parte desde el diálogo e iniciativas ciudadanas, y esperamos que desde estos espacios se activen compromisos para que los insumos que se generen sean incluidos”, indica el profesor Brossi.
Durante este año, el núcleo también participará en proyectos internacionales asociados a la calidad de la información y el futuro del trabajo. En este último tema, integran el proyecto Future Ways of Working in the Digital Economy, financiado por la Agencia Nacional de Investigación de Noruega y dirigido globalmente desde la Norwegian Business School, que abordará cómo la economía de plataformas genera resignificaciones del espacio público/privado y nuevas dinámicas de cuidado entre las y los trabajadores que se enfrentan a numerosas vulnerabilidades.
Educación del futuro
Ambos académicos plantean que las oportunidades para el desarrollo de la Inteligencia Artificial en Chile son enormes y alcanzan a cada ámbito de nuestras vidas. En este sentido, Lionel Brossi asegura que “es un muy buen ejercicio enfocarnos en las oportunidades sin olvidarnos de todos los desafíos y riesgos que estas oportunidades implican. Siempre con la mira en cómo estas tecnologías pueden contribuir a lograr una sociedad más inclusiva, más justa y plural”.
En el ámbito de la educación, por ejemplo, puede apoyar la labor docente. “Hoy en Chile hay escuelas que están utilizando sistemas de aprendizaje automático para la enseñanza de lengua extranjera. También puede contribuir muchísimo a la administración en la educación y ayudar a la personalización y evaluación del aprendizaje. Actualmente existen sistemas que pueden detectar cuál es el mejor camino curricular para un estudiante, de acuerdo a sus propias competencias, intereses y debilidades”, detalla. En este campo el codirector del Núcleo ha sido parte de los más de 500 especialistas internacionales que contribuyeron a la elaboración del Consenso de Pekín sobre Educación e Inteligencia Artificial, que presenta un mapa de ruta para el diseño, desarrollo e implementación de los sistemas de inteligencia artificial en el ámbito de la educación, desde una perspectiva ética y de respeto a los derechos humanos.
La digitalización obligatoria en el contexto de la pandemia está abriendo además una puerta al debate sobre la automatización de los procesos educativos y las posibilidades de acceso a ámbitos de educación continua de manera autónoma y abierta. Al respecto, señala que “ahí habrá una lucha en términos de trabajar por el conocimiento abierto y que estos sistemas se democraticen lo más posible para que todas las personas puedan acceder. Esto no quiere decir que la educación va a tener que automatizarse, sino que siempre debe estar centrada en el humano. Lo que se plantea es que estos sistemas pueden contribuir enormemente a mejorar y a hacer más eficientes los procesos de enseñanza y aprendizaje y de administración de la educación”.
En esta área, el Núcleo actualmente desarrolla una investigación enfocada en el futuro de la digitalización educativa en nuestro país, particularmente en la docencia universitaria. “Estamos haciendo una revisión sistemática sobre este tema, tanto en el país como a nivel internacional, para fortalecer la mirada desde Chile a los procesos de docencia universitaria, pero también extensible a otros ámbitos de la educación, como el administrativo o la relación de los docentes con las tecnologías, y una proyección sobre el futuro”, comenta Ana María Castillo sobre este proyecto FIDOP de la U. de Chile.
Política Nacional de Inteligencia Artificial
La discusión en curso de la Política Nacional de Inteligencia Artificial (PNIA) abarca ámbitos como la infraestructura, el desarrollo de aplicaciones y la ética en el desarrollo e implementación de sistemas. Brossi y Castillo destacan en la iniciativa la presencia del fomento a la innovación en Inteligencia Artificial junto con una regulación ética. La codirectora del Núcleo valora asimismo que “dentro de los focos de la Estrategia de Inteligencia Artificial para Chile, elaborada por la Comisión Desafíos del Futuro del Senado, el primero que se menciona es el de inclusión social. Creo que una estrategia con ese énfasis, en el que se habilite la participación ciudadana, tal como está sucediendo ahora con la construcción de la Política, es el camino correcto, pues se trata de una estrategia que trascenderá diversos gobiernos”.
También comparte planteamientos de la minuta inicial de este proyecto, como la visión de privilegiar el trabajo por sobre las infraestructuras que habilitan la Inteligencia Artificial, la preocupación por la protección de datos y la intención de poner como base la ética de la gobernanza digital. En este sentido, sostiene, “se espera que a partir de estas dos iniciativas, la estrategia del Senado y la PNIA, dialoguen de manera productiva. El documento del Senado debiera ser un insumo para la generación de la política, así como las mesas y los grupos de trabajo que actualmente trabajan en este tema”.
Lionel Brossi releva la decisión de construir esta política de manera participativa, “porque no es algo común, en otros países no suele ser construida de manera colaborativa y participativa con énfasis ciudadano”. Rescata además el caso de Canadá como referencia, cuya política de Inteligencia Artificial fue publicada el 2017. “Ellos fueron uno de los primeros países americanos en desarrollar una estrategia de Inteligencia Artificial, con un foco importante además en inclusión social. Han sido asimismo el primer país que asumió un rol explícito en las implicancias sociales de la Inteligencia Artificial y han apoyado con recursos para establecer estrategias en Latinoamérica”. En este ámbito también hemos colaborado con IDRC Canadá y LATAM Digital México, en las primeras discusiones para la elaboración de una estrategia de Inteligencia Artificial Regional.Texto: Cristian Fuentes ValenciaPrensa UChileLunes 3 de agosto de 2020