Los algoritmos de inteligencia artificial (IA) son prejuiciosos, discriminan y no muestran todas las realidades, aseguraron investigadoras de Microsoft y Google que, junto a la Unión Estadounidense por las Libertades Civiles, lanzaron una iniciativa para identificar la inequidades de esta técnica, que «es creada por personas y los sesgos hay que encontrarlos en quien las crea», según una especialista argentina.
Liderada por Kate Crawford de Microsoft y Meredith Whittaker de Google, se lanzó este mes en el Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés), de Cambridge en el este de Estados Unidos, la campaña «IA NOW», con el objetivo de «investigar los impactos sociales de la inteligencia artificial para asegurar un futuro más equitativo», explicaron en su web oficial.
Los algoritmos «con posibles prejuicios ocultos ya se usan cada día para tomar importantes decisiones financieras y legales, como por ejemplo, quién obtendrá una entrevista de trabajo, la libertad condicional o un préstamo. Crawford y Whittaker, afirmaron que los prejuicios pueden existir en todo tipo de servicios y productos», consignó el blog de noticias del MIT.
Para la argentina Marcela Riccillo, doctora en Computación especialista en IA y robótica «este es un problema que existe desde que existe la programación, porque las personas que usan estas técnicas son las que deben tener un buen muestreo , hacer revisiones e incluir todos los casos y realidades» en sus desarrollos.
En tanto, la matemática y autora de «Armas de Destrucción Matemáticas», Cathy O’Neil, cuyo libro destaca el riesgo del sesgo algorítmico en muchos contextos, opinó que las personas «suelen estar demasiado dispuestas a confiar en modelos matemáticos porque creen que eliminarán el sesgo humano. Los algoritmos reemplazan los procesos humanos, pero no están sometidos a los mismos estándares que los humanos. La gente deposita una confianza excesiva en ellos».
Ella manifestó su preocupación en relación a empresas financieras y tecnológicas «que utilizan todo tipo de modelos matemáticos y no son transparentes sobre su funcionamiento. Por ejemplo, me preocupa el funcionamiento de los algoritmos del nuevo servicio de búsqueda de empleo de Google».
La profesional dirige Online Risk Consulting & Algorithmic Auditing, una consultora pensada para ayudar a las empresas a identificar y corregir los prejuicios o ausencias de representación de realidades en los algoritmos que utilizan.
Pero la directora aseguró que «incluso aquellos que saben que sus algoritmos podrían estar sesgados están más interesados en los resultados financieros que en solucionar el problema» y reconoció: «Seré sincera. No tengo clientes en este momento».
O’Neil, Crawford y Whittaker también advirtieron «sobre la falta de interés de Trump en la inteligencia artificial. Ahora mismo no hay ningún movimiento regulatorio para abordar la cuestión», coincidieron.
En tanto que Crawford y Whittaker puntualizaron que «la Oficina de Políticas Científicas y Tecnológicas (de la Oficina Ejecutiva del presidente de EEUU) ya no participa activamente en las políticas de inteligencia artificial, ni en casi ninguna otra cosa, según su página web… El trabajo político debe estar haciéndose en otra parte».
En abril de este año, la revista Science, publicó un estudio liderado por Aylin Caliskan de la universidad estadounidense de Princeton, que demostró que los sistemas de inteligencia artificial que «aprenden» el lenguaje a partir de textos copian los sesgos y prejuicios de los humanos.
También en Estados Unidos, Joy Buolamwini, licenciada en computación e investigadora del Laboratorio de Medios del MIT, creó la Liga de la Justicia Algorítmica, cuando su imagen, la de una mujer afroamericana, no fue reconocida por un software de reconocimiento facial, lo que la impulsó a trabajar para evitar que la inteligencia artificial se convierta en discriminatoria.
Por esto, Riccillo propuso que «se incorporen clases de ética en la formación de programadores, en los equipos técnicos que desarrollan IA. Debe estar presente en los algoritmos, software, programas y las técnicas de inteligencia artificial, que no es una entidad en sí misma, es un área de estudio que desarrollan humanos».