Especialistas de distintas áreas cuestionaron el «sesgo algorítmico» que desarrolladores de inteligencia artificial (IA) suelen transmitir a sus creaciones a través de la ingesta de datos y que, al estar cada vez más presentes en la cotidianeidad, suelen tomar decisiones que influyen en las personas.
La cuestión «más apremiante es debatir sobre la potestad que le damos a algoritmos para tomar decisiones que afectan potencialmente miles o millones de vidas», analizó en diálogo con Télam Valentín Muro, especializado en cultura hacker y tecnología desde la filosofía.
«El problema de los sesgos algorítmicos o aquellos que tienen que ver con circulación de información y la forma en que distintos algoritmos deciden qué mostrarnos y qué no. ¿Afecta eso a las decisiones que toman las personas?», se preguntó.
Muro consideró «absurdo suponer que los ingenieros detrás de los algoritmos de ‘machine learning’ (aprendizaje automático, una de rama de la IA) no saben lo que pasa durante su funcionamiento».
Al intercambio se sumó Evelin Heidel, activista digital feminista: «Aplicamos inteligencia artificial sin siquiera saber demasiado bien cómo toma las decisiones que toma. A esa inteligencia artificial, además, la alimentamos con datos sesgados».
En un artículo publicado en el sitio especializado GenderIt, la profesional argentina recordó que los sistemas de IA «se alimentan con los datos que los humanos producimos, y en ese sentido ‘heredan’ los prejuicios que existieron en primer lugar a la hora de construir esos conjuntos».
«Así, Google confundió las caras de las personas negras con gorilas; Nikon le insistió a una asiática para que mantuviera los ojos abiertos, pero también los resultados de búsqueda le devolvieron a las mujeres trabajos por salarios menores a los que les ofrecían a los hombres, y así sucesivamente», ejemplificó Heidel.
En esta línea, recientemente tomó notoriedad un sistema de reconocimiento facial desarrollado por investigadores de la Universidad de Stanford para detectar la orientación sexual de las personas a partir de una foto, un mecanismo que fue calificado como peligroso por organizaciones de diversidad sexual, que vieron en el desarrollo un atentado contra la intimidad y una potencial herramienta de persecución.
Entonces, la activista consideró que «la pregunta que permanece flotando en el aire es si dado un conjunto de datos, la inteligencia artificial tiene la capacidad de corregir este sesgo».
La cuestión, añadió, es que «aunque existan métodos informáticos para corregir esas desviaciones y sesgos, el problema subyace en el conjunto de datos», ya que aún cuando se habla de inteligencia artificial «hay restricciones legales muy concretas. Así, el derecho de autor también hace su mella en el conjunto de datos con los que se entrena la IA».
«Construir una base de datos alternativa que permita las correcciones de sesgo también podría enfrentarse con más de un escollo legal», continuó.
Muro aportó que tanto los algoritmos como los datos «son cuestiones que no se están atendiendo con el suficiente cuidado en las implementaciones de las empresas de tecnología».
«Probablemente Google o Facebook estén atendiendo más a estas cuestiones, pero en general en la industria no suele haber el menor interés por las implicancias éticas de lo que se desarrolla. Ese es el principal problema», afirmó el filósofo.
La discusión en torno al «sesgo algorítmico» fue planteada este año en la «Declaración de Barcelona», un manifiesto redactado por un grupo de especialistas en IA de distintos países europeos.
«Cuando un sistema de IA toma una decisión, las personas afectadas deben poder recibir una explicación de por qué se ha tomado esa decisión. Sin embargo, muchas de las técnicas que ‘explican’ los procesos internos del sistema todavía no están bien desarrolladas», señala el documento.
El texto afirma además que los algoritmos con los que opera la inteligencia artificial «son en muchas ocasiones oscuros» y que «es necesario conseguir traducirlos a nuestro lenguaje para que sus decisiones puedan ser éticas y socialmente justas».
En ese encuentro Francesca Rossi, investigadora en IBM y profesora de Ciencias de la Computación en la Universidad de Padua, lanzó la pregunta: «¿Cómo será el desarrollo ético de la propia inteligencia artificial?».
Para Rossi habrá que desarrollar los sistemas «de forma que discriminen sus resultados de forma ética. Esto tendrá que ser así, obviamente, en el caso de los sistemas autónomos, pero también en otros».
Por ejemplo, en herramientas que aconsejen a los médicos en base al análisis de datos: «Si esas sugerencias no siguen un código ético, los propios médicos no confiarán en ese sistema», señaló la profesional.