Los algoritmos de aprendizaje automático, una de las ramas de la inteligencia artificial (IA), deben ser transparentes aunque eso implique menos eficiencia, sobre todo cuando son utilizados por el Estado, destacaron profesionales que participaron de un debate organizado por Nic Argentina.
«Para confiar es necesaria la transparencia cuando hablamos de IA», afirmó Valentín Muro, especialista en tecnología y filosofía, uno de los expositores del encuentro que se realizó esta semana en Buenos Aires.
Los algoritmos «que emplea el Estado deberían estar basados en datos abiertos», añadió la otra panelista, Micaela Mantegna, abogada, investigadora de derecho de los videojuegos en el Centro de Tecnología y Sociedad de la Universidad de San Andrés.
«No se trata sólo de ‘la novedad’ (que implica la IA), se trata de confiar. Por eso no confiamos en el voto electrónico», añadió Muro.
En relación a la regulación internacional relacionada con la IA, la abogada aportó que sólo la ciudad de Nueva York tiene una norma que «permite abrir los algoritmos del sector público a un grupo de expertos, entre los que hay cientistas de datos y especialistas en ética».
Otro eje del intercambio fue el sesgo en el aprendizaje automático (machine learning), que Muro consideró «un buen negocio, por ejemplo, para los bancos, porque les permite identificar a quién le da crédito, quien es pobre y paga cuotas por mas tiempo, algo que también ocurre para fijar criterios de fianza en Estados Unidos», que muchas veces perjudican a las afroamericanos y latinos.
En el mismo sentido, Mantegna habló del uso de algoritmos por parte de algunos tribunales norteamericanos que lo utilizan para «saber» si una persona que cometió un delito será reincidente.
«El algoritmo es una fórmula matemática que usa datos. Cuando un abogado defensor de EEUU pidió conocer la fórmula de ese algoritmo -y por ende de los datos- que había perjudicado a su cliente, el tribunal se lo negó porque priorizó la propiedad intelectual», añadió la profesional, que recordó que la organización ProPública lo cuestionó en base a una investigación donde demostró el sesgo discriminatorio.
«Si un algoritmo es discriminatorio no es eficiente», aseveró la investigadora.
Tanto Mantegna como Muro insistieron en que la IA «es una aplicación específica, que sabe hacer una sola cosa, en torno a un objetivo», e instaron a «ser específicos» cuando se habla del tema para «no vender humo».
Otra de las preguntas disparadoras del debate moderado por Agustina Callegari, gerenta de Compromiso Global en Internet Society, fue: ¿Qué vamos a hacer con el nuevo escenario de la automatización, las máquinas y las personas?
«Se habla de una ‘cuarta revolución industrial’ donde no solo van a reemplazarse las tareas mecánicas, como en revoluciones industriales anteriores. Hay profesiones que van a tener sistemas de apoyo a sus decisiones, como doctores y abogados”, fue una primera respuesta de Mantegna.
A lo que Muro añadió que «lo primero con lo que se asocia es al reemplazo del trabajador. Se van a reemplazar tareas, no trabajadores. Esto, según datos que tenemos de Estados Unidos, pero en Argentina nos falta información como para poder hacer una análisis».
Para él, la automatización «aumenta el desbalance de poder entre quienes tienen los medios de producción y quienes los usan. Y no estoy diciendo nada nuevo», subrayó.
Ejemplificó diciendo que «cuando Uber sabe que el conductor está por llegar al objetivo monetario fijado para ese día» la IA usada por la empresa de transporte «le promete triplicar, por ejemplo, esa ganancia, y lo hace en base a algoritmos oscuros».
Por eso, la ética de los algoritmos fue un eje que transversalizó todo el intercambio entre panelistas y el público que llenó la sala de la sede de Nic Argentina.
Y sobre robots otra reflexión contundente de Muro fue: «Es ridículo que Arabia Saudita le otorgue la ciudadanía a un autómata (Sophia), que tiene mas derechos que las mujeres de ese país».
La crisis en Facebook, a causa del uso indebido de datos de la consultora política Cambridge Analytica, también tuvo su espacio de debate.
«Se está enfocando en la empresa incorrecta. Es mucho mas peligroso Facebook que Cambridge Analytica», aseguró Muro.
A modo de conclusión propuso «ir en contra de la opacidad de los algoritmos, con participación de la opinión pública y la sociedad civil, para lograr una IA inclusiva».