Un investigador argentino está indagando sobre el uso de inteligencia artificial (IA) en centros de monitoreo urbano para detectar peligros en barrios y viviendas, una tecnología que una empresa utiliza en zona de huracanes en Estados Unidos, y que es cuestionada por ONG de derechos humanos por considerar que viola la privacidad.
A través del procesamiento de imágenes con algoritmos matemáticos, la inteligencia artificial (IA) continúa avanzando sobre tareas tradicionalmente humanas y suma habilidades que van desde la evaluación del riesgo que corren construcciones expuestas al mal clima hasta la emisión de alertas por situaciones de inseguridad.
Si bien la inteligencia artificial existe como teoría desde hace décadas, fue la potencia de cálculo de los actuales ordenadores y la recolección de datos masivos lo que permitió que esta rama de la computación se expandiera y que lograra importantes avances, especialmente en el análisis de imágenes.
En ese último campo trabaja el docente e investigador de la Universidad Nacional del Noroeste de Buenos Aires, Leonardo Esnaola, quien busca aplicar IA en centros de monitoreo urbano para mejorar la seguridad y colaborar en la detección de peligros.
«Mi idea es que mediante un modelo de red neuronal se puedan procesar imágenes y reconocerlas al igual que lo hace un operador humano. La red neuronal tendría que poder adquirir el conocimiento para detectar un peligro en los videos, igual que lo haría un personal humano», planteó en declaraciones al argentinainvestiga.edu.ar.
Aunque el investigador comentó a Télam que su estudio se encuentra en fases iniciales, ya existen desarrollos que permiten detectar situaciones riesgosas en ámbitos fabriles y su extensión a otros ámbitos es cuestión de tiempo.
Esnaola dijo que estos sistemas “pueden captar una parte de la inteligencia humana” y que se trata de una tendencia que «no se puede detener o negar, ya está acá y se está haciendo”, lo que abre la puerta a una serie de debates sobre la captura de los datos para alimentar su funcionamiento y su forma de aplicación.
Quienes quieren aplicar soluciones de IA, sean gobiernos para detectar situaciones de inseguridad o empresas que quieran vender seguros, tienen que plantearse cómo obtener de manera legal los datos que muchas veces recolectan por sus propios medios o, en otros casos, deben conseguir por parte de terceros.
«Hay empresas que obtienen datos a través de sus dispositivos, como Amazon a través de Alexa. Yendo a casos menos desarrollados, las aseguradoras que quieren establecer cuál es el domicilio de una persona piden la instalación de una app dónde se pide acceso al GPS del celular», describió el especialista en Data Scientist de la empresa Machinalis, Ariel Wolfmann, durante una charla organizada esta semana por la Cámara Argentina de Fintech.
Las compañías de seguros que ofrecen cotizaciones para seguros ya utilizan Big Data y herramientas de inteligencia artificial para hacer la evaluación de riesgo de personas y propiedades.
Si tradicionalmente se utilizaba la confección de largas declaraciones juradas por parte de los solicitantes y visitas de inspectores, la cuarta revolución puede usar, por ejemplo, el uso de imágenes satelitales para comprender la vulnerabilidad de una casa a robos o desastres naturales.
La empresa estadounidense Cape Analytics, que trabaja en áreas expuestas a huracanes inició ese camino y usa imágenes geoespaciales para extraer automáticamente datos como la geometría y estado del edificio y barrio en dónde se emplaza.
Cape Analytics toma imágenes satelitales de terceros y luego utiliza inteligencia artificial para determinar cosas que la «mayoría de los solicitantes pueden no saber, cómo el estado de su propio techo», dijo el CEO de la empresa, Ryan Kottenstette en diálogo con el sitio fastcompany.com.
Sin embargo, la simple captura de esos datos -ya sea a través de imágenes satelitales, cámaras de seguridad u objetos conectados a la red que recolectan datos- es una práctica objetada por organizaciones de derechos humanos que alertan contra la vulneración de la privacidad.
«Deben realizarse regulaciones que deberían surgir después de debates rigurosos y de consensos realizados por expertos en diversas disciplinas, con los ciudadanos, y así plantear qué cosas sí estarían permitidas y qué cosas prohibir», concluyó Esnaola.