La mejor capacidad de procesamiento de datos permite tomar decisiones más rápidas e inteligentes en terrenos como la ciencia, la medicina o el mercado, entre otros, afirmaron dos académicos y explicaron cómo el big data «puede ayudar a cualquier campo que haya guardado datos y que tenga medios computarizados poderosos para poder tratarlos».
El catedrático emérito de la Universidad Autónoma de Barcelona Emilio Luque y el decano de la Facultad de Informática de la Universidad Nacional de La Plata (UNLP), Armando De Giusti, analizaron el fenómeno del big data, en el marco de «V Jornadas de Cloud Computing y big data» que se celebraron en la casa de estudios platense.
«Lo que supone el big data es la manera en que podemos aprovechar una gran cantidad de información que recolectamos durante años y otra que estamos generando en este momento», explicó Luque, y afirmó que «esa cantidad de datos tratada adecuadamente y de manera más o menos sofisticada, permite poder sacar conclusiones para tomar decisiones».
Esto, sostuvo, puede ayudar «a cualquier campo que haya guardado datos y que tenga medios computarizados poderosos para poder tratarlos», y puso como ejemplo que «en el ámbito de la salud, con información del sistema hospitalario, se puede analizar la propagación de infecciones para ver qué medidas preventivas tomar».
«Todos saben que en la web aparece lo que nos quieren vender: uno está navegando y ve un anuncio de un hotel del mismo sitio para el que ayer busqué un vuelo. Lo que no sabemos es que nuestras historias clínicas también pueden juntarse con otras miles de historias clínicas que permiten tener una visión más completa de un tipo de enfermedad, de su evolución o de las ventajas que tienen los tratamientos», graficó.
«También puede analizarse el comportamiento de los ríos, ver cuándo podría producirse una inundación. Lo difícil sería imaginar campos que no se pudieran beneficiar a partir de eso datos», continuó.
Para Luque, el big data «es una revolución», y si bien aclaró que desde la ciencia y la técnica los datos se utilizaron siempre, la diferencia actual reside en los avances en la capacidad de cómputo.
«Lo que un científico podía tratar hace dos siglos podía limitarse a un volumen pequeñito con cálculos a mano y hoy tenemos máquinas que pueden hacer billones de operaciones por segundo», ejemplificó, y evaluó que «estamos un tanto al principio porque ahora lo importante es cómo desarrollamos programas o aplicaciones que sean más inteligentes y que puedan hacer un análisis más preciso de esa información».
«Estamos haciendo mucho, pero todavía estamos al principio de lo que debería ser una revolución de la capacidad de análisis, de previsión y de generar información y conocimiento a partir de los datos», aseguró.
El catedrático español consideró que «ya no se necesita una potente infraestructura de computación para poder hacer este tipo de operaciones» dado que «hay una tecnología que es la computación en la nube o ‘cloud computing’, que ofrece la capacidad de disponer de cómputo desde el momento que tengo una conexión de Internet».
«Me puedo conectar a un centro que ofrece, pagando lo que se utilice a precios razonables, capacidad de cómputo sólo cuando se precise. Es como no tener un auto y alquilar un vehículo cuando deseo hacer un viaje. Si necesito hacer un cálculo, me conecto, veo las tarifas, envío mis datos y uso los programas de procesamiento que necesito. Se genera esa información y me la devuelven», detalló.
En tanto, De Giusti coincidió que «en cualquier actividad hay gran cantidad de datos y la evolución de las computadoras hace que sea posible procesarlos: por ejemplo, se recolecta en tiempo real el recorrido de todos los patrulleros de todo el conurbano y un procesamiento inteligente de eso, permite tomar decisiones en torno a qué zonas son más o menos patrulladas, o cómo se relaciona eso con el mapa del delito».
«Ello se aplica para muchas otras áreas: con información de hospitales sobre una determinada epidemia se pueden tomar decisiones más rápidas e inteligentes teniendo capacidad de procesamiento de ese gran volumen de datos», expresó.
Y prosiguió: «Analizando radares meteorológicos y censores de lluvia se puede saber que llegará una tormenta y si hay capacidad de procesar esos datos rápidamente se pueden tomar decisiones adecuadas a la situación para prevenir una inundación, lo que puede salvar vidas humanas».
De Giusti aseveró que «si además se tiene la capacidad de escribir algoritmos que extraigan de esa información cierto conocimiento para tomar decisiones rápida y adecuadamente, mejora la capacidad de respuesta ante cualquier situación» y añadió que «el eje de poder de conocimiento está muy centrado en cuál es la capacidad de procesar inteligentemente información para decidir lo mejor».
Por otro lado, destacó la necesidad de convertir esos datos imperfectos, complejos y que no están estructurados «en información útil a partir de que los algoritmos que se procesen tengan más inteligencia para que de todo ese volumen de información se extraiga aquello que permite tomar decisiones a futuro».
«Es decir, algoritmos que diferencian lo que es más importante. Por ejemplo, controlando todos los semáforos de una ciudad, con un algoritmo inteligente se pueden regular en tiempo real los tiempos de las luces verdes o rojas en base a cómo está el tránsito», concluyó.