Twitter implementa aprendizaje automático (machine learning -algoritmos que aprenden de la repetición de experiencias) para mejorar la forma de encuadre de las imágenes que las personas suben a diario en esa plataforma, según describió la red en las últimas horas.
La idea es evitar que en el recorte que se realiza para establecer un formato común de publicación se pierda lo más importante, explicó ayer en su blog la red de microblogging sobre esta técnica que comenzó a aplicar hace un tiempo.
Twitter permite compartir fotos de manera directa desde 2011 y en la actualidad son millones las que se suben todos los días, algo que supone «un desafío» a la hora de «ofrecer una experiencia de interfaz de usuario consistente».
La empresa reconoció que en el esfuerzo de recortar las imágenes «para mejorar la coherencia de la plataforma y permitir ver más tuits de un vistazo», venía recortando de manera defectuosa muchas fotos en las que dejaba afuera aquello que importa.
Si bien los algoritmos ya detectaban los rostros y los mantenían dentro del encuadre, rápidamente surgieron inconvenientes con las que no mostraban humanos.
Por ello, explicó que usa herramientas de machine learning dotadas de redes neuronales para que los recortes se centren en las regiones de las imágenes con «alta prominencia» o «salientes».
«Los académicos estudiaron y midieron la prominencia mediante el uso de rastreadores oculares, que registran los píxeles que las personas fijan con sus ojos. En general, las personas tienden a prestar más atención a caras, texto, animales, pero también a otros objetos y regiones de alto contraste».
Esta información, afirmó la red social, se puede utilizar para entrenar redes neuronales y otros algoritmos para predecir lo que las personas pueden querer ver.
Como se trata de técnicas complejas y «demasiado lentas» se implementaron dos técnicas adjuntas para mejorar la performance de la red.
Entre ellas, los técnicos de Twitter entrenaron redes más pequeñas para imitar la red más lenta pero más poderosa.
Además, desarrollaron una forma de purgar cálculos que «que eran costosos de computar pero que no contribuían mucho al rendimiento» de la red.
«Juntos, estos dos métodos nos permitieron recortar las imágenes diez veces más rápido que con una simple implementación del modelo neuronal. Esto nos permite realizar la detección de prominencia en todas las imágenes tan pronto como se cargan y recortarlas en tiempo real», concluyó.