Segment Anything Model (SAM) - META
MADRID, 5 Abr. (Portaltic/EP) -
Meta ha compartido sus avances en un modelo de segmentación de imagen, con el que sienta las bases para una herramienta que ayude en la identificación y diferenciación de objetos, con aplicaciones en áreas como la edición de vídeo o la ganadería.
El proyecto de Meta busca crear un modelo de segmentación preciso para tareas específicas, y para ello ha desarrollado Segment Anything Model (SAM) y el conjunto de datos asociado (SA-1B), el más grande de datos segmentados.
"SAM ha aprendido una noción general de lo que son los objetos y puede generar máscaras para cualquier objeto en cualquier imagen o vídeo", incluso de objetos y tipos de imágenes con los que no ha sido entrenado, como explican los investigadores de Meta.
Puede, además, realizar una segmentación interactiva y una segmentación automática, lo que hace que sea un modelo flexible, según recoge la compañía en su blog de IA.
La intención de la compañía tecnológica es que SAM ayude a democratizar el acceso a este tipo de tecnología y que pueda aplicarse a una gran variedad de áreas. Por ejemplo, puede ayudar en aplicaciones creativas en la edición de vídeos, pero también en la localización de animales o en el seguimiento de sucesos naturales en la Tierra.
Este modelo, junto con SA-1B, está disponible para los investigadores bajo una licencia abierta permisiva (Apache 2.0).