SAM 2 de Meta puede segmentar cualquier objeto y seguirlo en un vídeo en tiempo real

Recurso de Segment Anything Model 2 (SAM 2)
Recurso de Segment Anything Model 2 (SAM 2) - META
Publicado: martes, 30 julio 2024 10:14

   MADRID, 30 Jul. (Portaltic/EP) -

   Meta ha compartido los avances que ha hecho en su modelo de segmentación, que en una nueva generación puede identificar los píxeles que pertenecen a un objeto tanto en una imagen como un vídeo.

    La compañía tecnológica presentó en abril del año pasado Segment Anything Model (SAM), un modelo de segmentación de imagen – que identifica los píxeles de la imagen que pertenecen a un objeto- con el que pretendía sentar las bases para una herramienta que ayude en la identificación y diferenciación de objetos, con aplicaciones en áreas como la edición de vídeo o la ganadería.

    Ahora ha presentado la segunda generación (SAM 2) durante la participación de su CEO, Mark Zuckerberg, en SIGGRAPH, la organización centrada en la evolución de los gráficos informáticos y técnicas interactivas, donde también ha compartido sus capacidades para el vídeo.

   EL principal avance de SAM 2 es que puede segmentar cualquier objeto y seguirlo de manera consistente a lo largo de todos los fotogramas de un vídeo en tiempo real, y ello pese a que los objetos en los vídeos pueden "moverse rápido, cambiar de apariencia y quedar ocultos por otros objetos o partes de la escena", como detalla en su blog oficial.

    La compañía ya ve entre sus posibles aplicaciones la creación de nuevas experiencias de realidad mixta o la generación de vídeo más sencilla. También apunta su uso en el entrenamiento de sistemas de visión artificial.

Leer más acerca de: