Publicado 05/04/2023 17:18

Portaltic.-SAM es el modelo de segmentación de imagen con el que Meta pretende democratizar esta tecnología

Segment Anything Model (SAM)
Segment Anything Model (SAM) - META

   MADRID, 5 Abr. (Portaltic/EP) -

   Meta ha compartido sus avances en un modelo de segmentación de imagen, con el que sienta las bases para una herramienta que ayude en la identificación y diferenciación de objetos, con aplicaciones en áreas como la edición de vídeo o la ganadería.

   El proyecto de Meta busca crear un modelo de segmentación preciso para tareas específicas, y para ello ha desarrollado Segment Anything Model (SAM) y el conjunto de datos asociado (SA-1B), el más grande de datos segmentados.

   "SAM ha aprendido una noción general de lo que son los objetos y puede generar máscaras para cualquier objeto en cualquier imagen o vídeo", incluso de objetos y tipos de imágenes con los que no ha sido entrenado, como explican los investigadores de Meta.

Puede, además, realizar una segmentación interactiva y una segmentación automática, lo que hace que sea un modelo flexible, según recoge la compañía en su blog de IA.

   La intención de la compañía tecnológica es que SAM ayude a democratizar el acceso a este tipo de tecnología y que pueda aplicarse a una gran variedad de áreas. Por ejemplo, puede ayudar en aplicaciones creativas en la edición de vídeos, pero también en la localización de animales o en el seguimiento de sucesos naturales en la Tierra.

   Este modelo, junto con SA-1B, está disponible para los investigadores bajo una licencia abierta permisiva (Apache 2.0).