Meta presenta SAM; IA que potencia el desarrollo de la visión artificial

Meta presentó hoy un modelo de Inteligencia Artificial (IA) que puede seleccionar elementos individuales dentro de una imagen. Le llamaron SAM: Segment Anything Model. Sus desarrolladores explicaron que con el sistema pretenden democratizar un aspecto clave de la visión artificial.

Esta nueva IA logra lo que se conoce como «segmentación», que es la capacidad de identificar qué píxeles de una imagen pertenecen a un objeto específico. SAM funciona de forma muy sencilla: solo hay que hacer clic en el elemento que se quiere seleccionar o escribir su nombre. En una demostración, al apuntar la palabra «gato», la herramienta dibujó cuadros alrededor de varios gatos que aparecían en una foto.

El lanzamiento de SAM vino acompañado de la presentación de SA-1B (Segment Anything 1-Billio), el conjunto de datos de segmentación más grande hasta la fecha, asegura Meta en un comunicado. Esta IA ha sido entrenada para tener una «noción general» de lo que son los objetos, lo que le permite encontrar todo tipo de cosas en cualquier imagen o video.

¿Cuál podría ser su uso práctico? La aplicación más obvia está en la edición de fotografías. Pero Meta explica que, en el futuro, SAM podría usarse para identificar artículos cotidianos a través de lentes de Realidad Aumentada. Los usuarios podrían, de esta manera, recibir recordatorios o instrucciones. La compañía también destacó su posible aplicación en el análisis de imágenes científicas.

El nuevo modelo de IA está capacitado en un conjunto de datos de más de mil millones de «máscaras de segmentación», el sistema de visión artificial que permite singularizar un objeto por medio de una sección delimitadora. Esto es lo que le permite generalizar nuevos tipos de elementos más allá de lo que observó durante el entrenamiento. Meta destaca, además, que SAM permite recopilar nuevas máscaras de manera interactiva en menos de 14 segundos.

Meta, la casa matriz de Facebook e Instagran, ya utiliza una tecnología similar para tareas internas como clasificar imágenes, filtrar contenido inapropiado y sugerir publicaciones a los usuarios de sus redes sociales. El modelo y el conjunto de datos SAM se pueden descargar para uso no comercial. Los usuarios que quieran probar un prototipo con sus propias imágenes también deben aceptar que sea solo para fines de investigación.

Además del desarrollo de SAM, Meta se ha puesto como objetivo clave para este año integrar más «herramientas creativas»de IA generativa en sus aplicaciones, según ha explicado director ejecutivo, Mark Zuckerberg.

La empresa anunció en febrero pasado el lanzamiento de LLaMA, su propio modelo de lenguaje. A diferencia ChatGPT (de OpenAI) o de Bard (creado por Google), Meta presentó su propuesta como una herramienta más «pequeña y de mayor rendimiento». Fue puesta a disposición a grupos de investigación específicos también bajo una licencia no comercial.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *