A Meta anunciou nesta quarta-feira, dia 5, o Segment Anything Model (SAM), um modelo de inteligência artificial (IA) que identifica objetos em imagens e vídeos. Segundo a empresa, a nova ferramenta está conectada ao maior banco de dados de segmentação já criado, com mais de 1 bilhão de máscaras a partir de 11 milhões de imagens licenciadas e que respeitam a privacidade.
Durante o treinamento, SAM aprendeu uma noção geral do que são objetos. Assim, o modelo se tornou capaz de gerar máscaras para qualquer objeto em qualquer imagem ou vídeo, incluindo até mesmo objetos e tipos de imagem que não encontrou durante o treinamento.
Com o SAM, o usuário pode selecionar objetos clicando neles ou escrevendo prompts de texto. Em uma demonstração, escrever a palavra “gato” levou a ferramenta a destacar cada um dos vários gatos em uma foto.
Já está disponível uma versão demonstrativa do SAM em que os usuários experimentar o modelo IA, inclusive subindo fotos próprias na plataforma. Ele está disponível sob uma licença aberta permissiva (Apache 2.0).
Também é possível consultar e até mesmo fazer download do banco de dados de máscara Segment Anything 1-Billion (SA-1B), disponibilizado pela Meta para fins de pesquisa.
Em seu blog oficial, a Meta apontou como o SAM pode ser útil para diversas atividades.
“Para a comunidade de pesquisa de IA e outros, o SAM pode se tornar um componente em sistemas de IA maiores para uma compreensão multimodal mais geral do mundo, por exemplo, compreendendo o conteúdo visual e de texto de uma página da web”, diz o texto.
“Para criadores de conteúdo, o SAM pode melhorar os aplicativos criativos, como a extração de regiões de imagem para colagens ou edição de vídeo. O SAM também pode ser usado para auxiliar no estudo científico de ocorrências naturais na Terra ou mesmo no espaço”, acrescenta a postagem.