edición general
138 meneos
1140 clics
SAM: La IA de Meta que lo segmenta todo

SAM: La IA de Meta que lo segmenta todo  

SAM o Segment Anything Model es el nuevo trabajo de Meta que promete acelerar los avances en visión por computador con Inteligencia Artificial. Un modelo capaz de segmentar los elementos característicos de una imagen, sin importar no haberlo visto nunca antes. Un modelo que será muy útil tanto para la generación de futuros datasets como para su uso en tecnologías de AR.

| etiquetas: sam , inteligencia artificial , meta
  1. Demo SAM (Web Meta): segment-anything.com/
  2. Lo he probado y la verdad es que tarda mucho en procesar.

    Por eso puedo decir que SAM va lentín.
  3. #2 Solo por esto ya ha valido la pena.
  4. La verdad que puede parecer que no aporta nada nuevo, pero lo cierto es que funcionar increíblemente bien puede ser disruptivo porque hace a un tipo de tecnología funcional.

    Pensad por ejemplo en la conducción autónoma. Sólo cuando sea autónoma de verdad y en cualquier circunstancia será disruptiva, cambiando completamente el transporte de mercancías y pasajeros para siempre. Mientras, no pasará de anecdótica.
  5. #5 trabaje hace años con OpenCV... Visión articial vamos... Y esto es una auténtica maravilla, sirve para muchísimas más cosas de las que pensamos
  6. Tome usted su positivo y márchese antes que llame a la policía...
  7. #5 Si ahora se hace público esto, supongo que el DoD con DARPA ya le estará dando otro uso para implementarlo en el armamento automatizado. En 5-10 años lo de Black Mirror o Terminator nos parecerá una tontería con lo que se viene.
  8. #5, es un game changer en toda regla para la industria. Las IAs generativas como GPT puede que sean más vistosas que estos modelos discriminativos como este, pero esto tiene una cantidad de aplicaciones inimaginable. Es increíble porque ahora, cada problema nuevo de visión por computador requería de miles de datos etiquetados expresamente y esto ha cambiado de la noche a la mañana. Hemos pasado de ir en carro a ir en cohete en una semana. Se vienen cositas. :roll:
  9. #2 Estoy muy jodido, casi no lo veo.
  10. #9 El bajonazo de Meta del año pasado tiene pinta de que va a cambiar.
  11. En otro orden de cosas me parecen aberrantes las miniaturas de videos estas que sacan cualquier cosa y al youtuber en cuestión con cara de "lo estoy flipando muy fuerte". Sólo un escalón por encima de "Fulanito reacts to XXX".
  12. El notición es que Meta por fin ha hecho algo útil.
  13. #11, supongo que lo quieren aprovechar para el metaverso y sus gafas de realidad virtual, aunque no creo demasiado en que con esto den ningún pelotazo, la verdad. Pero hay muchos sectores en los que esto va a ser super-útil, en indústria y robótica tiene mucho potencial.
  14. Menuda pasada, llevo años siguiendo el tema de la segmentación y esto se sale, enhorabuena a Yann Lecun y su equipo, sigue siendo un hacha.
  15. #14 En el segmento de yo dejando de recortar las cosas a mano en el Gimp van a arrasar, a la vista de que la demo es usable.
  16. #16, y en el de las cámaras inteligentes va a ser brutal. Actualmente para cada problema de visión necesitabas un dataset costoso y difícil de adquirir. Esto ha cambiado. Yo lo he probado con imágenes de lo más variopintas y va realmente bien. El único punto flaco puede ser el de las aplicaciones en tiempo real.
  17. De aquí a que se implemente, Zuckerberg lo joderá de alguna manera
  18. ¿Se puede usar la demo para algo? porque ya digo aparte de analizar creia que la demo tendría algún botón de "cortar" para la foto.
  19. #12 el problema es que lo demanda la plataforma y el alcance de los vídeos con esas caras es bastante mayor a tener una miniatura normal
comentarios cerrados

menéame