Meta lleva el seguimiento de manos y cuerpo a Instagram

| |

Meta trae nuevos efectos para la plataforma AR Spark AR: las creatividades de filtro influyen en la música y los efectos espaciales con percepción de profundidad.

Meta amplía la tecnología de realidad aumentada para Instagram: los creativos ahora pueden usar el seguimiento de manos y cuerpo al crear nuevos filtros de Instagram, por ejemplo, para efectos musicales, gestos o pequeñas rutinas de baile.

La versión requerida 136 del software para desarrolladores Spark AR Studio está disponible desde el 25 de abril. Con él, las personas creativas se benefician de las nuevas. Funciones de mapeo de profundidad para la detección de profundidad y una ocultación más controlable.

Filtros musicales de Instagram con Spark AR

En la práctica, los filtros permiten a los usuarios de Instagram estar frente a la cámara del teléfono inteligente jugar con la música ser capaz. Como un DJ, filtran lentamente los agudos de una canción moviendo las manos hacia arriba o hacia abajo frente a la cámara. Pueden influir en los sonidos con efectos, como un oscilador para la generación de tonos o un codificador de voz para una voz robótica.

Publicación Destacada

El desarrollo de estos filtros de Instagram a través de conexiones de módulos visuales recuerda un poco al software de música de nivel de entrada como Bitwig o Ableton Live. Un nuevo motor de audio facilita la creación de filtros basados ​​en sonido.

También están disponibles ahora algunos «parches de activos». Son módulos de programa en los que se pueden instalar interacciones o animaciones. Se utilizan, por ejemplo, al mezclar el volumen o diferentes voces (mezclador, ganancia y compresor). Gestos individuales, como el dedo delante de la boca, silenciar el sonido por un corto tiempo.

La nueva función de mapeo de profundidad «Textura de profundidad de cámara» detecta distancias y extrae esta información en forma de textura. ella lo permite efectos de iluminación espacial y efectos de posprocesamiento.

Efectos espaciales a través de cámara o LiDAR

En algunos teléfonos inteligentes de alto precio, el software AR de Meta utiliza los sensores LiDAR integrados para la detección de profundidad. Otros modelos extraen la información de profundidad de la imagen de la cámara del teléfono inteligente. Estos algoritmos se desarrollaron principalmente para obtener mejores fotografías, pero también se utilizan para medir distancias ópticas.

La «función de oclusión» para cubrir los objetos mencionados al principio se ha hecho más accesible recientemente. Dependiendo de la perspectiva los objetos virtuales desaparecen detrás de los objetos reales como paredes o estantes, ya sea parcial o completamente. De esta forma, los objetos digitales parecen más realistas en el espacio real.

Publicación Destacada

También se incluyen dos nuevas plantillas en la actualización: «Piano Project» y «Audio Visualizer» simplifican las ejecuciones de prueba con nuevos efectos.

Más innovaciones en la versión 136 están en el oficial Blog sobre Spark AR Allí también encontrará instrucciones sobre cómo crear sus propios efectos con Spark AR Studio. El software está disponible para Windows y Mac. Las aplicaciones del reproductor están disponibles para iOS, Android, PC, Mac y Meta Quest (2).

Preparándose para la Meta Cambria

Meta lanzó la sección de filtros AR de Instagram en 2019. Según Meta, cientos de millones de personas usan efectos AR en su ecosistema de aplicaciones cada mes. TikTok ofrece software AR comparable con Effect Studio, al igual que Snap con Lens Studio.

Este año podría surgir un nuevo escenario de aplicación para la base de datos de filtros AR de Meta llena de contenido de usuario: cuando Project Cambria, las primeras gafas VR AR de alta calidad, salgan al mercado, los filtros AR podrían integrarse en la realidad de una manera mucho más inmersiva usando gafas de lo que es posible con un teléfono inteligente.

Martín de Diego
Martín es un reportero que se unió a CuantoTech en 2020, y cubre una amplia gama de temas de TI y política tecnológica. Anteriormente, Martín escribió para Network World de IDG durante 5 años, donde cubrió Microsoft, Google, el código abierto, la computación en la nube, la virtualización, los centros de datos y mucho más. Martín proviene de la Universidad Politécnica de Madrid, donde estudió periodismo y literatura, antes de pasar el inicio de su carrera escribiendo sobre el gobierno, el medio ambiente, la salud y la tecnología médica para varias revista de máxima actualidad.