Reconocimiento de emociones de IA: Microsoft restringe el acceso a «Azure Face»

| |

La inteligencia artificial ciertamente puede reconocer rostros, pero no la emoción en ellos. Microsoft ahora está respondiendo a las críticas de larga data.

Un estudio publicado en 2019 muestra que el reconocimiento de emociones basado en IA no funciona. El obstáculo es menos técnico: el análisis de la imagen puede detectar de forma fiable si las comisuras de la boca apuntan hacia arriba o hacia abajo.

Publicación Destacada

Pero las máquinas no pueden deducir automáticamente la emoción de esto, como podrías descubrir en esta prueba en línea. Las personas hacen esto mejor (y no siempre) porque interpretan las expresiones faciales en el contexto de una situación o cultura.

Microsoft responde a las críticas

A pesar de estas conocidas deficiencias, Microsoft ofreció «Azure Face» como parte de «Azure Cognitive Services» además del reconocimiento de rostros y emociones.

Durante un Pautas de ética de IA propias actualizadas Microsoft ahora excluye el acceso a la API abierta para este análisis de emociones. Esto también se aplica a la identificación de otras características como el sexo, la edad, la sonrisa, el vello facial, el cabello y el maquillaje.

“Expertos dentro y fuera de la empresa han señalado que no existe un consenso científico sobre la definición de ‘emociones’, que es difícil generalizar conclusiones entre diferentes casos de uso, geografías y demografías, y que la protección de datos en este tipo de función juega un papel importante”, escribe Microsoft.

Las funciones correspondientes ya no serán accesibles para los clientes existentes a partir del 30 de junio, la suspensión de ventas se aplica de inmediato. Estas nuevas pautas también se aplican a las posibles tecnologías alternativas de IA diseñadas para analizar los estados emocionales de las personas. En el pasado, los investigadores presentaron un sistema diseñado para reconocer las emociones al caminar.

Reconocimiento de emociones para personas con discapacidad

Microsoft planea continuar ofreciendo reconocimiento automático de emociones para la aplicación Seeing AI. La aplicación escanea el entorno con la cámara del teléfono inteligente y lo describe para las personas con discapacidad visual. Microsoft escribe que la tecnología puede ser valiosa en escenarios de uso seleccionados.

Microsoft también está restringiendo el servicio de «Voz neuronal personalizada», que se podría llamar negativamente «audio deepfake»: el servicio puede copiar las voces de las personas y luego reproducir fielmente el sonido de su voz con nuevas palabras.

Tal clon de voz podría usarse para un intento de fraude. Microsoft también ve este peligro potencial, pero al mismo tiempo enfatiza el posible uso positivo de la educación, la accesibilidad y el entretenimiento.

Según Microsoft, el acceso al servicio ahora está restringido para clientes seleccionados y solo es posible si el propietario de la voz original está involucrado en el uso del servicio.

Lina
Lina García ha escrito sobre tecnología y marketing, cubriendo todo, desde la analítica hasta la realidad virtual, desde 2010. Antes de eso, obtuvo un doctorado en inglés, enseñó a escribir a nivel universitario y lanzó y publicó una revista en formato impreso y digital. Ahora es escritora, editora y consultora de marketing a tiempo completo.