La gente no reconoce los deepfakes y confía más en ellos

| |

Un estudio subraya lo que los observadores de la tecnología deepfake probablemente ya pensaron: las fotos generadas por IA son casi indistinguibles de las fotos reales.

Cuando Ian Goodfellow y sus colegas mostraron por primera vez fotos falsas de personas creadas con tecnología GAN-AI en 2014, todavía eran fotos borrosas en blanco y negro (historia de las falsificaciones profundas).

Incluso entonces, insinuaron el potencial de la tecnología de IA generativa que, al menos en el caso de las fotografías de retratos, debería haberse cumplido en gran medida en el último año a más tardar. Los sistemas generativos ahora están optimizados de tal manera que casi nunca producen errores de imagen típicos de la IA, que solían identificar fotos falsas en el pasado. Un estudio apoya esta observación.

Humano vs. Deepfake: Apenas mejor que el azar

El profesor Hany Farid de la Universidad de California, Berkeley y el Dr. En un experimento, Sophie Nightingale de la Universidad de Lancaster ahora ha probado si las personas todavía pueden distinguir entre fotos reales de personas y deepfakes generados por IA.

Publicación Destacada

Para ello, utilizaron StyleGAN2 de Nvidia, una tecnología deepfake actual pero ni siquiera la última: StyleGAN3 es aún más potente.

Los investigadores seleccionaron 400 rostros generados por inteligencia artificial. Prestaron atención a la diversidad en términos de origen, género y edad. También prefirieron elegir imágenes con un fondo en gran medida uniforme para reducir aún más las influencias externas. Para cada cara generada por IA, eligieron una contraparte del mundo real coincidente de la base de datos utilizada para entrenar StyleGAN2.

Con esta selección de fotografías de un total de 800 imágenes, iniciaron un total de tres experimentos. en el primer experimento 315 participantes clasificaron 128 fotos reales o generadas como reales o falsas. Su precisión fue de alrededor del 48 por ciento, lo que corresponde al nivel de aleatoriedad.

Información sobre las imágenes de prueba sintéticas y reales para los experimentos.
Información sobre las imágenes de prueba sintéticas y reales para los experimentos.

en uno segundo experimento a los participantes se les explicó previamente qué características pueden usar para identificar imágenes falsificadas por IA. 219 participantes examinaron 128 imágenes nuevamente, pero a pesar del entrenamiento previo, solo lograron una precisión del 59 por ciento en la detección de falsificaciones profundas. Esto es poco mejor que una coincidencia.

Las caras falsas son más confiables

Los investigadores tenían otra pregunta de investigación, que tercer experimento Probado: las personas sacarían conclusiones implícitas sobre las características individuales, como la confiabilidad de las personas en función de las caras en milisegundos. Los investigadores querían saber si las personas también extraen estas conclusiones de las personas generadas por IA.

Por lo tanto, en el tercer experimento, se pidió a los participantes que calificaran la confiabilidad de un total de 128 rostros reales y sintéticos. Los participantes calificaron las fotos de retratos falsos como un 7,7 por ciento más confiables que las caras reales..

Publicación Destacada

Los investigadores no asumen que esta atribución más positiva tenga algo que ver con la selección de las fotos en sí. Aunque las personas sonrientes o las mujeres generalmente se clasifican como más confiables, las diferentes expresiones faciales y rostros se distribuyeron uniformemente entre las fotos reales y sintéticas.

La verdadera razón de eso mayor confianza en las caras falsas podría ser su promedio, según los investigadores. La IA genera las caras falsas ensamblando fragmentos individuales de las caras aprendidas durante el entrenamiento de IA de una gran cantidad de personas en una nueva cara sintética.

Se pueden generar imágenes falsas como esta en sitios web relevantes en unos pocos segundos. Para identificarlos como deepfakes, debe mirar muy de cerca, y la cantidad de errores es cada vez más pequeña. La imagen de arriba se genera con tecnología deepfake de 2019. | Imagen: imaginada por una GAN (red adversarial generativa) StyleGAN2 (diciembre de 2019) – Karras et al. y nvidia

Los investigadores instan a la comunidad de gráficos e imágenes a crear pautas para la creación y distribución de deepfakes que la academia, los editores y las empresas de medios puedan usar como guía.

Lina
Lina García ha escrito sobre tecnología y marketing, cubriendo todo, desde la analítica hasta la realidad virtual, desde 2010. Antes de eso, obtuvo un doctorado en inglés, enseñó a escribir a nivel universitario y lanzó y publicó una revista en formato impreso y digital. Ahora es escritora, editora y consultora de marketing a tiempo completo.
Anterior

Deepmind: MuZero le ahorra a Google mucho dinero

Hitman Sniper: The Shadows apunta a una nueva fecha de lanzamiento mundial

Siguiente

Deja un comentario