La aplicación de citas trollea a los estafadores con perfiles falsos GPT-3 y es brillante

| |

Muchas aplicaciones de citas luchan con cuentas fraudulentas, los llamados estafadores. La empresa emergente Filteroff también sintió los efectos de esto. La respuesta de la empresa: un chatbot GPT-3 retrocede.

En febrero de 2019, OpenAI demostró GPT-2, el primer modelo de lenguaje importante capaz de generar texto tan bien que la empresa sintió que lanzar GPT-2 de inmediato era demasiado peligroso. De lo contrario, Internet podría verse inundado con textos falsos creíbles y escritos automáticamente.

En cambio, OpenAI lanzó una pequeña variante que escribió textos menos buenos. A lo largo del año, los modelos más grandes siguieron gradualmente. La esperada avalancha de textos falsos no se materializó, ni tampoco la aparición masiva de los social bots.

Publicación Destacada

El modelo de lenguaje significativamente más grande GPT-3 siguió en 2021. Aquí, también, OpenAI inicialmente restringió el acceso y luego publicó la inteligencia artificial como un servicio de pago, que es monitoreado de cerca por temor a intenciones fraudulentas y uso indebido.

La ironía de esta historia es que GPT-3 ahora se usa como una herramienta contra los estafadores.

Filteroff pone a los estafadores en un oscuro grupo de citas

La empresa emergente Filteroff, fundada en 2019, opera una aplicación de citas del mismo nombre, que ha estado luchando contra los estafadores con un número creciente de usuarios en los últimos dos años.

Un ejemplo de Filteroff: “Conoces a una linda joven llamada Carolina. Después de hablar con ella durante una semana, empiezas a salir con ella. Ella viene. Pero en el último minuto ella envía un mensaje:

Mi coche se averió de camino a ti. ¿Puedes enviarme $40 para que pueda arreglarlo lo antes posible? Las tarjetas de regalo de Google Play serían buenas’”.

Filteroff emplea a tres personas, por lo que no tiene los recursos para monitorear y resolver manualmente estos casos. En cambio, Filteroff desarrolló una detección de estafadores que mueve a los estafadores identificados del grupo de citas normal a un grupo de citas oscuro.

Además de otros estafadores, solo hay perfiles de bot esperando allí que trollean a los estafadores humanos con fotos falsas generadas por GAN y chatbots GPT-3.

GPT-3 de OpenAI involucra a los estafadores en conversaciones confusas

Los estafadores no obtienen su asignación al grupo oscuro de citas y, por lo tanto, tienen al menos una conversación frustrante de IA. Para mantener bajo el costo de las capacidades de GPT-3, Filteroff redujo la cantidad de palabras que puede generar y filtró automáticamente parte del contenido mediante comandos regex. La puesta en marcha escribe que se cometieron algunos errores en el proceso: GPT-3 a veces se detiene en medio de una oración o usa oraciones dobles.

Aún así, algunas de las conversaciones publicadas son geniales, como cuando un estafador se queja de los bots en la plataforma, un chatbot cambia de sexo, tiene tres trabajos al mismo tiempo o un estafador espera en vano cuatro tarjetas de Google Playstore. La start-up leyó algunas de las conversaciones y las publicó en YouTube.

Hay un resumen de los mejores diálogos sobre el Scammer-Bot-Series de Filteroff. Según Filteroff, todos los chats están encriptados, solo aquellos entre estafadores y bots se transmitieron a la empresa.

Lina
Lina García ha escrito sobre tecnología y marketing, cubriendo todo, desde la analítica hasta la realidad virtual, desde 2010. Antes de eso, obtuvo un doctorado en inglés, enseñó a escribir a nivel universitario y lanzó y publicó una revista en formato impreso y digital. Ahora es escritora, editora y consultora de marketing a tiempo completo.