Google prohíbe el entrenamiento deepfake en Colab

| |

Google prohíbe la formación de deepfakes en el servicio en la nube Colab. ¿Qué hay detrás?

Hoy, gracias a las herramientas gratuitas de Deepfake como DeepFaceLab, DeepFaceLive y FaceSwap, cualquier persona con algunos conocimientos técnicos y un hardware potente puede crear sus propias falsificaciones profundas. Las herramientas y los algoritmos mejoran constantemente y el conocimiento recopilado por la comunidad ayuda a los principiantes a lograr mejores resultados.

Sin embargo, existe un obstáculo importante: se requiere un modelo suficientemente capacitado para convencer a los deepfakes.

Publicación Destacada

Cuantos más datos de entrenamiento y mayor sea la resolución deseada, más grande se vuelve el modelo, y rápidamente supera los límites de la memoria de video disponible (VRAM) en las tarjetas gráficas de las PC convencionales. Por tanto, los usuarios recurren a las GPU en la nube, que proporcionan hasta 80 gigas de VRAM.

Google Colab prohíbe la formación deepfake

Un servicio en la nube comúnmente utilizado para experimentos de aprendizaje automático es Colab de Google, una implementación de entornos de portátiles Jupyter que permite la capacitación remota en tarjetas gráficas en la nube de Nvidia.

Además de varias suscripciones pagas que aseguran el acceso a GPU como la A100 de Nvidia, el servicio también ofrece acceso gratuito que distribuye los recursos que aún están disponibles gratuitamente para todos los usuarios.

Google prohíbe el entrenamiento deepfake en Colab
Ya no se permite «crear deepfakes» en Google Colab.

Hasta ahora, los algoritmos de deepfake de DeepFaceLab y FaceSwap también se podían entrenar con Colab, como mostramos en nuestras instrucciones de deepfake.

Pero Google ahora está cambiando eso con la versión gratuita de Colab: además de los ataques DDOS o la extracción de criptomonedas, el entrenamiento de deepfake ahora también está en la lista prohibida en los términos de uso.

Prohibición de deepfake: el desarrollador de FaceLab no asume una motivación ética

El uso de DeepFaceLab en Colab ya genera una advertencia, informan los usuarios. En consecuencia, la ejecución del código puede dar lugar a una restricción de la posibilidad de uso por parte de Google.

El código de FaceSwap aún no ha generado una advertencia, pero la herramienta también es mucho menos común. Matt Tora, co-desarrollador de FaceSwap, sospecha que el motivo de la prohibición no es ético. Más bien, Colab pretende ser una plataforma para investigadores de IA y no para el entrenamiento masivo y computacionalmente intensivo de modelos falsos profundos.

«Me entristece que se haya cerrado una forma para que las personas experimenten con nuestro código, pero en términos de proteger este recurso especial para garantizar su disponibilidad para la audiencia prevista, lo encuentro comprensible», dijo Tora.

Deepfake Tom Cruise
El deepfake engañosamente real de Tom Cruise se creó con el ahora prohibido en Colab DeepFaceLab.

Con la prohibición de Google probablemente la mejor opción para el entrenamiento gratuito de deepfake se ha ido. Hasta el momento, no está claro si la restricción también se aplica a las versiones «Pro» y «Pro+» de Colab.

Al final de la lista de prohibidos solo está la nota: «Se aplican restricciones adicionales a los usuarios que pagan».

Sin embargo, esto no impedirá la difusión de cada vez mejores deepfakes: numerosos proveedores de nube ofrecen acceso relativamente económico a potentes GPU.

Lina
Lina García ha escrito sobre tecnología y marketing, cubriendo todo, desde la analítica hasta la realidad virtual, desde 2010. Antes de eso, obtuvo un doctorado en inglés, enseñó a escribir a nivel universitario y lanzó y publicó una revista en formato impreso y digital. Ahora es escritora, editora y consultora de marketing a tiempo completo.