DALL-E 2 de OpenAI es bastante compatible, pero ¿quién es el responsable?

| |

Desde el inicio de la versión beta de la IA de imagen DALL-E 2, los usuarios han generado más de tres millones de imágenes. OpenAI saca una primera conclusión provisional.

Similar al texto AI GPT-3, OpenAI también es cauteloso al desplegar la imagen AI DALL-E 2. La mayor preocupación de la empresa es que el sistema genere repetidamente imágenes que violen las convenciones sociales o incluso la ley.

Publicación Destacada

¿Cómo se comporta el sistema cuando cientos de miles de personas generan decenas de millones de imágenes? Eso es difícil de predecir. Incluso cuando se presentó dall-e 2, OpenAI abordó los déficits de manera transparente, por ejemplo, que el sistema sirve a los clichés comunes de género, especialmente con las fotos de archivo. Los asistentes de vuelo, por ejemplo, son mujeres, mientras que los jueces son hombres.

DALL-E 2 genera mayormente conforme a las reglas

Después de tres millones de imágenes generadas, OpenAI saca una primera conclusión provisional. El sistema marcó el 0.05 por ciento de las imágenes generadas como potencialmente violando las pautas de contenido. De este 0,05 por ciento, el 30 por ciento fue calificado por examinadores humanos como una infracción real que condujo a la suspensión de la cuenta.

OpenAI también quiere prescindir de la generación de rostros fotorrealistas. Este es un método efectivo para limitar posibles daños, escribe la compañía, que también quiere seguir trabajando en los prejuicios en el sistema de IA tomados de los datos de entrenamiento.

En el Política de contenido OpenAI prohíbe, entre otras cosas, la generación de contenido sexual, violencia extrema, estereotipos negativos y delitos penales.

OpenAI se mantiene cauteloso

Alrededor de 450 imágenes de los tres millones de imágenes generadas violaron las pautas de contenido de OpenAI. Eso suena como poco, pero aún podría generar una avalancha de impresiones negativas de la IA de la imagen al escalar el sistema a gran escala.

Por lo tanto, OpenAI continúa actuando con cautela: la empresa quiere aprender en la práctica como de costumbre, pero solo permite nuevos usuarios en pequeñas cantidades: 1000 por semana. Todos los probadores beta también deben aceptar las pautas de contenido.

«Esperamos que a medida que aprendamos más y ganemos más confianza en nuestro sistema de seguridad, podamos aumentar la cantidad de nuevos usuarios», escribe OpenAI. Se planea un lanzamiento más grande de DALL-E 2 para el verano.

¿Quién es responsable, los artistas o la máquina del arte?

Al igual que en el texto AI GPT-3, aquí también hubo a veces violaciones drásticas de las pautas de OpenAI, y con miras a sistemas de IA generativa aún más potentes en el futuro, la cuestión de la responsabilidad sigue sin resolverse: quién la asume: el fabricante del herramienta o sus usuarios? Esta pregunta también surge en otros contextos de IA, como los sistemas militares o la conducción autónoma.

OpenAI asume una responsabilidad prospectiva a través de las pautas de contenido autoimpuestas y su estrecha supervisión. En última instancia, sin embargo, la empresa se encuentra en un papel en el que tiene que determinar los límites de la moralidad, el arte, la libertad de expresión y el buen gusto entre culturas. Esta no es exactamente la competencia central de los grupos tecnológicos, ni es su área de responsabilidad.

Lina
Lina García ha escrito sobre tecnología y marketing, cubriendo todo, desde la analítica hasta la realidad virtual, desde 2010. Antes de eso, obtuvo un doctorado en inglés, enseñó a escribir a nivel universitario y lanzó y publicó una revista en formato impreso y digital. Ahora es escritora, editora y consultora de marketing a tiempo completo.