¿Es suficiente un acuerdo millonario para reparar el daño a los autores por el uso ilegal de sus libros en la era de la inteligencia artificial? La respuesta, al menos en el caso de Anthropic y su modelo Claude, parece estar aún lejos de llegar. Un juez estadounidense acaba de frenar el pacto de indemnización por millones y forzó a la tecnológica a empezar de nuevo. ¿Se repetirá esta historia en otros tribunales y con otras IA?
El escándalo detrás de Claude: IA, libros pirateados y un pacto que no convence
El mundo tecnológico lleva meses observando la evolución del juicio contra Anthropic, la creadora de Claude, uno de los modelos de IA generativa más innovadores (y polémicos) del momento. Todo estalló cuando un grupo de escritores alzó la voz en agosto de 2024: acusaron a la compañía de entrenar sus sistemas con cientos de miles de libros con copyright, extraídos sin permiso de enormes bases de datos, incluidas bibliotecas pirateadas como Books3. Aunque la IA suele alimentarse de textos de todo internet, ¿es lícito que escarbe entre obras protegidas robadas de la red?
¿Dónde empieza lo legal y termina lo ético en el entrenamiento de IA?
La polémica va más allá de una simple cuestión legal. Según lo que se ha sabido, Anthropic utilizó tanto libros comprados legalmente como archivos provenientes de enormes repositorios abiertos, pero repletos de copias pirateadas. El dilema es claro: si entrenas una IA con estos materiales sin filtros, ¿no estás, de algún modo, robando la creatividad de los autores?
Un acuerdo bloqueado: 1.500 millones de dólares… ¿para quién?
El escándalo puso a Anthropic contra las cuerdas. El pasado mes de junio, el juez federal William Alsup dictaminó que emplear libros comprados legalmente era aceptable, siempre y cuando el uso fuera suficientemente «transformador». Sin embargo, con los textos pirateados el caso se complicaba. Así que Anthropic intentó zanjarlo con una solución directa: firmó un acuerdo para desembolsar 1.500 millones de dólares en compensaciones. Pero el juez no se dejó impresionar.
¿Por qué? Sencillo. Porque, según Alsup, todo el proceso detrás del trato era demasiado opaco. No se había expuesto una lista clara de las obras afectadas, ni quiénes eran los autores perjudicados, ni cómo se notificaría a los posibles reclamantes ni cómo se repartiría exactamente la suma acordada. “Me preocupa que haya gente que quiera quedarse con el dinero antes de resolver las cuestiones de fondo”, señaló tajante el magistrado. Y tiene razón: en este tipo de demandas colectivas, muchos afectados pueden quedarse fuera del reparto sin siquiera saberlo.
¿Qué pide el juez? Máxima transparencia o nada
El tribunal ha exigido a Anthropic y a los representantes de los autores concretar todos los detalles: publicar una lista final de obras implicadas, identificar bien a los reclamantes, definir un proceso transparente de notificación y crear un mecanismo para que los escritores reclamen su parte. Todo debe estar sobre la mesa antes de que el acuerdo reciba el visto bueno judicial.
- Lista definitiva de títulos afectados antes del 15 de septiembre
- Notificación explícita a los autores implicados
- Mecanismos claros para reclamar la indemnización
- Garantías para evitar futuras demandas sobre los mismos hechos
¿Y ahora qué? Un precedente que pondrá a prueba al sector de la IA
El caso de Anthropic marca una línea roja en el debate internacional sobre el uso de contenidos protegidos para entrenar inteligencias artificiales. Las tecnológicas han apostado por acuerdos multimillonarios para avanzar sin frenos legales, pero los jueces empiezan a exigir procesos limpios, justos y, sobre todo, transparentes. No será el último proceso de este estilo y, visto lo visto, tampoco será el más sencillo.
En un contexto donde cada vez más autores, músicos, cineastas y artistas verifican cómo sus obras terminan en modelos de IA sin permiso, la pregunta sigue sin resolverse: ¿Cuánto vale la creatividad humana cuando se convierte en materia prima para una inteligencia artificial?