El avance de la inteligencia artificial generativa pone en escena una disputa con el campo artístico: muchas obras son usadas para entrenar algoritmos sin autorización ni retribución justa para sus creadores. ¿Cambian las nociones de autoría, creatividad y derechos culturales?
 
			El reciente caso protagonizado por Anthropic, empresa creadora de la Inteligencia Artificial Generativa (IAG) “Claude”, se trata de un claro ejemplo de las actuales tensiones entre la IAG y los artistas: la empresa aceptó un acuerdo millonario para compensar a escritores cuyas obras habían sido utilizadas sin autorización para entrenar a la IAG. Sin embargo, lo más llamativo del caso es que el pago se hará por el hecho de haberlas descargado de internet sin pagar por ellas, no por usarlas para entrenar a las IAG sin permiso de sus autores.
Según el juez de California del Norte el uso de obras para entrenar estas herramientas es “uso justo” que no implica violaciones a las leyes de copyright. Este tipo de interpretación legal sobre el uso de contenidos protegidos parece extenderse por los juzgados estadounidenses y deja desamparados a los autores que ven cómo sus obras se utilizan por parte de empresas cuyo fin es reemplazarlos y dejarlos sin trabajo.
Un negocio fraudulento
Naida Jazmin Ochoa es ilustradora y diseñadora gráfica. Además es una de las fundadoras y actual coordinadora del colectivo Arte es Ética. En conversación con ANCCOM, denuncia que las IAG se sostienen a partir de un modelo de negocios que constituye “el mayor lavado y robo de datos y propiedad intelectual jamás concebido: ninguna persona, sea o no sea artista, dio su consentimiento para ceder su obra visual o literaria, su imagen, su voz, su identidad, en el entrenamiento de los actuales servicios comerciales de IAG”. Y agrega: “Al día de hoy se acumulan 74 procesos judiciales en curso con sobrada evidencia de esta realidad que aplica a todos los servicios comerciales de IAG. Desde las principales y más conocidas como Stable Diffusion, Dall-E, Midjourney, ChatGPT, Runway, SORA, Suno, Image de Google, Flux, Adobe Firefly hasta las menos conocidas y que se ofrecen como alternativas `gratuitas`, como por ejemplo, LeonardoAI.”
Esta nueva tecnología estira las interpretaciones legales hasta el límite gracias a un intenso lobby sobre políticos, medios y jueces, pero sobre todo pone a los artistas en una situación en la que pueden perder su trabajo al ser reemplazados por sistemas automatizados. En relación a esto, Martin Eschoyez, animador e ilustrador, señala que el problema se configura a partir de la “asimetría de acceso y beneficio». Sostiene la necesidad de trazar una distinción: “La concentración de renta y poder no se da porque las máquinas roben la creatividad humana, sino porque unas pocas corporaciones poseen la infraestructura, los datos y la capacidad de entrenamiento. Es un fenómeno clásico de concentración tecnológica, muy anterior a la IA: pasó con la imprenta, con la fotografía industrial, con el cine de estudio, con Internet. La diferencia ahora es la velocidad y la escala”. Se trata de una mirada que invita a no moralizar la tecnología, sino, en palabras de Eschoyez, “a diseñar marcos que reconozcan y remuneren el aporte humano dentro de ese ecosistema”. Sin embargo, en términos prácticos resulta complejo dar cuenta de esta distinción; ya que el desarrollo de las IAG depende, tal como señala Fernando Schapachnik, del entrenamiento con grandes volúmenes de datos que hoy se encuentra sujeto a las condiciones de la infraestructura actual y sus orígenes fraudulentos, los cuales han sido expuestos, tal como señala Ochoa, por nada más ni nada menos, que varios de los CEOs de las empresas que las desarrollaron como Sam Altman ante la Cámara de los Lores, o David Holz y Mira Murati.
Por su parte, Nia Soler, ilustradora, escritora y representante del colectivo Arte es Ética en España da cuenta de un ejemplo que ilustra a la perfección el lobby de estas empresas “durante la elaboración del Código de Buenas Prácticas de la Unión Europea, en concreto con el borrador relativo al copyright. Los parlamentarios rebajaron considerablemente las obligaciones que debían cumplir las tecnológicas en materia de derechos de autor porque, según una investigación del Observatorio Corporativo Europeo (CEO), se adjudicó un contrato a tres consultoras externas, Wavestone, Intellera y el Centro de Estudios Políticos Europeos (CEPS), para ayudar a la Oficina de la IA en la redacción de este Código. Estas consultoras tenían, y tienen, acuerdos y contratos previos con las principales corporaciones desarrolladoras de IA generativa: Microsoft, OpenAI, Google, Meta y Amazon, entre otras”.
¿Un vacío legal?
Tanto Ochoa como Soler afirman que las leyes están, pero lo que brilla por su ausencia es la voluntad de hacerlas cumplir. “El procedimiento inicial que dio origen a este asunto lo deja más que claro: la empresa LAION (Large-scale Artificial Intelligence Open Network) bajo la figura de non-profit obtuvo permisos para hacer raspaje de datos en internet, lo que se conoce como data scraping, como aparente método de investigación. Con dichos permisos, se hicieron con un botín de casi seis mil millones de imágenes, sin consentimiento, crédito ni compensación alguna para con las personas que crearon dichas imágenes o que figuran en ellas”, explica Ochoa. Para rematar, agrega: “Luego, LAION le cedió la explotación comercial de ese conjunto de datos a otra empresa… pero no a cualquier empresa sino a StabilityAI, fundada por Emad Mostaque, y que resulta ser una de las empresas que financió a LAION en primer lugar. De esta forma, StabilityAI consiguió la base de datos necesaria para el entrenamiento de su software Stable Diffusion, el cual, aunque fue publicado como de código libre, sigue dando multimillonarios dividendos a la empresa desde agosto de 2022 y constituye el lavado de datos más importante de la última década”. Ante esto, para Ochoa surge la pregunta ineludible: “¿Nadie vio el camino de ardides y estrategias que estos CEOs y estas empresas hicieron para saltarse las leyes vigentes?”.
Soler, desde España, agrega: “Ni siquiera con la Ley de IA europea (AI Act), el Código de Buenas Prácticas de la UE y el Anteproyecto de Ley sobre IA de España se están defendiendo los derechos de los trabajadores creativos, cuyas reivindicaciones, propuestas y necesidades están siendo ignoradas sistemáticamente por los dirigentes políticos. La idea de que es imposible obtener el consentimiento o pagar a los autores por el uso y la explotación de sus obras es una argucia de las tecnológicas para no asumir su responsabilidad y evadir las consecuencias de sus actos”. Además, en relación a los casos como el de Anthropic, señala: “Los actuales modelos comerciales de IA generativa se desarrollaron y siguen funcionando de manera ilegal, por lo que el pago por las obras contenidas en los actuales conjuntos de datos no es la solución, ya que sería una forma de respaldar este hecho delictivo y de que este modelo de negocio fraudulento siga su curso. La única manera de resolver una parte de esta problemática es eliminar los datasets existentes y crear unos nuevos que no violen leyes y cuenten con el consentimiento explícito de los autores. La mayoría de las veces el debate se centra en la remuneración y se ignora con frecuencia que una gran cantidad de autores no desean formar parte de la industria de la IA generativa”.
¿Qué hay de nuevo, viejo?
La investigadora Jazmín Adler, doctora en Teoría Comparada de las Artes (UNTREF) y licenciada en Artes (UBA), sostiene que la irrupción de la inteligencia artificial en el arte no representa una ruptura, sino la continuidad de debates históricos. Según explica, las obras creadas con IA actualizan tres tensiones que atraviesan al arte desde mediados del siglo XX: la autoría, el control y la materialidad. La pregunta sobre quién es el verdadero artista (si el humano o el sistema) remite a discusiones que se remontan al Renacimiento. La “condición generativa”, que implica ceder parte del control sobre el resultado final, también tiene antecedentes en el Land Art y en obras como «Analogía I» de Víctor Grippo. Finalmente, Adler advierte que el arte con IA desmiente el mito de la inmaterialidad digital: los algoritmos y datos se sostienen en una infraestructura física y material.
En cuanto a la estructura económica que lo hace posible, Eschoyez señala: “Hay concentración económica, como en toda industria tecnológica de punta, pero el fenómeno no es nuevo ni exclusivo de la IA. Lo que cambia ahora es la velocidad con que se democratizan los medios de producción simbólica. Hoy un creador puede concebir, producir y publicar una obra en horas, algo impensable hace una década”. En este sentido, Soler subraya las dificultades materiales que implica esta situación para quienes trabajan en el sector: “El mercado se ha llenado de usuarios de IA generativa que compiten de manera desleal contra los profesionales usando réplicas y mezclas generadas artificialmente de obras originales protegidas. Esta circunstancia ha provocado que los trabajadores creativos estemos perdiendo numerosas oportunidades laborales y proyectos porque tanto empresas como clientes escogen soluciones, en muchos casos no profesionales, basadas en IA generativa porque ofrece un resultado más barato y en menor tiempo, a pesar de los perceptibles errores”.
En relación con esto, es importante señalar que al producir efectos negativos sobre el trabajo de los artistas, la IA establece una relación de canibalismo con las condiciones que la hacen posible. Esteban Magnani, escritor, docente y periodista especializado en tecnologia lo explica así: “No es inteligencia porque es estadística, lo que hace es encontrar patrones en los datos de entrenamiento, y no es artificial porque depende siempre de la inteligencia humana, que es el insumo necesario para poder hacer esas tareas estadísticas”.
Cómo afirma el especialista, al reemplazar trabajadores se dejan de generar contenidos producto de la inteligencia humana, por lo que en pocos años las nuevas IAG se entrenarán con contenidos de otras IAG, lo que potenciará sesgos, errores y alucinaciones. “Para peor ya no quedará nadie con conocimiento para detectarlos”, concluye.
Saqueo o arte
Aunque muchas veces se presenta como novedad el desarrollo de la IAG nos enfrenta con debates que permiten encontrar continuidades con procesos históricos, artísticos y tecnológicos previos, lo cual permite “correr el humo” respecto de la cuestión de la novedad.
De hecho, existe una clara continuidad con otras herramientas tecnológicas que torcieron la balanza en favor de las empresas, desposeyendo a los trabajadores de saberes específicos que les permitían negociar mejor sus condiciones de vida. Más allá de la cuestión específicamente artística, hay una desposesión de saberes y talentos que se concentran en empresas y que dejan a los artistas-trabajadores con menos posibilidades laborales, pese a que su propio trabajo fue condición necesaria para generar las herramientas que los reemplacen. Además, el fruto de esas herramientas se concentra en un puñado de empresas del norte global. Si se pretende guiar -o torcer- el rumbo, resulta imprescindible conocer los conflictos concretos actuales que suceden en el marco de estructuras económicas, políticas y sociales que hacen posible el desarrollo de los modelos de IA e IAG.
En palabras de Eschoyez: “El desafío real no es detener ni prohibir la tecnología, sino acompañar su integración de manera justa. Corresponde a los gobiernos y entidades públicas facilitar una transición amable: invertir en educación digital, promover marcos éticos y transparentes, y garantizar que los beneficios de esta revolución cognitiva se distribuyan con equidad, lo que en nuestro contexto se transforma en casi una utopía”.
