La semana pasada la Fundación San Jorge me invitó a participar en un evento en el que reflexionar sobre los derechos de autor en tiempos de redes sociales e inteligencias artificiales. Nos juntaron a un abogado, un ingeniero especializado en IA y a mí. En mi caso, desde que me plantearon hace unas semanas participar, le estuve dando muchas vueltas al asunto de los derechos de autor en estos tiempos “modernos”, y aún a día de hoy sigo sin tener una idea clara de cómo posicionarme, independientemente de lo que diga la Ley.
Me explico.
Por un lado “soy” creador de contenidos, tanto aquí como en mi otra newsletter o directamente a través de mis redes sociales, fundamentalmente twitter, linkedin e Instagram, y como tal, debería querer algún tipo de protección, pero yo mismo libero mis textos con una licencia creative commons by-nc (reconocimiento, no comercial) que por cierto, preparando la sesión, me di cuenta que no explicito en el blog (sí en la landing de suscripción). Y eso que gracias a Google Alerts he ido descubriendo con el tiempo webs que copian íntegros mis artículos sin permiso y les meten ads. La realidad es que nunca he reclamado.
Pero, ¿cuál es el punto de partida? ¿cuál el problema?
Con esto de los derechos de autor en el fondo nos pasa como con otras muchas leyes, queremos que nos protejan a nosotros, pero nos “estorba” si aplica a otros, porque ya nos viene bien eso de tomar prestados contenidos ajenos “que están en internet”.
Copiar de uno es plagio, copiar de varios es trabajo de investigación
¿Sigue existiendo la propiedad intelectual y los derechos de autor? Ya, ya sé que legalmente sí, pero ¿puede perseguirse el mal uso por parte de un pequeño creador? Veo constantemente quejarse, por ejemplo, a fotógrafos que ven sus obras reproducidas sin permiso ni enlace en medios de comunicación o cuentas de IG “de nicho”, y de estos son anécdota los que consiguen enviar una factura y luego cobrarla. ¿Es un enlace un “pago” suficiente”? Yo creo que no… especialmente si el autor es un profesional (si es un usuario normal, aspirante a influencer, o directamente fan de la marca, medio o programa que “roba” el contenido, es otra guerra. Esos, incluso lo ven como un halago o una oportunidad)
La realidad es que ahora puedo crear música con IA y hacer que parezca que la ha creado y cantado quien yo quiera (hace unos días David Guetta le pidió a una IA que escribiera una canción “con el estilo de Eminem”, el resultado lo subió a otra IA y le pidió que lo cantara “con la voz de Eminem” y acabó pinchando el resultado en un actuación ante miles de personas, y subiéndolo a su Instagram para “iniciar una conversación sobre cómo la IA va a cambiar el negocio de la música”), o crear imágenes que parezcan fotografías capaces de engañar a un jurado y ganar un concurso. Hay IAs que podemos entrenar con una grabación de 3s de cualquier voz y conseguir que locute lo que queramos con ella (a los dobladores no les gusta eso). La inteligencia artificial militar ya gana a estrategas humanos en juegos de guerra, e incluso han conseguido que la IA genere imágenes alimentándola solo con resonancias magnéticas del cerebro de personas que habían visto imágenes, lo que abre puertas futuras a ¿crear mundos soñados? ¿De quién son esos derechos?
Creo que cada día hay que diferenciar más entre el uso de nuestra propia imagen (en Enero ya empezaron a aparecer deep fakes porno con las caras de famosos e influencers que generó una – lógica – polémica), y el uso de nuestros conocimientos o contenidos. Con ambos se puede entrenar a una IA pero, ¿acaso no nos entrenamos nosotros también con lo que consumimos? ¿tengo que citar mis fuentes en todo momento? La creación rara vez ocurre en un “vacío”. Toda vivencia/impacto recibido genera un aprendizaje y, voluntariamente o no, influye en nuestras futuras reacciones/creaciones. ¿Dónde está la frontera entre inspiración y plagio? ¿Y entre aprendizaje y plagio? Es cierto que la capacidad de computación de las IAs multiplica por un factor enorme lo que nosotros como personas podemos hacer, pero en realidad no es distinto. Es solo descomunalmente más grande, más rápido y con más memoria y capacidad de aprendizaje. Por el momento, empiezan a aparecer, en la misma linea que las licencias creative commons, licencias que prohiben el uso de esos contenidos para entrenar IAs. También existe una propuesta de Ley a nivel europeo para regular la IA, pero todavía está en estudio, confirmando eso de que la Ley va SIEMPRE por detrás de la tecnología.
CNN y otros medios ya empiezan a quejarse abiertamente del uso de sus contenidos para entrenar la IA, y Getty images denuncia a Stable Difusion porque sus modelos han sido “entrenados” con su histórico (hasta el punto de que el resultado de algunos prompts incorpora el logo de getty images como si fuera un elemento “natural” más de la imagen). DeviantArt, por su parte, tras lanzar su propia herramienta de AI-ART y recibir muchas críticas por usar los contenidos de todos sus usuarios, recula y marca todo su contenido como “NoAI” por defecto para que no se pueda usar para entrenar ninguna AI.
Pero es que los derechos de autor, ¿realmente qué son? ¿Y dónde quedan los derechos de autor de las obras (como James Bond, Matilda o Charlie and the chocolate factory) que se van a revisar para “adaptarlas” a los nuevos tiempos y evitar lenguajes que a día de hoy no son “adecuados”? ¿Y mis derechos como consumidor cómo se ven afectados si ahora libros que yo tengo en el kindle son modificados en remoto sin mi consentimiento para adaptarse a este “nuevo paradigma”? Tienen tantas derivadas estos temas que me pierdo, la verdad.
Y por último, ¿cuánto de lo que «leen» las IA para entrenarse estará ya producido por otras IAs? Porque ese momento llegará, si no ha llegado ya. Y en ese caso, ¿quién tiene los derechos de autor? ¿La IA, el usuario que lanza el prompt, los programadores?
De momento, La US Copyright Office deniega la posibilidad de registrar una obra creada con IA. Y eso que a día de hoy, ya cuesta diferenciar algunos resultados, y más que costará por lo visto con Midjourney 5. Pero ¿y cómo sabemos que algo se ha creado con IA si no existe una huella criptográfica única, obligatoria y no puenteable en todo aquello generado por IA? Algo que de entrada es incompatible – supongo – con un desarrollo Open Source, y poco probable en los desarrollos actuales entre empresas competidoras.
El CEO de OpenAI ya avisa de que una IA “potencialmente mala” está muy cerca de ser una realidad, y pide regulación. Pero ¿entienden los legisladores lo que se viene? Ya se ha presentado GPT-4 y es alucinante. Visual GPT (Microsoft) ya es una realidad. Meta ha lanzado LLaMA, su Large Language Model propio, y Google presentó la semana pasada PALM (PaLM-E 562) con el triple (x3) de parámetros que GPT3 (22B → 540B), y hace unos días anunciaba la API de PaLM, MakerSuite, integración en Gmail y Google Docs, etc, etc. Y por el camino, Microsoft despide a todo su equipo de ética e IA
Casi ná lo que se nos viene encima. Los derechos de autor no sé si van a ser el mayor de nuestros problemas. Lo verdaderamente disruptor aterrador, es que desde ya, NADA de lo que veamos o escuchemos a través de una pantalla vamos a saber si es real o generado.
NADA.
Porque no sabremos quién es su autor real.
Paz!
L.
¿Algo que decir? ¡No te cortes, deja un comentario!