Nvidia, cuyos chips potencian la inteligencia artificial, fue demandada por tres autores que afirman que la empresa utilizó sin permiso sus libros protegidos por derechos de autor para entrenar su plataforma de IA NeMo. Brian Keene, Abdi Nazemian y Stewart O'Nan dijeron que sus obras formaban parte de un conjunto de datos de unos 196.640 libros que ayudaron a entrenar NeMo para simular el lenguaje escrito ordinario, antes de ser retirados en octubre "debido a la infracción de derechos de autor denunciada".
|
etiquetas: nvidia , ia
Lo que a mi me disgusta no es que se copie, sino que se apropie de lo que es común, agarrar la cultura completa escrita y crear una máquina para beneficio propio va contra lo social, contra lo común. Si la IA es entrenada con información de todos, sus resultados y beneficios deberían ser comunitarios.
O bien la biblioteca lo compra y paga derechos de autor.
1. En realidad, la IA no copia párrafos (que es lo protegido por los derechos de autor) sino que hace un estudio estadístico del uso de esas palabras. No hay copia. Es más, durante el entrenamiento, la IA elimina palabras usadas, luego cuando reconstruye escribiendo un prompt demasiado específico, es muy improbable que de como resultado el texto original.
2. El mismo lío tendrían los buscadores al mostrar pequeños párrafos resultados de una búsqueda.
3. ¿Y qué hacemos con los humanos que crean obras derivadas? ¿Cómo se mide el parecido?
Y por otro lado, esos autores sólo se ven como oportunistas buscando dinero.
Dicen que las IAs infringen derechos de autor, como si la IA tuviese en la memoria una copia de sus obras, pero eso no es así, la IA lo que ha hecho es generarse unos patrones a partir de esas obras, es decir, aprender.
Pero entiendo que bajo ningún concepto sería correcto tratar de cobrarte por el hecho de tener la capacidad de reescribir "La Reina del Sur", por ejemplo.
las maquinas no aprenden, guardan patrones y mediante una configuración previa los usa.
No acepto el argumento de que una IA no pueda copiar porque hace lo mismo que los humanos.
Y no lo acepto por dos razones:
1. Los humanos sí pueden copiar y hay sentencias de plagio por ello, incluso sin copiar las palabras.
2. Una IA no hace lo mismo que los humanos al leer. Cuando yo leo, me vienen imágenes a la cabeza de la situación, también emociones. El proceso, por muy complejo que se en la IA, es realmente muy diferente.
Respondiendo a tu primer punto:
La IA puede copiar, si se lo pides te podría hacer una "copia" de cualquier obra literaria, aunque no sería exactamente igual porque la IA te daría el "recuerdo" que tiene de ella (salvo que para satisfacer tu petición buscase dicha obra directamente en Internet). Esto se debe a que internamente no contiene una copia de cada obra que haya leído o visto.
Dicho esto, yo entiendo que estos tres autores no están demandando a Nvidia porque las IAs estén reproduciendo sus obras, sino porque se han utilizado sus obras para un proceso de aprendizaje.
Respondiendo a tu segundo punto:
Que tú tengas emociones al leer un libro es sólo un efecto secundario que normalmente te alejará del concepto objetivo de lo que acabas de leer, induciéndote a aceptar o a rechazar los conceptos según encajen con tus valores éticos. Pero en esencia, el aprendizaje es muy similar. Si yo te enseño 20 cuadros de picasso y 20 de Dalí, seguramente seas capaz de atribuir con un elevado porcentaje de acierto un nuevo cuadro que no hayas visto nunca, y sin embargo seguro que si tratas de hacer un boceto de cualquiera de las fotos utilizadas para entrenarte, te dejes detalles o cometas errores. Pero "te has calibrado", has interiorizado esos patrones, que es lo que hace la IA.
Tampoco has comentado nada sobre cómo cuando lees un libro vas generando imágenes mentales de lo que lees, ¿es así como lee la IA?
Yo no digo que no haga cosas complejas o sorprendentes, sólo que el argumento de que lee como lo haría una persona no es válido.
Y tampoco es que esté en contra de los avances ni de que se permita a una IA llegar a su máximo potencial.
A mí me encantaría vivir en un mundo donde la gente pueda dedicarse a hacer lo que le gusta y no depender de unos ingresos, pero parece que no es así.
Según parece, las máquinas han venido a quitarnos el trabajo y esto (contra la lógica de que nos permitirá tener más tiempo libre) nos quitará el sustento.
Entonces, en este contexto en el que vivimos, se supone que las leyes tendrán que adaptarse a esta nueva realidad.
Seguro que antes de la imprenta, que yo cogiese un libro y lo copiase y lo regalase a mi primo no suponía un problema muy serio.
Pero si copiar es muy sencillo, si actualmente Reverte saca un libro y yo lo paso a formato digital y lo regalo a todo el mundo (incluso sin lucrarme) estoy produciendo un perjuicio.
Por lo tanto, la escala en la que yo leo una cantidad de libros y escribo es incomparable a la de una IA, y no puede tratarse de la misma forma.
Piensa que si hoy queda margen para que tu inteligencia humana haga algo que la IA no hace, mañana no.
¿Me cedes todos los derechos de tus creaciones?
Ya puestos, yo voy a demandar a la electricidad, así, en general, ya que sin ella no habría IA
Aquí la cuestión no es sobre cómo funcionan las leyes relativas a las personas, sino que tienen una herramienta que sin un material de entrada no funciona igual, te guste o no, no vas a poder otorgarle legalmente privilegios humanos. No es diferente de que cojan tu imagen sin permiso, o que usen tus datos ilegalmente para mostrarte publicidad. Sí, el tendero del barrio podría saber que compras pan, para publicitarse pan, pero no es lo mismo.
Y de hecho, si el contenido no es relavante, pues no lo usas y ya está.
Si eso no es plagio (que no creo que lo sea) tampoco lo es lo que hace una IA.
¿O crees que eso lo ha "re-escrito" el ChatGPT?
En todo caso, ten en cuenta que por ejemplo tu punto 3. ya pasa, y siempre hemos tenido lios con humanos que crean obras derivadas, a veces se les da la razón y otras no. Sin embargo, muchas veces se alega que el autor original no tenía constancia de la obra "plagiada", o que eso forma parte de arqueotipos colectivos.
En este caso tienes una máquina que literalmente se repasa esas obras antes de crear su contenido "derivado". Y en todo caso, es una máquina, en informática es habitual que quienes desarrollan software (sobre todo si es por ingeniería inversa) no conozcan nada del "original" en caso contrario se exponen a demandas.
De lo que se está hablando aquí es de de que tres autores han demandado a Nvidia porque han utilizado sus obras para enseñar a unos programas informáticos. De lo que NO trata la noticia es de que 3 autores hayan presentado demandas porque alguien está distribuyendo copias de sus obras.
Usar obras para entrenar a una máquina no es diferente a utilizarlas para entrenar a una persona. Seguramente, una persona se creará imágenes mentales para seguir el argumento, imaginarse el entorno en el que sucede la historia, etc. Pero si el objetivo del entrenamiento consiste por ejemplo en aprender el estilo literario de un autor, en realidad es algo que para la IA es algo innecesario. Lo necesario en ese caso será aprender patrones como si las frases redactadas son más simples o más complejas, que vocabulario suele utilizar, jergas, estructura del texto en general, etc. Eso es lo que hace que un lector experimentado humano pueda reconocer el autor de un fragmento, debido a sus años de experiencia leyendo. Eso es lo que puede hacer también una IA, sólo que la IA es capaz de leer muchísimo más rápido, y de tener mejor memoria que una persona.
Ya concluyendo, el problema que podría haber con una IA no es que te replique una obra como si fuese un papagayo, sino que tras haberse leído toda la obra de un autor, sea capaz de redactar una nueva obra que mantenga el estilo de dicho autor, de modo que para un lector no experto pueda pasar por un libro original. Sin embargo, esto no es un problema propio de las IA's, esto es algo que también podría hacer un humano, del mismo modo que un pintor contemporáneo podría crear un nuevo cuadro que pareciese un Velázquez por compartir su misma técnica y estilo. Así que el problema, en realidad, no es nuevo.
Y además: ¿Yo hubiese sido capaz de escribir una novela (supongamos
¿Deberían haber pagado canon todos los cubistas a Picasso?
Sólo hay dos vertientes: pierdes para que otro ganen mucho, o eres de los que ganan.
Pero eso no tiene nada que ver con la IA generativa.
La parte de ChatGPT que crea no te puede sacar esa información porque no la sabe, pero si sabe ir a buscar en una base de datos una información específica que le has pedido.
En otras palabras ChatGPT no sabe "de memoria" como empieza el señor de los anillos, pero sabe usar google (o similares) para decirtelo. Igual que el buscador de Google no se sabe como empieza el señor de los anillos, pero te mostrará la página donde encontrarlo.
Imagínate cuantos trabajadores estaríamos "desperdiciando" con el ejemplo del campo si no se empleasen tractores. Cuanta gente está trabajando en cosas más productivas. ¿Para que emplear 100 personas para el trabajo que pueden hacer unos pocos?
Otro ejemplo, un colectivo que va a disminuir drásticamente dentro de no muchos años es el del transporte. El transporte de mercancías y personas lo podrán hacer vehículos autónomos. ¿Estamos condenados a tener que conducir siempre manualmente para que unos cuantos no tengan que cambiar su profesión? ¿No sería más eficiente un transporte en el que el camión o autobús no esté obligado a realizar pausas para descansar, por ejemplo?
Las IA pasará a ser el negocio de cuatro empresas estadounidenses que se forrarán con la IA igual que se forra Meta o Twiter y nos salen gratis si disfrutamos de ellas.
Y lo de que vaya a ser negocio de cuatro empresas, habría que verlo. Evidentemente hay empresas tecnológicas que arrancan con una gran ventaja, pero tienes aplicaciones como Stable Diffusion por ejemplo, una de las IAs más populares para generación de contenidos, que es Open Source, hasta donde yo se tú mismo puedes instalarla en tu casa, entrenarla y utilizarla, no estás obligado a pasar por el aro de una gran empresa.
Evidentemente hay que ver en que acaba esto, pero yo lo veo más en monopolio de cuatro grandes, como es Google, Meta, MS, Amazon, que generan mucho negocio y dinero por todo el mundo y encima no pagan impuestos, o muy pocos, y que compran el más mínimo atisbo de competencia.
Me suena que el de Open AI quería hacer algo parecido con su empresa, como que fuera referente mundial o algo así.
Regalar IA a cambio del iris de los ojos, ¿no piensas que va proporcinarle mucho dinero?
Todas esas tecnológicas tuvieron juicios por apropiarse de datos, pero otras muchas veces los cogieron y no pasó nada, entre que no hay leyes para eso, que tampoco se hacen, que EEUU presiona para que eso no ocurra, en la UE , por ejemplo, o que la multa sea inferior a las posibles ganancias.
Hay muchas ganancias, hay monopolio y no hay pago de impuestos por esas ganancias y me temo que la IA va a llevar el mismo camino.
Pero al hilo de lo que comentas de empresas que les echan mucho morro, ahí va un chascarrillo: escuché que algún espabilado utilizó imágenes de stock para entrenar una IA generativa. El asunto es que como no pagaron por esas imágenes y las fotos que le cargaron para adiestrar a la IA tenían marcas de agua, las imágenes que la IA generaba también tenían una especie de marca de agua
La IA es un instrumento y nos va resolver muchos problemas, médicos, científicos, etc., pero no está libre del negocio y la avaricia del capitalismo ni de la geopolítica.