¿Somos inteligentes en el uso de la Inteligencia Artificial?
Las grandes firmas de IA usan recursos no remunerados y en muchos casos con derechos de autor para entrenar los algoritmos
Juan Carlos Miguel de Bustos
Profesor de Tendencias Actuales de la Comunicación UPV/EHU
Miércoles, 21 de mayo 2025, 00:00
Slavoj Žižek escribió en 2023 'La idiotez artificial'. No se refería a que los chatbots fueran estúpidos o ingenuos, ni a que alguien los pueda ... confundir con una persona; la idiotez la sitúa en que las personas reales imiten a los chatbots, perdiendo los matices y las ironías. Invierte el pensamiento. Nos hace pensar más en las consecuencias de los usos erróneos.
Resulta difícil confiar en algoritmos creados de manera opaca; eso sí, protegidos por patentes, secretos de fabricación... Pero, sobre todo, es difícil confiar en quienes utilizan fórmulas de entrenamiento opacas y/o ilegales. Leemos que OpenAI y Meta han utilizado un sitio pirata, Library Genesis, con 7,5 millones de libros y 81 millones de artículos científicos, para entrenar sus modelos de Inteligencia Artificial. Este comportamiento no es nuevo, en 2023 ya nos enteramos de que se habían usado los fondos de Books3, otro sitio pirata con 180.000 libros. En ambos casos, muchos textos tenían derechos de autor vigentes.
Este comportamiento de empresas con enorme poder económico implica al menos cuatro reflexiones.
La primera, que intentan justificarse con razones imposibles de sostener, por muy buenos abogados y consultores que tengan. No niegan que han utilizado obras con derechos de autor sin respetarlos, pero argumentan que solo han recurrido a las estructuras gramaticales para el entrenamiento, que en realidad no han copiado; se trataría así de un uso justo ('fair use'), consagrado por todas las legislaciones de derechos de propiedad intelectual, y que permite emplear extractos de obras para fines pedagógicos.
Por ejemplo, una de las condiciones para ver si es un uso justo es que no sirva para lucrarse. Por si esta razón no fuera suficiente reclaman el derecho a utilizar cualquier contenido con derechos de autor, porque si no perderían competitividad frente a los chinos, que han desarrollado sus algoritmos con el apoyo total del Estado. Esto lo hemos leído en los comentarios presentados por OpenAI y Meta en la consulta pública sobre el plan de acción en IA estadounidense.
La segunda: OpenAI (ChatGPT), Meta (Llama) y Antrophic (Claude) tienen acuerdos multimillonarios con empresas relacionadas con la defensa, y estos contratos les blindan, en cierto modo, ante problemas que puedan tener. Para desarrollar estos contratos contarán con todas las facilidades relacionadas con la investigación en reconocimiento de objetivos, detección y neutralización de ataques con drones, desarrollo de armas autónomas, guiadas con IA... Dado que Donald Trump quiere convertir EE UU en la gran potencia mundial de IA, va a facilitar a sus empresas todo lo que necesiten.
La tercera es que en realidad no quieren pagar por el entrenamiento. Utilizan recursos que deberían ser remunerados, pero esto no lo han previsto. Si hubieran remunerado esos 'inputs', estaríamos en una situación diferente: se habrían empleado recursos de mayor calidad, y esto habría mejorado la filosofía y la calidad de los algoritmos resultantes. Si OpenAI y Google reclaman el uso justo, debe cambiarse la ley de propiedad intelectual de manera profunda. Si se acepta que utilicen obras con derechos de propiedad intelectual para entrenar los algoritmos, eso debería hacerse extensivo también a empresas pequeñas (con más razón, porque tienen menos recursos), y en general a cualquier persona.
Aquellas empresas buscan la obtención de lucro y se sitúan muy lejos de los movimientos que reclaman ampliar al máximo los contenidos libres de derechos (el Fondo Común), reconociendo la necesidad de los derechos de propiedad intelectual, pero reduciéndolos al mínimo necesario y, sobre todo, acortando los plazos de monopolio sobre los derechos económicos de autor, que pueden ir hasta los 70 años, más allá de la vida de quien creó la obra. Cuanto mayor sea el fondo común, mayor acceso tendremos a contenidos que pueden utilizarse en la vida académica, personal, creadora o investigadora, para así lograr las tan citadas 'sociedad de la información' y 'sociedad del conocimiento'.
La cuarta, más general, se refiere a las innovaciones. Resulta curioso ver que cuando hablamos de IA, las respuestas se crean basadas en la probabilidad en la construcción de las frases; sin embargo, quienes lo usamos llegamos a ignorar la probabilidad del error, y a veces este puede ser grande. Por ejemplo, en la redacción de un texto de nivel académico, si se le pide que inserte citas y coloque la bibliografía al final, es muy común que invente nombre de revistas, o que una parte de la cita no sea correcta. Esto es fácil de comprobar. Más difícil es establecer la veracidad de los contenidos, y aunque sabemos que no son fiables al cien por cien, los aceptamos como tales. Y acabamos llamando determinismo a lo que solo es probabilidad.
¿Tienes una suscripción? Inicia sesión
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.