«El peligro de la IA es más de falta de transparencia que de la propia tecnología»
Miguel Aguilera, del Centro Vasco de Matemáticas Aplicadas (BCAM), mejora la memoria de estas herramientas y las hace más eficientes
Fíjense la próxima vez que escriban un mensaje en Whatsapp cómo la aplicación les sugiere la siguiente palabra de su mensaje. Si empiezan con una 'h', por ejemplo, propone 'hola' porque considera que el comienzo más habitual de una conversación es un saludo. Pura probabilidad. Chat GPT, la más popular de las herramientas de inteligencia artificial, funciona de la misma forma pero a una escala muy superior. Es también un juego de adivinanzas. De un lado, maneja una gigantesca base de datos. La versión de 2020 –la última de la que se han hecho públicas las cifras– maneja unos 175.000 millones de parámetros, más del doble del número de nuestras neuronas. Es como si se hubieran leído todo internet más millones de libros y lo que se les ocurra. El otro pilar son unas herramientas matemáticas muy complejas llamadas redes neuronales.
Publicidad
Miguel Aguilera (La Rioja, 1987) es Ikerbasque Research Fellow en el Centro Vasco de Matemáticas Aplicadas (BCAM), una institución donde tan pronto se crean modelos matemáticos para Osakidetza como colabora con el Athletic en la prevención de lesiones o con BMW para mejorar la aerodinámica de los coches. En colaboración con investigadores de las universidades de Sussex, Kyoto y la empresa japonesa especializada en IA llamada Araya, ha conseguido mejorar la memoria de la inteligencia artificial, que esas redes neuronales «recuerden de forma más rápida y confiable». Los resultados han sido publicados en la prestigiosa revista 'Nature Communications'.
«Las redes neuronales son las que hacen funcionar estos sistemas, son lo que está por debajo y se inspiran en el funcionamiento en el cerebro. Imaginemos que estamos jugando con canicas en un terreno rugoso o estamos en un valle entre montañas y queremos pasar a otro valle. Decidir qué palabra sigue o acceder a un recuerdo sería como saltar de un valle a otro. Normalmente estos modelos se van mejorando desde el punto de vista de la ingeniería, con el número de parámetros. Nosotros lo hemos hecho desde la geometría». Son lo que han llamado redes neuronales curvas y, explicado de forma muy sencilla, básicamente «allanan esos obstáculos».
«Cambiando la geometría más tradicional –la que dice que la distancia más corta entre dos puntos es la línea recta– por otras más 'raras' donde el espacio se curva o se deforma según vas pasando podemos ajustar cómo de rápido puede la red accede a recuerdos o patrones guardados. Tiene más memoria y accede a ella más rápido», explica el experto, que lo compara con los momentos 'eureka', cuando nuestro cerebro tiene un momento de inspiración.
El problema de la caja negra
Esta nueva forma de recordar de la IA tiene otras ventajas. Una, es que los investigadores saben mejor cómo estas herramientas dan las respuestas que dan. Es lo que en el mundillo se conoce como 'caja negra'. «Estas herramientas son tan enormes y complejas que no sabes del todo cómo funcionan», afirma. De esta forma serían «más seguros y podríamos controlar los comportamientos nocivos», añade.
Publicidad
Otras son que los sistemas son «más eficientes y baratos». Cada vez que chateamos con ChatGPT o borramos una parte de una foto en el teléfono móvil, los servidores gastan 33 veces más de energía que una consulta 'normal' en Google. Esta enorme avidez energética ha obligado a los gigantes del sector a apostar por la energía nuclear. Microsoft –aliada de Open AI, la empresa que ha creado Chat GPT– anunció el pasado mes de octubre su intención de reabrir la planta de Three Mile Island, escenario en 1979 del mayor desastre atómico de Estados Unidos. Google siguió poco después esta senda con un acuerdo para obtener electricidad de siete pequeños reactores nucleares. Y Amazon invertirá 500 millones de dólares para poner en marcha varios de estos mini reactores.
– ¿Tenemos que temer entonces a la inteligencia artificial?
–El principal problema tiene más que ver con algoritmos que no controlamos o entendemos, o que tengan objetivos ocultos diseñados por una multinacional en secreto. Es más la falta de transparencia que la tecnología en sí. La forma de evitar este riesgo es hacerla más transparente. Es un problema más social que tecnológico.
Accede todo un mes por solo 0,99€
¿Ya eres suscriptor? Inicia sesión