El debate de la inteligencia artificial

El debate de la inteligencia artificial
MIKEL CASAL

El miedo a que las máquinas sean tan humanas que se conviertan en el peor de nosotros mismos no parece tener demasiada base

MAURICIO-JOSÉ SCHWARZ

Cada vez con más frecuencia, los medios se hacen eco de opiniones sobre inteligencia artificial (IA), sobre todo cuando las da gente famosa aun sin saber del tema. Por un lado están quienes consideran que los beneficios que puede traer la IA superan sus riesgos, y por otro están quienes temen que pueda ser el fin de la humanidad. Después de todo, predecir el fin del mundo, o de los seres humanos, o del universo, o al menos de la sociedad tal como la conocemos, es siempre un buen negocio. La ventaja es que hasta ahora todos los agoreros del desastre han fallado.

Lo primero es definir 'inteligencia artificial', de modo que todos estemos hablando de lo mismo. Y allí comienza el problema porque no hay acuerdo sobre a qué debemos llamar 'inteligencia artificial'. De hecho, las dificultades comienzan más atrás, cuando tratamos de definir 'inteligencia'. Si vemos los exámenes de 'cociente intelectual' que pretenden medir la inteligencia de individuos o grupos, es fácil darnos cuenta de que privilegian el pensamiento matemático, la lógica y cierta capacidad de abstracción, sobre todo espacial. Pero, ¿eso es inteligencia?

Los psicólogos están más o menos de acuerdo en que la inteligencia implica la capacidad de aprender de la experiencia, adaptarse a situaciones nuevas, entender y manejar conceptos abstractos y utilizar el conocimiento para manipular el entorno. Pero así las matemáticas puras, que no manipulan el entorno, no serían precisamente una actividad intelectual, ni lo sería tampoco la capacidad de un deportista que, sin manejar conceptos abstractos, puede crear jugadas con gran originalidad, dar pases de enorme precisión o golpear un balón exactamente para que haga un determinado giro (cuya explicación matemática no suelen manejar los futbolistas) y entre en una portería fuera del alcance de los contrarios.

Máquinas

El asunto se complica cuando hablamos de máquinas. El genio fundador de la informática Alan Turing abordó el problema en 1950 sugiriendo que, dado que es difícil saber si las máquinas piensan, podía al menos hacerse una prueba para ver si una máquina podía imitar el pensamiento tan bien que fuera indistinguible de un ser humano. Propuso la hoy llamada prueba de Turing, donde una persona lee una conversación por escrito, entre dos partes. Si una de las partes fuera un ordenador pero el espectador no pudiera distinguir cuál de las dos es la máquina, se diría que ha pasado la prueba de Turing. Pero imitar la inteligencia no es lo mismo que ser inteligente, claro.

Los expertos en inteligencia artificial separan la IA limitada y la general. La limitada realiza una tarea concreta, como el reconocimiento facial o la conducción de un auto. La general, que no existe aún, es la que podría realizar todas las actividades humanas con una eficiencia similar a la de una persona.

Cuando personajes como Elon Musk expresan su temor de que la IA ponga en peligro a la humanidad, hablan de una IA general. Pero para realizar actividades humanas no basta tener inteligencia, por supuesto, se requiere la capacidad de modificar el entorno (por eso el pulgar oponible y los movimientos motores finos han sido tan importantes en el desarrollo de la inteligencia humana) y se requiere la motivación, el deseo, la conciencia de la necesidad de una acción o de resolver un problema.

El ser humano elige qué problemas va a resolver, y lo hace generalmente movido por su interés a distintos niveles. Problemas como curar las infecciones, crear una rueda que no pinche, entrenar a atletas de alto rendimiento, producir más ropa más barata, reproducir música para todos… sin motivación, pues, quizá no haya inteligencia.

El abordaje de la IA general tiene el problema de que no sabemos cómo se llega a ella. Cuando un algoritmo (un recetario de acciones para llegar a un resultado deseado) hace reconocimiento facial o conduce un auto, básicamente está haciendo muchísimos cálculos en muy poco tiempo, comparando patrones y acudiendo a su base de datos para obtener la respuesta más adecuada a los datos que está recibiendo. No tiene ninguna relación con la forma en que nosotros reconocemos un rostro entre la multitud o conducimos un auto. Y en ese sentido es poco relevante que un algoritmo pueda conducir un auto con menos errores que los seres humanos… Un tractor puede cosechar mejor que un ser humano y una rebanadora de queso supera con mucho la capacidad de casi cualquier ser humano con un cuchillo.

Promesas excesivas

Lo que se ha creído es que al aumentar el número de componentes de un sistema de IA (redes neurales, transistores, programas), de pronto la conciencia (con las motivaciones, deseos, grandezas y mezquindades del ser humano) surgirá casi milagrosamente. Las promesas excesivas de algunos que trabajaban en la tecnología han alejado incluso el interés, aunque hay empresas e institutos universitarios en todo el mundo que siguen buscando ese humano artificial que nos presenta la ciencia ficción.

Quizá lo que nos venden hoy como inteligencia artificial no es precisamente inteligencia, pero puede resolver una gran cantidad de problemas y reducir muchísimos riesgos en diversas actividades. Es un avance importante en la automatización de ciertas tareas que pueden ser desglosadas en reglas por complejas que sean. Poco a poco, acciones como el reconocimiento de voz o el facial van perfeccionándose.

Pero el día en que las máquinas tomen el control está lejano. La abstracción que implica el poder y el deseo –la motivación– de tomarlo no la tienen siquiera muchos seres humanos. Los beneficios que comporta para un ser humano el dominio sobre otros (en cuanto a recursos, trabajo barato, riqueza, satisfacción personal) tendrían que ser incorporados a esa IA que aún es un sueño. El miedo a que las máquinas sean tan humanas que se conviertan en lo peor de nosotros mismos no parece tener demasiada bases. Para muchos es simplemente el 'complejo de Frankenstein', según el cual hay cosas que el ser humano no debe hacer a riesgo de ser castigado. Lo cual tiene más de religión que de ciencia y tecnología, piensan algunos.

El problema del empleo

Un temor sobre la IA es que sustituya el trabajo de seres humanos, como han hecho las máquinas a lo largo de toda la historia. Algunos sectores desean que se detenga el desarrollo de la IA para proteger esos empleos, como los ludditas del siglo XIX destruían las tejedoras mecánicas, pero el avance tecnológico no se detiene con buenas intenciones. Otros señalan que, pese a la automatización creciente, siempre se han creando nuevos empleos que sustituyen a los perdidos por las máquinas, incluidos los robots industriales. Después de todo, de nada servirían los productos y servicios hechos por la IA si no lo pueden adquirir los seres humanos.