hh
Expertos mundiales en inteligencia artificial urgen a paralizar los avances: «Existen grandes riesgos para la humanidad»Afirman en una carta conjunta, donde piden seis meses de moratoria y mayor regulación, que se ha desencadenado «una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender»
SOLANGE VÁZQUEZ
Jueves, 30 de marzo 2023, 10:06
«Existen grandes riesgos para la humanidad». Elon Musk y cientos de expertos mundiales han hecho un llamamiento conjunto para que se realice una pausa de seis meses en la investigación sobre inteligencias artificiales (IA) más potentes que ChatGPT 4, el modelo de OpenAI lanzado este mes. En una carta conjunta, urgen a que se declare una moratoria para que se pueda a regular este ámbito, cuyos avances van mucho más rápido que la ley y los mecanismos de seguridad. Gurús y empresarios argumentan su petición porque han detectado «una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender». Es decir, la pesadilla tradicional de la ciencia ficción, que la tecnología vuele sola y acabe superando e imponiéndose a los humanos, empieza a dibujarse. De ahí la urgencia de frenar antes de que el problema se desboque.
En la petición, publicada en el sitio futureoflife.org, piden que se paralicen los últimos avances hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la «dramática perturbación económica y política (especialmente para la democracia) que causará la IA».
Esta carta abierta la firman personalidades que han expresados sus temores sobre una IA incontrolable que supere a los humanos, como Elon Musk, dueño de Twitter y fundador de SpaceX y Tesla, y el historiador Yuval Noah Hariri, además del cofundador de Apple, Steve Wozniak, miembros del laboratorio de AI DeepMind de Google, el director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.
«Tiempo para adaptarse»
En este sentido, el propio director de Open AI, que diseñó ChatGPT, Sam Altman, ha reconocido tener «un poco de miedo» de que su creación se utilice para «desinformación a gran escala o ciberataques». «La empresa necesita tiempo para adaptarse», ha admitido recientemente a ABCNews.
«En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable», afirman los expertos en su carta. «¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? (...) ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos», han concluido.
¿Qué significa este llamamiento? Peter Bannister, investigador de la Universidad Internacional de La Rioja (UNIR), considera que «esta petición extraordinaria es un crudo recordatorio de cómo las instituciones, los organismos gubernamentales y otros agentes líderes en nuestras comunidades luchan en la actualidad por formular respuestas coherentes en tiempo y forma. Son bienvenidas, por supuesto, pero, no abordan de manera completa los desafíos que presenta esta tecnología». A su juicio, la base de conocimiento y la infraestructura requerida a nivel mundial no pueden competir con el ritmo frenético del desarrollo actual. Así que el llamamiento, por tanto, «es bienvenido, pero la búsqueda de una implementación práctica unificada a nivel mundia... puede constituir un obstáculo que impida que se materialice».
Tres dudas sobre la IA que nos inquietan
-
¿La inteligencia artificial consigue que las máquinas piensen, aprendan y actúen como los humanos? No es así. Inteligencia artificial es un término acuñado en 1956 para referirse a la ciencia de construir ordenadores, especialmente para hacer cálculos. «La manera de trabajar de un microprocesador es muy distinta a la de nuestro cerebro. No es una reproducción mimética de nuestra capacidad de raciocinio, creatividad o afectiva, estamos aún muy lejos de poder emularlas», sostiene Javier G. Algarra, director académico del área de Ingeniería y Ciencias en el Centro Universitario U-tad.
-
¿La IA vale para casi todo?. La IA ha tenido éxito en unos cuantos campos, pero no es universal. Funciona extraordinariamente bien para reconocer imágenes, esa es la base de la visión artificial de un coche autónomo o de los sistemas de diagnóstico médico automatizados. Es también útil para otras tareas de reconocimiento, como sonidos. En los últimos años se ha avanzado muchísimo en la traducción automática del lenguaje. «Sin embargo, aún carece de creatividad. Puede generar imágenes sintéticas muy realistas, imitar la forma de pintar de los grandes maestros o incluso escribir artículos de prensa aparentemente perfectos, pero en todas estas aplicaciones está combinando material que ha memorizado en el proceso de aprendizaje», detalla el experto.
-
¿Es inevitable que las máquinas inteligentes acaben dominando el mundo? «Esta visión distópica tiene su origen en la ciencia ficción. En 2001 el ordenador HAL 9000 se rebelaba contra la tripulación. En Terminator los robots se hacían con el control del planeta después de que el súper ordenador Skynet desencadenara una guerra nuclear. La realidad es que los seres humanos no necesitamos de la ayuda de máquinas para destruir nuestra casa común, como demostramos a diario. La IA no va a acabar con nosotros por voluntad propia ya que no tiene», apunta Algarra.
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.