Borrar
Urgente Retenciones en la A-8 sentido Cantabria por un accidente en Santurtzi
Idoia Salazar, una de las fundadoras del observaorio OdiseIA.
«Ahora es cuando podemos decidir qué podemos hacer y qué no con toda la capacidad que tiene la tecnología»

«Ahora es cuando podemos decidir qué podemos hacer y qué no con toda la capacidad que tiene la tecnología»

La experta en inteligencia artificial Idoia Salazar acaba de presentar en Bilbao OdiseIA, el observatorio que analizará el impacto social y ético del uso de algoritmos en el tratamiento de datos

iratxe bernal

Sábado, 16 de noviembre 2019

Necesitas ser suscriptor para acceder a esta funcionalidad.

Compartir

«Tenemos que entender que la tecnología no es el problema; el problema es cómo queremos que se desarrolle». La experta en inteligencia artificial Idoia Salazar no cree que en el futuro las máquinas nos dominen, como auguran los más gurús más pesimistas. Ella está convencida de que, pese a los muchos riesgos que implica el mal uso de los avances tecnológicos, aún estamos muy a tiempo de decidir qué queremos que esas máquinas hagan por nosotros. Eso sí, hay que echar mano de la ética y saber que llegar a ese consenso va a ser muy complicado.

Salazar, que también es profesora en la Facultad de Comunicación y Humanidades de la Universidad CEU San Pablo, ha sido una de las invitadas al encuentro sobre el impacto social y ético de la tecnología y la inteligencia artificial que Bilbao Metrópoli-30 ha celebrado en marco de la Semana de la Gestión Avanzada organizada por Euskalit. En ella presentó, el Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA), del que es uno de sus miembros fundadores

-¿Es posible llevar la ética a una tecnología con unas potencialidades que apenas hemos empezado a ver?

-El desarrollo de la inteligencia artificial y su impacto en la sociedad es una cuestión que tiene perspectivas tanto técnicas como filosóficas, y eso da pie a que se estén creando muchos foros de debate e investigación. En algunos se está fomentando una perspectiva apocalíptica que abunda en los prejuicios que ha creado la ciencia ficción y dibuja un futuro en el que los robots nos van a quitar los puestos de trabajo e incluso nos van a superar como raza. Es una tecnología que conlleva muchos riesgos, cierto, pero también puede, por ejemplo, ayudar a un médico a tomar una mejor decisión si en vez de entenderla como un sustitutivo la vemos como un asesoramiento. Por eso nos parecía muy importante crear un foro que acercará la ética a ese desarrollo técnico y que lo hiciera de una manera práctica. Puede parecer idealista, pero creemos que es perfectamente posible y que además este es el momento. Ahora es cuando podemos decidir qué debemos hacer y qué no con esa capacidad que tiene la tecnología y que además irá a más porque ya hay casos en los que los algoritmos están replicándose a sí mismos y hasta mejorándose.

-¿Ese bueno o mal uso es realmente acotable desde la legislación?

-Ya hay iniciativas internacionales para intentar incluir la ética en el desarrollo de la inteligencia artificial. La Comisión Europea ya ha presentado una guía ética para que sirva de base a todas las empresas y organismos públicos y privados que empleen esta tecnología, para que puedan hacer buen uso de ella. Pero creemos que hace falta un planteamiento menos generalista, más particular incluso en el contexto geográfico. Cuando hablamos de inteligencia artificial hablamos de toma de decisiones, de usar las máquinas para tomar decisiones. Hay veces que esas decisiones no tienen repercusiones sociales, como automatizar un proceso en una línea de producción, pero otras veces sí tienen un impacto. Por ejemplo, en un proceso de selección de personal. Hay sesgos, como el de género, que son generales, pero otros son únicamente asociados a la cultura de un país o incluso un territorio. Tiene que haber códigos internacionales, pero los gobiernos nacionales y territoriales no se pueden lavar las manos y dar por sentado que ya legislará la UE. Deben pensar en las peculiaridades de cada país y crear sus propias normativas de una manera más concreta, más ajustada a su realidad, de lo que podrá hacerlo la Unión.

-Pero si de por sí la ley siempre va detrás de la tecnología, en este caso ese desfase puede ser aún mayor.

-Por eso no hablamos de regulación sino de normativa. La evolución de estas tecnologías, a las que ahora hay que añadir las potencialidades de la computación cuántica, es tan rápida que un marco legal muy rígido acabaría por no ser práctico. En cambio, la redacción de una ley es un proceso largo, por lo es fácil que la tecnología supere la ley incluso antes de que esta llegue a entrar en vigor. Hay que implantar códigos internacionales desde los que crear normas ágiles y adaptadas al momento que vive la tecnología que, por otro lado, deben acompañarla sin limitarla. No podemos olvidar que la inteligencia artificial trae inmensos beneficios para la sociedad. Basta con pensar en la posibilidad de predecir, con altísima probabilidad de acierto, si una persona podrá o no padecer cáncer y de darle un tratamiento absolutamente ajustado. Las decisiones ya no se tomarán sobre fracasos pasados, pero debemos hacer un uso responsable de todo ese potencial.

-¿Son conscientes las empresas de que crear un algoritmo no es sólo trabajo de los ingenieros informáticos, sino que quizá también tengan que contar con expertos en leyes o ética?

-Hay empresas que ya empiezan a verlo pero aún hay que trabajar mucho la concienciación, el hacer ver las implicaciones de la tecnología que emplean. Hay empresas en las que el uso de la inteligencia artificial no tiene ninguna implicación ética, pero en muchos casos no son conscientes de que los datos que utilizan para alimentar ese algoritmo pueden tener sesgos, sobre todo cuando se compra a un tercero, o de que pueden ser sus propios ingenieros los que generen los sesgos al crear el modelo sin ser ni siquiera conscientes como también. Yo creo que contar con personas de diferentes campos del conocimiento que ayuden a las empresas a tener esa visión global sobre las implicaciones sociales y éticas de su actividad es muy necesario y hasta beneficioso, porque también les evita la mala reputación que puede generar un mal uso de estas tecnologías.

-¿Y los usuarios? ¿Qué percepción tenemos de esta tecnología? ¿Somos conscientes de todas sus potencialidades y dependen éstas de la ética de quien la desarrolle?

-La tecnología es tan reciente y su evolución tan rápida que al usuario le llegan conceptos que no siempre puede asumir bien. Muchas cosas que antes veíamos en la ciencia ficción ahora las vemos en los telediarios. Por eso es necesaria también una concienciación social, hacer entender a los usuarios que la tecnología nos da la capacidad pero el uso lo decidimos nosotros. Tenemos que ser conscientes de para qué nos piden nuestros datos en vez de hacer click sin mirar en la casilla de 'he leído y acepto', pero también hay que evitar que los prejuicios de los que hablaba antes creados por la ciencia ficción o por el miedo a ser sustituido en un trabajo por un robot generen rechazo. Tenemos que entender que la tecnología no es el problema; el problema es cómo queremos que se desarrolle.

Publicidad

Publicidad

Publicidad

Publicidad

Reporta un error en esta noticia

* Campos obligatorios