Los vídeos falsos son ya el gran problema de Internet: aprende a distinguirlos
Los 'deepfakes' se cuelan hasta en las entrevistas de trabajo
sara borondo
Miércoles, 17 de agosto 2022, 00:22
La tecnología que cambia la cara o la voz de una persona por otra en un vídeo o mensaje de audio ha evolucionado tanto que se está convirtiendo en un problema, sobre todo desde que los seminarios y las reuniones de trabajo a través del ordenador han pasado a ser parte de la vida cotidiana.
Al haber una pantalla por medio se pueden producir engaños tales como la suplantación de identidad: a lo mejor pensamos que estamos hablando con una persona, porque la vemos y escuchamos su voz, pero en realidad es una imagen sintética, creada por ordenador, que sustituye a la real, lo que se conoce como 'deepfake'.
La tecnología para sustituir a una persona por otra en un vídeo o una grabación de sonido no es mala en sí, apunta Unai Elordi, investigador especializado en Inteligencia Artificial y Deepfake en Vicomtech: «La generación de imágenes sintéticas tiene muchísimo potencial. Algunos sectores de aplicación pueden ser la industria audiovisual en el doblaje de actores que se han lesionado, fallecido y tienen que aparecer más jóvenes de lo que son o para crear la imagen de una persona artificial que represente a una marca. También en la mejora de modelos de inteligencia artificial (IA), que necesitan una cantidad ingente de datos para su entrenamiento. Si se utilizan imágenes reales, en el caso de las caras hace falta el consentimiento de las personas para crear las bases de datos. Con la generación de imágenes sintéticas no hay que preocuparse por preservar la privacidad de estas personas [que no existen realmente]. También en la creación de todo tipo de imágenes; se pueden crear imágenes artísticas como cuadros o generar paisajes que no existen».
Los ciberdelincuentes no han tardado en encontrar un uso para la tecnología que les beneficie a costa del dinero ajeno, y los vídeos que sustituyen la imagen de una persona por otra se han perfeccionado rápido. En la empresa se ciberseguridad Entelgy Innotec Security recuerdan que el Federal Bureau of Investigation (FBI) estadounidense denunció a finales de junio que se están utilizando deepfakes en entrevistas realizadas por videollamada para puestos de teletrabajo. Sin embargo, añaden desde la empresa, no parece que la intención real de los ciberatacantes sea encontrar un trabajo, sino utilizar su nueva posición para acceder a bases de datos sensibles de la compañía, de sus empleados y de sus clientes.
Los perjuicios que puede ocasionar un deepfake a las empresas
Los deepfakes, informan desde Entelgy Innotec, pueden causar distintos daños a una empresa como desinformación, implicación en delitos, falsificación de pruebas, suplantación de identidad, daño a la imagen, noticias falsas, difamaciones o estafas económicas. «Cada vez este tipo de falsificaciones se convierten en procedimientos más sofisticados, lo que lleva a las empresas a revisar sus protocolos y prepararse ante el fraude digital» dicen fuentes de Entelgy Innotec.
Las entrevistas de trabajo para que un delincuente se infiltre como un trabajador más no es el único método detectado por Entelgy Innotec, que ha detectado también el empleo de deepfakes para estafar a empresas mediante la suplantación de la voz del director o la creación de un vídeo donde aparece el máximo responsable para pedir a sus empleados que realicen ciertas acciones como una transferencia bancaria. «Esto a veces ocurre incluso directamente desde llamadas telefónicas o videollamadas y puede generar mucha desconfianza por parte de los propios trabajadores, que pueden empezar a replantearse cada mensaje que les llega desde su corporación. También se utilizan deepfakes para difamar a una empresa y dañar su reputación institucional. Hay muchos casos en los que los atacantes elaboran deepfakes en los que los ejecutivos irreales de una empresa hablan sobre ésta aportando datos para declarar insolvencias, por ejemplo. Después los ciberdelincuentes amenazan con enviar ese contenido a medios o publicarlo en internet», afirman fuentes de Entelgy. Los deepfakes han avanzado tanto que pueden llegara engañar a los sistemas de reconocimiento de rostro o voz por lo que, añaden desde la empresa de ciberseguridad, si llega un mensaje de un superior pidiendo algo inusual o que puede comprometer a la empresa, lo mejor es cortar la comunicación si se está produciendo en ese momento y buscar a ese superior físicamente o contactarle por otra vía.
Una de las líneas de investigación de Vicomtech se centra en la suplantación de identidad con un uso inadecuado de las imágenes. La empresa trabaja para combatirla utilizando sistemas de inteligencia artificial que pongan en evidencia de manera automática que un vídeo se trata de un deepfake «gracias a nuestro know how en IA y visión artificial», dice Elordi, y añade que la tecnología actual permite ya sustituir la imagen de una persona por otra en tiempo real, según está hablando, «incluso se puede hacer gratuitamente si se tienen los conocimientos técnicos necesarios. Herramientas como DeepFacelive son ejemplos de ello». Esto supone que es factible que podamos mantener una videollamada con una persona que no es quien parece
Cómo detectar un deepfake de manera visual
Hasta que llegue la posibilidad de contar con una inteligencia artificial que revele si nos intentan engañar con un deepfake, el experto apunta varios errores que se pueden detectar a simple vista y que hay que tener en cuenta (además de observar si la imagen de la otra persona y sus movimientos son naturales):
■ El pelo y la barba: El pelo es una geometría muy difícil de representar, así que los programas que generan los deepfakes difuminan las partes del pelo para disimularlos.
■ Las gafas (si las lleva): Las redes adversariales son propensas a generar imágenes con gafas incorrectamente ya que generan brillos artificiales que son fácilmente detectables.
■ Pose de la cara: Al ponerse de perfil el sistema puede generar algunas deformaciones en la imagen fácilmente perceptibles.
■ Expresiones faciales: Fijarse en si la persona está actuando de forma natural es crucial, estas redes solo generan imágenes, no saben lo que es una expresión facial.
■ Mirada de la persona: Es muy común encontrarse DeepFakes con la mirada perdida.
■ Pestañeo: Si prestamos atención al pestañeo de la persona, es posible deducir si es un deepfake o no. Estas redes muchas veces hacen videos de pestañeos muy rápidos e incluso a veces casi ni pestañean.
■ Deformaciones de boca, dientes, párpados: Debido a la reducida variabilidad de generación de imágenes, es muy probable que detectemos que el deepfake no vocaliza bien o que sus dientes y brillos en los párpados parezcan muy artificiales.
Una de las cosas que cambiaron durante la pandemia fueron las entrevistas de trabajo. Antes el reclutador tenía que ser capaz, además de ver si las capacidades de la persona respondían a las necesidades del empleador, de leer su lenguaje corporal. Ahora puede suceder que la persona que está viendo en pantalla no sea quien realmente aspira al puesto. También en este terreno hay que actuar; Elordi apunta que para evitar engaños lo más adecuado sería «tener una aplicación propia que obligue a usar la cámara física, sin otro tipo de software que lo emule» además de aplicar las técnicas manuales de detección de deepfakes antes mencionadas.
Estas son las únicas herramientas con las que contamos de momento y ni siquiera la legislación ha podido avanzar al mismo tiempo que la tecnología desarrollada; aunque la regulación de la inteligencia artificial en la que está trabajando la Unión Europea incluye algo al respecto, no hay legislación específica sobre estos fraudes. Sí que pueden aplicarse las consecuencias que se deriven de su uso, recuerdan desde Entelgy, como la comisión de un delito o una sanción de protección de datos o propiedad intelectual, que establece ciertos límites a los derechos de autor.
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.