Asesinatos, mutilaciones... Un fallo de Instagram inunda la red social de contenido violento
Meta ha pedido disculpas por un error del algoritmo que provocó que durante unas horas la pestaña de Reels se llenara de este tipo de grabaciones
Mutilaciones, asesinatos, cadáveres calcinados… Con este contenido violento se han encontrado en las últimas horas los usuarios de Instagram en su sección de Reels. Meta ... ha pedido disculpas por lo que ha calificado de «error» de su sistema que provocó que muchas personas, incluidos menores, vieran cómo el algoritmo les sugería un contenido altamente sensible. Ha anunciado que ya se ha solventado el problema y la red social ha vuelto a la normalidad.
Publicidad
La pestaña de Reels se compone de vídeos cortos, al más puro estilo de Tik Tok, que propone recomendaciones con los gustos de cada uno. Aunque la noche del miércoles todo apunta a que algo falló y han sido muchos los que se han encontrado escenas como cuerpos de personas que parecían haber sido asesinadas a tiros y atropelladas por vehículos.
En otras redes sociales como X, esta avalancha de clips perturbadores fue denunciada por gran cantidad de cuentas. Algunos de ellos compartieron grabaciones de pantalla en las que se mostraban advertencias de «contenido sensible» en la mayoría de los Reels que les aparecían.
«¿Qué está pasando en Instagram? Vi cómo mataban a unas 24 personas en un lapso de seis minutos«, se quejaba un usuario. Otro subía la apuesta hasta las 50 muertes visionadas en Instagram. Un periodista del Wall Street Journal relata que se ha encontrado con vídeos de personas que recibían disparos, sufrían mutilaciones por máquinas o salían despedidos de atracciones de parques temáticos.
Publicidad
Ante esta situación, la compañía Meta ha emitido una disculpa este jueves y asegura que ya ha solucionado el fallo técnico. «Hemos corregido un error que causaba que algunos usuarios vieran contenido en su feed de Instagram Reels que no debería haber sido recomendado. Pedimos disculpas», asegura un portavoz de Meta en un comunicado compartido recogido por la CNBC, en el que no se aclaró la magnitud del problema ni el número de cuentas afectadas. Así, la empresa lo atribuye a un mal funcionamiento de su algoritmo de recomendación, basado en inteligencia artificial, aprendizaje automático y un equipo de revisión de 15.000 personas para filtrar las infracciones.
Las políticas de Meta prohíben explícitamente «vídeos que muestren desmembramientos, entrañas visibles o cuerpos carbonizados» y «comentarios sádicos» sobre el sufrimiento humano o animal, pero CNBC confirmó que dicho contenido apareció el miércoles por la noche, marcado solo con etiquetas de «contenido sensible». El mecanismo ha fallado y los usuarios han mostrado su indignación por lo que que consideran un incumplimiento de su promesa de protección contra publicaciones que dañen la sensibilidad de los usuarios.
Publicidad
El incidente, que ha puesto sobre la mesa las lagunas en el proceso de moderación mediante la IA, se produce cuando Meta impulsa un amplio cambio es sus políticas de contenido para evitar una censura que coartar la libertad de expresión. El portavoz de la compañía ha sostenido que la avalancha de vídeos violentos no tiene relación con esta decisión de la compañía.
En las redes sociales cualquier suceso es susceptible de ser material para chistes o memes, que en esta ocasión también han inundado las redes sociales haciendo chanza sobre la violencia que ha reinado en Instagram durante unas horas.
Accede todo un mes por solo 0,99€
¿Ya eres suscriptor? Inicia sesión