Cómo asegurarse de que los niños no ven contenido inadecuado en YouTube

Las denuncias de padres y usuarios han minado la confianza en la plataforma 'YouTube Kids' /
Las denuncias de padres y usuarios han minado la confianza en la plataforma 'YouTube Kids'

La plataforma incluye herramientas para limitar el acceso a ciertos contenidos

SARA BORONDO

Durante décadas, educadores, padres y psicólogos han mostrado preocupación por lo que los más pequeños veían en las pantallas de televisión. En España se publicó una ley en 2010 que contemplaba horarios de protección reforzada en la que no se pueden emitir contenidos para mayores de 13 años. Los padres estaban así relativamente tranquilos con que sus hijos vieran un rato de televisión. Pero la tecnología ha adelantado a la legislación y cada vez más niños consumen vídeos en Youtube, plataforma nutrida por los propios usuarios.

El estudio 'AIMC Niñ@s' realizado por Kantar TNS en 2018 establece que el 89% de los niños españoles de entre 6 y 13 años consume vídeos en Internet; un 36% a diario. Tanto niños como niñas ven sobre todo bromas o desafíos, las niñas prefieren los videos musicales y los niños los de gente jugando a videojuegos o relacionados con el deporte. En las casas españolas hay una media de casi 7 dispositivos tecnológicos, de los cuales los niños utilizan a partes iguales cuatro: televisión (tanto lo que se emita en cada momento como contenido bajo demanda en Movistar, Netflix, Vodafone, HBO...), tablet, móvil y consola de videojuegos. En total, los niños están unas cinco horas diarias frente a algún tipo de pantalla.

YouTube Kids, un espacio no tan seguro

Dejar que los niños naveguen por Youtube sin supervisión es exponerles a todo tipo de contenidos -y de gente-. Youtube Kids nació en febrero de 2015 como un espacio seguro para que los niños vieran contenidos adecuados, pero tiempo después se descubrió que entre los vídeos de dibujos animados había otros en los que se presentaban tramas violentas o personajes en actitud sexual y perturbadoras, poco adecuadas para los niños. YouTube no tardó en implementar varias herramientas para mejorar el servicio, utilizando las denuncias de los usuarios y el machine learning para establecer filtros adecuados. Eliminó más de ocho millones de vídeos, la mayoría de ellos detectados por los sistemas de inteligencia artificial. El resto fueron denunciados por los usuarios, que pueden marcarlo como tal si tiene contenido sexual explícito, son engañosos o spam, tratan de abusos u odio o son violentos o repulsivos.

A finales del pasado mes de febrero saltaron nuevamente las alertas cuando una pediatra denunció que había detectado la presencia de nuevos vídeos con contenido inadecuado. Más concretamente, se trataba del vídeo de un videojuego en el que aparecía el youtuber Filthy Frank (que puede traducirse como 'asqueroso Frank' y tiene un canal dedicado al humor negro) dando instrucciones directas sobre cómo cortarse las venas. Tras ser denunciado por múltiples usuarios, la plataforma retiró el vídeo, y más tarde se descubrió que ese fragmento de vídeo fue insertando sin el consentimiento del autor original de las imágenes, pero el hecho quebrantó la confianza en los filtros de Youtube Kids.

La plataforma también publicó un comunicado oficial en el que se informaba de que en YouTube Kids los vídeos marcados «se revisan manualmente las 24 horas del día, los 7 días de la semana y se eliminan los vídeos que no pertenecen a la aplicación» así como de que la empresa está invirtiendo en nuevos controles para padres «incluida la posibilidad de seleccionar manualmente vídeos y canales en la aplicación».

Aunque YouTube tiene algunas herramientas que permiten delimitar el contenido al que tienen acceso los niños, la verdad es que no están ni accesibles ni bien explicados. Incluso en la guía para padres está todo expuesto de una manera algo compleja y confusa.

Los vídeos de YouTube Kids se seleccionan a partir de vídeos de Youtube que pasan un filtro que la plataforma va cambiando «para que sean los más precisos posible para proporcionarte una versión más segura de Youtube». Pero está claro que cuando el contenido lo suben los usuarios hay elementos que escapan al control de los dueños de la plataforma.

Los vídeos que aparecen en las cuatro categorías del menú que ven los niños (Programas, Música, Aprender y Explorar) se seleccionan con una combinación de sistemas automatizados y «cierta revisión humana» y los de la sección Recomendados (que aparecen al deslizar la pantalla principal o ver varios vídeos) son seleccionados por el algoritmo de YouTube, sin supervisión.

Medidas incorporadas por YouTube

En Youtube Kids los padres pueden crear un perfil para ellos desde el que controlar lo que pueden ver los hijos. Al instalarla hay que indicar la edad del progenitor y la app explica cómo bloquear y denunciar algún vídeo que se considere inapropiado, tocando el icono de tres puntos verticales en el vídeo en cuestión. A continuación hay que crear una cuenta parental. También avisa de que cuando el menor haya visto varios vídeos, se le empezará a recomendar otros «según los términos que haya buscado y los vídeos que hay visto» y de que Youtube no revisa todo el contenido manualmente.

Esta configuración inicial también permite realizar algunos ajustes básicos -que se pueden modificar en cualquier momento- como si se permitirá al niño buscar vídeos. Para revisar qué opciones están activadas hay que pulsar en el candado que está en la esquina inferior derecha de la app y resolver la multiplicación que aparece o incluir la contraseña que se haya indicado. Este candado es crucial para controlar todo el contenido que puede ver el niño. Después hay que entrar en ajustes y ahí pulsar el perfil del pequeño que se quiere revisar.

Otra de las cuestiones de las que avisa la app es de la recogida de información sobre el hardware y de la navegación por distintos canales, que se utiliza para ofrecer nuevos vídeos. También se puede desactivar esta opción pausando el historial.

Youtube incorporó el año pasado medidas adicionales de control parental para evitar que los niños vean vídeos inadecuados para ellos, como la opción de ver solo contenido aprobado, de forma que solo puedan ver los vídeos, canales y colecciones que los padres hayan seleccionado manualmente. Las colecciones son vídeos y canales que los equipos de Youtube Kids o algunos de los partners de la plataforma han clasificado o agrupado por temáticas. El niño no podrá buscar vídeos, pero sí elegir entre estos verificados.

Para activarla, hay que tocar el icono del candado que está en la esquina inferior de la aplicación, resolver la multiplicación o introducir la contraseña personalizada si se ha incluido una, seleccionar Ajustes, entrar en el perfil del menor, introducir la contraseña de la cuenta parental y seleccionar «solo contenido aprobado». Después, seguir las indicaciones que aparecen en pantalla para aprobar el contenido que se desee que esté disponible para el niño, que únicamente podrá ver los contenidos a los que el progenitor haya dado el visto bueno.

Los niños, al igual que los adultos, suelen empezar por un vídeo que buscan concreto y después van pasando de un recomendado a otro hasta acabar en un sitio muy diferente. Por eso es importante utilizar los controles que ofrece la propia plataforma. Aunque, sin duda, la mejor manera de saber qué vídeo están consumiendo los más pequeños es estar cerca de ellos y pendiente de lo que están viendo.