Apple presenta nuevas herramientas contra las imágenes de abuso sexual infantil
«Queremos limitar la difusión de la pornografía infantil y ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos», aseguran los responsables del grupo
e. c.
Sábado, 7 de agosto 2021, 23:30
El gigante informático Apple ha presentado nuevas herramientas para detectar imágenes sexuales de niños almacenadas en su servidor iCloud, que estarán disponibles gradualmente con las próximas actualizaciones de los sistemas operativos en iPhone, iPad, iWatch e iMac. «Queremos limitar la difusión de la pornografía infantil y ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos», aseguran los responsables del grupo.
La compañía usará técnicas de cifrado que analicen y vinculen imágenes sospechosas con un número específico para cada una. También planea comparar las fotos cargadas en iCloud con las almacenadas en un archivo administrado por el Centro Nacional de Niños Desaparecidos y Explotados (NCMEC), una corporación privada estadounidense que trabaja contra la explotación sexual infantil. Apple asegura que no tiene acceso directo a las imágenes. Cuando una foto se parezca a alguna del archivo, la compañía la revisará manualmente, deshabilitará la cuenta del usuario si es necesario y enviará un informe al NCMEC.
Al mismo tiempo, planea prevenir a los niños y padres que tienen una cuenta de 'Compartir en familia' (Family Sharing) cuando les envíen fotos explícitas a la aplicación Mensajes. Se verán borrosas y se remitirá al menor a los mensajes de prevención con una advertencia de que no está obligado a abrir la imagen. Los padres pueden optar por recibir un mensaje cuando su hijo abra fotos. Habrá protecciones similares para los niños que envíen fotos sexualmente explícitas. También aumentará la información que difunde la asistente de voz Siri cuando niños o padres pidan consejo sobre determinadas situaciones.