Apple pondrá en marcha un sistema para revisar las fotos en busca de imágenes de abuso infantil en cada país, dependiendo de las leyes locales, informó este viernes la compañía.
Un día antes, dijo que pondría en marcha un sistema que revisa las fotos en busca de este tipo de imágenes antes de que se suban desde los iPhones en Estados Unidos a su servicio de almacenamiento iCloud.
La herramienta diseñada para detectar imágenes previamente identificadas de abusos sexuales a menores, llamada “neuralMatch”, escaneará las imágenes antes de que sean subidas a iCloud. Si encuentra una coincidencia, la imagen será revisada por una persona. Si se confirma la existencia de pornografía infantil, se inhabilitará la cuenta del usuario y se notificará al Centro Nacional para Niños Desaparecidos y Explotados, dijo la compañía.
Los grupos de seguridad infantil elogiaron a Apple al sumarse a Facebook, Microsoft y Google en la adopción de tales medidas. Muchas otras empresas tecnológicas comprueban las fotos después de subirlas a los servidores.
Pero la comprobación de fotografías de Apple en el propio iPhone suscitó la preocupación de que la empresa esté indagando en los dispositivos de los usuarios de forma que pueda ser aprovechada por los gobiernos.
Apple aseguró que no pasará los informes de su sistema de comprobación de fotos a las policías si la revisión no encuentra imágenes de abuso infantil.