Apple retrasará el lanzamiento de sus nuevas y controvertidas herramientas de protección contra la pornografía infantil, acusadas por algunos de socavar la privacidad de sus dispositivos y servicios.

En agosto, la tecnológica anunció medidas para detectar de manera más eficaz las imágenes de contenido sexual que involucran a niños en dispositivos iPhone, iPad y su servidor iCloud en Estados Unidos.

Sin embargo, a las asociaciones de derechos digitales les preocupa que los ajustes abran una “puerta trasera” potencial en los dispositivos que podrían ser explotados por gobiernos u otras organizaciones con otros fines.

En base a comentarios de los clientes, grupos de defensa, investigadores y otros, decidimos tomarnos más tiempo en los próximos meses para recopilar información y realizar mejoras antes de lanzar estas características tan importantes para la seguridad de los niños

dijo la compañía en un comunicado.

La nueva tecnología permite al software que alimenta los dispositivos móviles de Apple comparar las fotos almacenadas en el teléfono de un usuario con una base de datos de imágenes de abuso sexual infantil proporcionadas por organizaciones de seguridad, y luego marcar las imágenes a medida que se cargan en el almacenamiento iCloud en línea de Apple, según la compañía.

El sistema, en caso de que entre en uso, será “impulsado por una tecnología criptográfica” para determinar “si hay una coincidencia sin revelar el resultado”, a menos que se descubra que la imagen contiene abuso sexual infantil.