Apple revisará fotos en iCloud para identificar imágenes de abuso infantil
Apple revisará las fotos en iPhone y iCloud para identificar imágenes de abuso infantil

Apple revisará las fotos en iPhone y iCloud para identificar imágenes de abuso infantil

Apple presentó el jueves nuevas herramientas para detectar de manera más eficaz las imágenes de contenido sexual que involucran a niños en dispositivos iPhone, iPad y su servidor iCloud en Estados Unidos, lo que suscita preocupaciones entre los defensores de la privacidad en internet.

“Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de pornografía infantil”, indicó la compañía.

La tecnológica usará herramientas de cifrado que analicen y vinculen imágenes que consideren sospechosas con un número específico para cada una. 

También planea comparar las fotos cargadas en iCloud con las almacenadas en un archivo administrado por el Centro Nacional de Niños Desaparecidos y Explotados (NCMEC), una corporación privada estadounidense que trabaja para reducir la explotación sexual infantil. Apple asegura que no tiene acceso directo a las imágenes. 

 Cuando una foto se parezca a alguna del archivo, Apple la revisará manualmente, deshabilitará la cuenta del usuario si es necesario y enviará un informe al NCMEC. 

El grupo también está planeando nuevas herramientas para prevenir a los niños y padres que tienen una cuenta de “Compartir en familia” (Family Sharing) cuando fotos explícitas les sean enviadas a la aplicación Mensajes. 

Las fotos se verán borrosas y se remitirá al menor a los mensajes de prevención con una advertencia de que no está obligado a abrir la imagen, mientras los padres pueden optar por recibir un mensaje cuando su hijo abra fotos. 

Se implementarán protecciones similares para los niños que envíen fotos sexualmente explícitas.

La asistente de voz Siri y la herramienta de búsqueda Search también pueden intervenir cuando los usuarios busquen imágenes de pornografía infantil advirtiéndoles que dicho contenido es problemático. 

 Estas herramientas estarán disponibles gradualmente con las próximas actualizaciones de los sistemas operativos para dispositivos móviles y de escritorio.

Preocupaciones por privacidad

Tras el anuncio de Apple, algunas organizaciones de protección de privacidad y especialistas en ciberseguridad manifestaron su preocupación por la medida y el mal uso que se le podría dar.

Los cambios “suponen un cambio significativo de los protocolos de privacidad y seguridad establecidos hace tiempo”, estimó el Centro para la Democracia y la Tecnología (CDT). 

Greg Nojeim, del CDT  afirmó que “Apple está sustituyendo su sistema de mensajería con cifrado de extremo a extremo por una infraestructura de vigilancia y censura, que será vulnerable al abuso y al mal uso no sólo en Estados Unidos sino en todo el mundo”.

India McKinney y Erica Portnoy, de la ONG en defensa de la libertad en internet Electronic Frontier Foundation recalcaron que “la explotación infantil es un problema grave, y Apple no es la primera empresa tecnológica que cambia su postura sobre la protección de la privacidad en un intento de combatirla”.

Pero incluso desarrollado con la mejor de las intenciones, un sistema diseñado para detectar la pornografía infantil “abre la puerta a nuevos abusos”, temen en una entrada del blog.

Basta que Apple modifique un poco la configuración para buscar otro tipo de contenidos o escanear las cuentas no sólo de los niños, sino de todo el mundo, explican.

back to top