Facebook eliminó en el último trimestre 8.7 millones de imágenes de usuarios con desnudos infantiles gracias a la ayuda de un software que detecta automáticamente este tipo de fotos, anunció este miércoles.
La herramienta de inteligencia artificial y aprendizaje automático implementada el año pasado identifica imágenes que contienen desnudos y un niño, lo que permite un mayor cumplimiento de la prohibición de Facebook de exhibir fotos que muestren a menores en un contexto sexualizado.
Un sistema similar también reveló la detección de usuarios involucrados en intentar hacerse amigos de menores para la explotación sexual, una práctica conocida como ‘grooming’ o ciberacoso.
La jefa de seguridad global de Facebook, Antigone Davis, reveló que la máquina ayuda a priorizar y organizar de manera más eficiente el contenido problemático para el equipo de supervisores de la compañía, que está analizando la utilización de la misma tecnología en Instagram.
Presionado por reguladores y legisladores, Facebook prometió acelerar la eliminación del material considerado radical e ilícito. Los programas de aprendizaje automático que analizan las miles de millones de publicaciones diarias de los usuarios son esenciales para el éxito de su plan.
El aprendizaje automático es imperfecto y las agencias de noticias y los patrocinadores se encuentran entre los que se han quejado este año de los sistemas automatizados de Facebook que bloquean erróneamente sus publicaciones.
Davis dijo que los sistemas de seguridad infantil cometen errores, pero los usuarios pueden apelar.
“Preferimos errar por el lado de la precaución con los niños”, sostuvo Davis.
Durante años, las reglas de Facebook han prohibido incluso fotos familiares de niños con poca ropa, aunque sean subidas con buenas intenciones, preocupado por cómo otros podrían abusar de esas imágenes.