IBM pone fin al reconocimiento facial mediante sistemas de inteligencia artificial, debido a que se oponen al uso de esta tecnología para la vigilancia masiva y el control racial.
Arvind Kirsha, CEO de IBM, envió una carta al Congreso de Estados Unidos el día de ayer para exponer su crítica al uso de este tecnología.
IBM se opone firmemente y no tolerará el uso de ninguna tecnología, incluida la tecnología de reconocimiento facial ofrecida por otros proveedores, para la vigilancia masiva, el perfil racial, las violaciones de los derechos humanos y las libertades básicas, o cualquier propósito que no sea coherente con nuestros valores y Principios de confianza y transparencia
Arvin Kirsha
En su carta el Congreso, Karsha incita al diálogo nacional sobre si las agencias nacionales deberían emplear la tecnología de reconocimiento facial y cómo, motivado por la crítica tras el asesinato de George Floyd el 25 de mayo por cuestiones raciales.
“La inteligencia artificial es una herramienta poderosa que puede ayudar a las fuerzas del orden a mantener seguros a los ciudadanos. Pero los vendedores y usuarios de los sistemas de Al tienen una responsabilidad compartida para garantizar que se evalúe el sesgo de Al, en particular cuando se utiliza en la aplicación de la ley, y que dichas pruebas de sesgo se auditen y se informen”, agregó Kirsha.
El reconocimiento facial de IBM se apagará progresivamente, debido que algunos de sus clientes actuales seguirán recibiendo soporte.
No obstante, sí dejarán de comercializar, vender o actualizar los sistemas que había trabajado para mejorar su imparcialidad.
Un representante de IBM le dijo a Axios que las decisiones se tomaron durante un período de meses y se comunicaron con los clientes, aunque ésta es la primera mención pública de la decisión.
Sesgos y privacidad del reconocimiento facial
En 2018, de acuerdo con The Verge, los investigadores Joy Buolamwini y Timnit Gebru revelaron por primera vez la medida en que muchos sistemas comerciales de reconocimiento facial (incluidos los de IBM) estaban sesgados.
Este trabajo y los estudios posteriores de la pareja llevaron a la crítica general de estos algoritmos y a los intentos continuos de rectificar el sesgo. La tecnología también ha sido criticada por su papel en las violaciones de privacidad.