Facebook, Twitter, WhatsApp y YouTube controlan el contenido que los usuarios publican y reciben mediante sus plataformas. En otras palabras, deciden qué puedes decir y qué puedes ver.

Con ayuda de algoritmos, seleccionan qué información (mensajes e imágenes) puede permanecer visibles para su comunidad.

Al ser compañías privadas, establecieron su propias políticas para seleccionar quiénes y qué pueden compartir. En un inicio se pensó que servirían como foros de discusión que lograrían garantizar la libertad de expresión.  

Pero ahora los algoritmos basados en Inteligencia Artificial, por ejemplo, son utilizados por Facebook para monitorear lo que los usuarios comparten. La empresa puede censurar información e incluso eliminar las cuentas que considere “inapropiadas” para el funcionamiento de la red social.

Lo mismo pasa en otras plataformas, como YouTube, Twitter o Instagram. La tecnología decide qué aparece en tu pantalla y si puedes seguir siendo miembro o no.

De acuerdo con The New York Times, Facebook, Twitter y YouTube han anunciado planes para invertir grandes cantidades en Inteligencia Artificial y otras tecnologías con el fin de encontrar y eliminar de sus sitios contenido no deseado.

El que los algoritmos tengan a su cargo la selección del contenido ha provocado controversia entre usuarios y organizaciones a favor de los derechos digitales.

“Hemos otorgado a las empresas privadas el poder de establecer y hacer cumplir los límites del discurso público apropiado. Ese es un enorme poder cultural que poseen muy pocos, y se maneja en gran parte detrás de puertas cerradas, lo que dificulta la inspección o el desafío para los externos”, plantea el investigador Tarleton Gillespie en un artículo publicado en la revista Wired.

Juan Luis Hernández Conde, abogado y socio fundador del despacho de abogados Novus Concilium, expone a EL CEO que si las plataformas pueden controlar la publicidad que ve cada usuario, es muy probable que utilicen ese poder técnico para otras situaciones.

¿Violan los derechos de los usuarios?

Hernández expone que lo que rige la relación entre una empresa privada como Facebook, Twitter o Instagram y los usuarios es un contrato que puede ser de licencia o de prestación de servicios profesionales.

Me obligo, cada vez que le pongo aceptar a los términos y condiciones o cada que inicio sesión, a cumplir con ese contrato. Generalmente son contratos de licencia porque te permiten usar una plataforma siempre y cuando cumplas con ciertas reglas. De tal manera que las propias empresas pueden disponer en esas reglas que cierto tipo de contenido no va a ser permitido, dependiendo de la propia filosofía de la empresa

Juan Luis Hernández, abogado y socio fundador de Novus Concilium

Según Hernández, no se le da el tratamiento de autoridad porque todos pueden tener la decisión de firmar el contrato con las plataformas o si mejor no lo usan y cierran sus cuentas.

Para las empresas privadas como Facebook Twitter o WhatsApp, de acuerdo con el especialista, no existe la misma defensa o protección de derechos humanos que se le impone a un gobierno.

Pero la Corte Interamericana de Derechos Humanos como la Suprema Corte de Justicia en México han determinado que los gobiernos no solamente no deben violar los derechos, sino que tienen la obligación de actuar de una manera que nos permita ejercerlos debidamente, agrega Hernández. 

Es por eso que existen leyes en materia de privacidad, como el reglamento GDPR en Europa o la Ley Federal de Protección de Datos Personales en México, que obliga a empresas privadas a no vulnerar la privacidad y la autodeterminación informativa de sus usuarios.

“Olvidamos que, tristemente, la función de las empresas no es cuidar nuestros derechos. Son empresas y deben generar un ingreso, así como dividendos y utilidades para sus accionistas. Muchas de las decisiones que tome una red social van a estar fundamentadas en el modelo de negocios y en sí hace sentido para su negocio”, expresa.

Escenario de batallas políticas

De acuerdo con la investigadora María Elena Meneses, la vida cívica se ha transportado al ciberespacio. En el caso de Twitter se ha convertido en un escenario para batallas políticas del siglo XXI.

El uso de bots y fake news en redes sociales han tenido influencia en los procesos electorales de diferentes países, como Estados Unidos y Brasil.

Cristian León, Coordinador del proyecto Innovación Política LatAm sobre Tecnopolítica y Ética Hacker y profesor investigador de la Universidad Católica Boliviana, comenta para esta publicación que aproximadamente hace cinco años las redes sociales comenzaron a usarse como canal de comunicación entre el candidato o candidata con los votantes.

Era una relación constructiva porque aprovechaban las plataformas para amplificar su voz.

Lo que ha sucedido a partir del Brexit, Donald Trump, Jair Bolsonaro y otros casos de procesos electorales, de acuerdo con León, es que su rol ya no es para comunicarse con el electorado, sino para intentar manipular la opinión pública e influenciar la decisión del votante.

“Con Facebook, los candidatos y partidos políticos se dieron cuenta que es una herramienta en la cual hay bastante manifestación de la opinión, por ejemplo, con los likes y otras opciones. Da posibilidad de entender cómo piensa el electorado. El paradigma cambió a intentar entender cómo piensa éste”

Cristian León, Coordinador del proyecto Innovación Política LatAm sobre Tecnopolítica y Ética Hacker

Lo grave, según León, es que Facebook haya permitido que se atacara a los votantes con información que los vuelva reactivos como en las pasadas elecciones de Estados Unidos, donde recibieron noticias falsas de acuerdo al perfil de cada votante.

Señala que esto ha incrementado aún más con el caso del presidente electo Jair Bolsonaro, pues ha usado la plataforma de WhatsApp para difundir noticias falsas.

“Whatsapp no se manifestó sobre el caso de Bolsonaro y no ha expresado ninguna intención de generar algún tipo de filtro o política que reduzca la reproducción de noticias falsas”, agregó.

Narrativa de odio

La redes sociales, según The New York Times, han perdido el control sobre el manejo de la desinformación y el discurso de odio en los últimos meses.

En octubre, el diario escribió sobre el caso de miembros del personal militar de Myanmar que convirtieron a Facebook en una herramienta para la limpieza étnica, según ex funcionarios militares, investigadores y funcionarios civiles del país.

Los miembros de las fuerzas armadas de Myanmar, estado soberano del Sudeste Asiático,  fueron los principales agentes detrás de una campaña sistemática mediante la red social que se extendió por media década.

Alex Warofka, gerente de Políticas de Producto de Facebook, expuso que encargaron una evaluación independiente del impacto en los derechos humanos sobre el papel de sus servicios en Myanmar.

La evaluación fue completada por BSR (Business for Social Responsibility), una organización independiente sin fines de lucro con experiencia en prácticas y políticas de derechos humanos.

El informe concluyó que, antes de este año, la plataforma no estaba haciendo lo suficiente para evitar su uso para fomentar la división e incitar a la violencia fuera de línea.

La organización BSR recomendó a Facebook adoptar una política de derechos humanos independiente, que establezca estructuras de gobierno formalizadas para supervisar la estrategia de derechos humanos de la empresa y proporcionar actualizaciones periódicas sobre su progreso.

León plantea que las empresas, como Facebook, sí están actuando pero no se sabe el verdadero alcance de esas acciones debido a que todo se maneja de manera poco transparente.

Además de que responden a ciertos intereses al censurar o permitir la reproducción de cierto contenido.

“Hay accionistas detrás con intereses claros. El hecho de que sean poco transparentes te dice cómo estos intereses están por detrás. No quieren abrirse a estar en escrutinio público. El punto es identificar esos intereses, pero es complicado porque los poderes fácticos no están visibles para todos”, finaliza el investigador, Cristian León.

Deja un comentario