Las fake news ya no serán el único obstáculo a vencer para combatir la desinformación durante un proceso electoral, como el que está por suceder en Estados Unidos en 2020.
Ese proceso tendrá una prueba de fuego más a superar con la aparición de las deep fakes: manipulación de video y audio mediante inteligencia artificial, y machine learning para crear videos que son falsos pero muy convincentes, de acuerdo con Gerardo Flores, director general de la firma de ciberseguridad Forcepoint México.
Se prevé que las deep fakes sean utilizadas como una herramienta para intentar desacreditar a los candidatos y enviar mensajes políticos inexactos a los votantes a través de las redes sociales.
El próximo proceso electoral comenzará con la elección de los candidatos dentro de los partidos a partir del 3 de febrero de 2020 y culminará con las elecciones en noviembre.
Flores expuso que muchas de estas tendencias vienen impulsadas por las próximas elecciones en Estados Unidos.
Sobre todo por el tema tan importante en la economía digital sobre qué es lo que pasa con la relevancia geopolítica de Estados Unidos,
Gerardo Flores.
Afirmó que será una prueba de fuego no solo en ciberseguridad, sino también en los tipos de ataques generados y la respuesta de la gente al tipo de información que reciben.
Del entretenimiento a la amenaza
El uso de tipo de tecnología comenzó como diversión en aplicaciones y programas que ayudan a crear videos con rostros manipulados. Sin embargo habrá una evolución de tal forma que sea utilizada por los cibercriminales para ataques dirigidos.
Ya lo vimos desde el punto de diversión, por ejemplo, con la aplicación que se hizo viral porque pedía una foto actual para mostrar cómo se verían las personas en unos años. Era divertido pero realmente es una manipulación a través de machine learning que te hace proyectarte hacia el futuro. Esto pareciera de poca afectación o riesgo, pero damos acceso a nuestros contactos y fotografías,
director general de Forcepont México.
La manipulación empezó en textos, pero también será en audio y video, por lo que le dará un poder mucho más fuerte a los creadores de ransomware al enviar deep fakes dirigidos a objetivos específicos.
Por ejemplo, los destinatarios verán videos realistas de sí mismos en situaciones comprometedoras y probablemente pagarán la demanda de rescate para evitar la amenaza de que el video sea lanzado al dominio público.
La aplicación de la ley para estos casos, según el directivo de Forcepoint, dependerá de cómo fue usada la herramienta y qué afectó.