El plan de OpenAI para combatir las 'fake news' en medio de las elecciones de 2024
El plan de OpenAI para combatir las ‘fake news’ en medio de las elecciones de 2024

El plan de OpenAI para combatir las ‘fake news’ en medio de las elecciones de 2024

Los avances de la inteligencia artificial han logrado sorprender a varias personas a través de los años. Algunas veces esto no ha sido de manera positiva, ya que también se ha prestado para la elaboración de deepfakes o, incluso, fake news. Por ese motivo, OpenAI, la empresa matriz de ChatGPT, ha ideado un plan para mantenerse al margen de las elecciones de 2024.

En 2024, no sólo México y Estados Unidos celebrarán elecciones. En realidad, hay un par de decenas de países que elegirán a sus próximos representantes, incluyendo presidentes y miembros de los parlamentos. Por ese motivo, combatir la desinformación en estos procesos será clave y OpenAI está consciente de ello.

La principal ‘preocupación’ de OpenAI es DALL·E, la plataforma de inteligencia artificial que permite generar toda clase de imágenes, incluyendo las apegadas a la realidad. Así que han creado algunas barreras para que esta herramienta no pueda ser utilizada para originar deepfakesimágenes falsas que muestran a personas o situaciones de manera engañosa– y crear atmósferas de desinformación en los procesos políticos.

El plan de OpenAI para combatir la desinformación
Fotografía: Freepik

OpenAI tendrá barreras contra mal uso

Según la organización, trabaja para anticipar posibles abusos en el contexto electoral de 2024. Su principal acción será evitar que DALL·E siga órdenes que impliquen crear imágenes con rostros de personas reales, regla que incluye a candidatos a puestos públicos.

Adicionalmente, la empresa explicó que todavía gestiona para identificar el poder de sus bases de inteligencia artificial en el plano de las elecciones. No tiene claro qué tan persuasivos pueden llegar a ser los mensajes que genere, así que prohibió que las personas desarrollen aplicaciones para campañas políticas y lobby.

En ese mismo sentido, también impide que los desarrolladores generen apps de inteligencia artificial que se hagan pasar por personas reales o instituciones, como candidatos. Esto con el objetivo de que los usuarios puedan tener la certeza de están interactuando con entes reales.

Habrá ‘marcas de agua’ en contenido de IA

Otra de las medidas de OpenAI para combatir la desinformación en lo electoral será poner una ‘marca de agua’ digital en todas las fotografías que sean creadas con DALL·E.

No se tratará realmente de una impresión en la imagen, sino de contenido criptográfico que indique la procedencia de la misma. Esto sucederá a través de Content Credentials, una iniciativa de C2PA que busca dar certidumbre del origen de las creaciones en el mundo digital.

Este tipo de ‘marcas de agua’ digitales son un pequeño icono en una de las esquinas de la imagen. Al seleccionarla, muestra más datos sobre cuándo se hizo, qué se está viendo, quién es el creador o editor y qué herramientas se utilizaron para crearlo, incluyendo el uso de inteligencia artificial como DALL·E.

¿En qué países habrá elecciones en 2024?

La preocupación de OpenAI surge de que, aparte de México y Estados Unidos, otros lugares del mundo celebrarán un proceso electoral para elegir a sus parlamentos y dirigentes. En este contexto también habrá elecciones presidenciales en sitios como:

  • Croacia
  • Eslovaquia
  • Rumania
  • Rusia
  • Macedonia
  • Lituania
  • Islandia
  • Georgia
  • Finlandia
  • Taiwán
  • Pakistán
  • Venezuela
  • Argelia
  • Senegal

También puedes leer: 

Para más información, visita nuestro canal de YouTube.

 

back to top