
¿Cómo almacena y qué tratamiento hace la IA con la información personal?
Cada motor de IA guarda de manera distinta la información que sus usuarios generan diariamente.
El uso de herramientas de Inteligencia Artificial es cada vez más frecuente para solucionar actividades, responder preguntas y programar o escribir correos, lo que vuelve la IA como una infraestructura digital básica.
De acuerdo con datos de OpenAI, existen al menos 900 millones de usuarios activos de ChatGPT, no obstante, no existe certeza del uso que se dan a los datos que se almacenan y a las respuestas que da a los usuarios, incluso en 2024, más de 225,000 registros de inicio de sesión en la app de IA los encontraron en foros de la Dark Web, credenciales robadas mediante el uso del malware tipo infostealer.
“Muchas personas pueden creer que las conversaciones son volátiles y funcionan como un chat privado que desaparece al cerrar la ventana. En realidad, interactuar con grandes modelos de lenguaje implica una compleja red de almacenamiento y procesamiento de datos que puede exponer secretos comerciales o información personal sensible si no se tiene cuidado”, comenta Mario Micucci, investigador de seguridad informática de ESET Latinoamérica.
Cada motor de IA guarda de manera distinta la información que sus usuarios generan, sus peticiones, pero en el caso de ChatGPT, ese contenido no solo se guarda en el navegador, sino recorre un camino.

Las tres capas de ChatGPT
Según la empresa de seguridad informática ESET, en el caso del programa desarrollado por la empresa OpenAI guarda información en tres capas o sitios que consideran fundamentales para el tratamiento de datos.
Uno es el almacenamiento en los servidores de la empresa tecnológica para acceder a ese historial en otros dispositivos y se conserva por periodos limitados de hasta 30 días en algunos casos, por motivos de seguridad o monitoreo de abusos.
Otro tipo de almacenamiento es para entrenar los modelos de IA, en el que existe un debate sobre la privacidad en el que OpenAI utiliza las conversaciones de sus versiones gratuitas y de paga para perfeccionar sus modelos. Esta función, sin embargo, puede desactivarse por parte del usuario, pero en los servicios para empresas, de salud, entre otros, la opción es automática.
Estudios académicos han demostrado que los modelos de lenguaje de gran escala pueden memorizar partes de sus datos de entrenamiento y que, bajo ciertas condiciones, esta información puede ser extraída mediante técnicas especializadas”, explicó Micucci.
Mientras que la tercera capa es la revisión humana, con el propósito de que ChatGPT no genere contenido ofensivo o peligroso, en la que son especialistas capacitados que leen fragmentos de los diálogos para evaluar la calidad y la seguridad de la respuesta.
Claude y Gemini almacenando información
En el caso de otras herramientas de IA como es el caso de Google Gemini o Claude, tienen otros métodos para guardar información y procesarla.
En el caso de Gemini, se acoge a los servicios de Google y sus políticas de privacidad, tanto a sus usuarios como a empresas. Utiliza esa información para mejorar sus servicios, que incluyen revisiones humanas.
Mientras que Claude, su empresa Anthropic tiene una filosofía llamada “IAConstitucional”, la cual consiste en una retención mínima de datos y se distingue por poner mayor énfasis en mecanismos automatizados de alineación del comportamiento de la IA mediante principios automatizados de seguridad.
“La gran similitud entre todos estos modelos es que ninguno funciona como una ‘bóveda’ completamente aislada por defecto. Ya sea en OpenAI, Google o Anthropic, el proceso de aprendizaje automático depende de datos”, mencionó Mario Micucci
También lee:






