El creciente uso de ChatGPT ha puesto en el centro del debate el manejo de la privacidad y la seguridad de la información de los usuarios.
ChatGPT almacena datos con el objetivo de mejorar la experiencia, pero esto también implica riesgos si no se toman las medidas de seguridad adecuadas.
Suscríbete a Mundo Ejecutivo para leer contenido exclusivo y recibir beneficios
OpenAI, la empresa detrás de esta inteligencia artificial, recopila información de distintas categorías, desde datos de cuenta hasta información técnica y de uso.
¿Qué datos almacena ChatGPT y con qué finalidad?
ChatGPT recopila y almacena datos con diferentes propósitos, desde la autenticación hasta la personalización de la experiencia del usuario. Estos son los principales tipos de información que maneja OpenAI, de acuerdo con ESET:
- Datos de cuenta: Incluyen el correo electrónico, nombre de usuario y, en el caso de cuentas de pago, información relacionada con el método de pago. También se guardan configuraciones como el idioma, preferencias de tema y, si está activado, el historial de conversaciones.
- Información técnica: Se recopila la dirección IP, que permite identificar al usuario con fines de seguridad y prevención de fraudes. También se almacenan datos sobre el dispositivo y el navegador desde el que se accede.
- Datos de uso: Se guarda información sobre la frecuencia y duración de las interacciones, así como las funciones utilizadas, como la generación de texto, código o imágenes.
Es importante destacar que ChatGPT solo almacena información mientras la sesión está activa, a menos que el usuario configure lo contrario. Sin embargo, los datos pueden permanecer almacenados si no se solicita su eliminación de manera explícita.

Descarga completo el nuevo número de la revista COSAS con Susana Zabaleta en la portada
Cuáles son los riesgos de compartir datos en ChatGPT
Aunque OpenAI asegura que ChatGPT no tiene acceso directo a información personal, el riesgo principal radica en la información que los propios usuarios comparten durante sus interacciones.
Un dato introducido en un chat puede ser almacenado y, si la cuenta es comprometida, un tercero podría acceder a él.
Uno de los mayores peligros es el robo de credenciales. En 2023, la empresa de ciberseguridad Group-IB reportó que más de 100,000 cuentas de ChatGPT estaban siendo vendidas en la dark web.
Un atacante que acceda a una cuenta podría obtener información de conversaciones pasadas y utilizarla para ataques de ingeniería social o suplantación de identidad.
Además, los datos almacenados pueden ser utilizados para mejorar los algoritmos de OpenAI, lo que implica que parte de la información compartida por los usuarios podría influir en futuras respuestas del modelo. Si bien OpenAI emplea cifrado AES-256 para proteger los datos en reposo y TLS 1.2 para datos en tránsito, ninguna medida de seguridad es infalible ante ataques sofisticados.
Google va contra ChatGPT; esto es Gemini, su nueva inteligencia artificial