ChatGPT no está borrando el registro de ninguno de tus chats. Es por orden de una juez, pero no está claro que sea legal

Publicado el 24/06/2025 por Diario Tecnología
Artículo original

ChatGPT no está borrando el registro de ninguno de tus chats. Es por orden de una juez, pero no está claro que sea legal

A principios de este mes, una orden (PDF) firmada por una juez de Nueva York obligó a OpenAI a empezar a conservar todos los registros de chat de ChatGPT, incluso los borrados y los (supuestamente) anónimos. Esto, claro, ha generado una tormenta legal, técnica y ética: mientras la justicia defiende su actuación como una medida estándar dentro de un litigio civil, usuarios y defensores de la privacidad lo ven como la antesala de un régimen de vigilancia digital sin precedentes.

Todo comenzó con el copyright

Todo comienza con una demanda presentada por The New York Times contra OpenAI por supuestas infracciones de derechos de autor. Los demandantes argumentan que algunos usuarios podrían estar utilizando ChatGPT para evitar el sistema de pago del periódico y generar contenido basado en sus artículos.

Ante la imposibilidad de acceder a los chats eliminados por defecto por OpenAI, el tribunal ordenó a la empresa conservar indefinidamente todos los registros de conversaciones, incluso los que ya habían sido borrados por los usuarios.

Los usuarios temen a una 'vigilancia masiva'

Dos usuarios intentaron intervenir en el proceso judicial, alarmados por lo que consideran una vulneración de sus derechos fundamentales. Uno de ellos, Aidan Hunt, alegó que la orden judicial daba lugar a una "iniciativa de vigilancia masiva a nivel nacional", sin consentimiento ni notificación previa a los usuarios.

Argumentó que sus derechos constitucionales, especialmente los amparados por la Cuarta Enmienda de la Constitución estadounidense y el debido proceso, estaban siendo pisoteados. Además, criticó que ni siquiera se contemplaran excepciones para chats anónimos o con contenido altamente sensible —como información médica, legal o financiera— que nada tendrían que ver con las acusaciones del NYT.

El tribunal sostiene que "retención no es vigilancia"

La jueza magistrada Ona Wang rechazó ambas peticiones. Consideró que la orden no implica vigilancia estatal ni representa una intromisión generalizada. En palabras de Wang, "un mandato de conservación de documentos emitido por un tribunal para un propósito legal limitado no puede considerarse un programa de vigilancia masiva". Subrayó además que la información retenida está sujeta a 'legal hold': será almacenada en un sistema seguro, no será compartida automáticamente y solo podrá ser accedida por un equipo legal y de seguridad interno de OpenAI.

La postura de OpenAI

OpenAI ha mostrado su rechazo a la orden y ha elevado el caso al tribunal de distrito. En su defensa pública, la compañía asegura estar comprometida con la privacidad de sus usuarios y tilda el requerimiento judicial como un 'exceso' por parte del NYT. Aclara también que, al menos, los clientes empresariales de su API bajo acuerdos de "retención cero de datos" no se verán afectados.

Aun así, usuarios como Hunt dudan de cuán lejos llegará OpenAI en su defensa, temiendo que intereses como el costo financiero del litigio, la reputación corporativa o la rapidez del proceso pesen más que la privacidad del usuario medio.

Tomando nota para el futuro

Para expertos como Corynne McSherry, directora legal de Electronic Frontier Foundation, el problema va más allá de este caso. Advirtió que órdenes como esta pueden sentar precedentes preocupantes y abrir la puerta a que agencias de seguridad o actores privados reclamen historiales de chat por cualquier motivo, como ya ocurre con redes sociales o motores de búsqueda.

Además, destacó la necesidad de que todas las plataformas de IA aseguren mecanismos efectivos para eliminar conversaciones y notificar a los usuarios cuando sus datos están sujetos a procesos legales. Sin transparencia, dijo, se corre el riesgo de erosionar la confianza en estas tecnologías emergentes.

¿Qué pueden hacer los usuarios? Por el momento, los usuarios afectados no pueden intervenir directamente. Sin embargo, si los registros son finalmente compartidos con los demandantes —algo que aún no ha ocurrido— podrían abrirse nuevas vías de reclamación.

Mientras tanto, el mejor consejo es tratar cualquier conversación con un chatbot como si pudiera llegar a ser pública en el futuro

Choque de trenes con la normativa de la UE

Aunque la decisión judicial se enmarca en el contexto legal de Estados Unidos, sus repercusiones afectan a usuarios de la plataforma en cualquier lugar del mundo y, en nuestro caso, tales transferencias de datos chocan con las estrictas normativas de privacidad vigentes en la Unión Europea (UE), particularmente con el Reglamento General de Protección de Datos (RGPD). Si no se garantizan salvaguardas adecuadas, esta iniciativa de 'retención de datos' podría ser considerada ilegal por las autoridades europeas.

¿Retención indefinida?

El RGPD establece principios fundamentales como la minimización de datos, que exige que las organizaciones solo recojan y almacenen datos personales cuando sea estrictamente necesario y durante un período limitado. La retención indefinida de chats —no digamos ya de aquellos eliminados específicamente por los usuarios— podría vulnerar este principio, sobre todo si los datos incluyen información personal identificable (PII) o sensible, como opiniones políticas, datos de salud o contenido legal.

El derecho al olvido, en riesgo

Por otro lado, uno de los pilares del RGPD es el derecho al olvido, que permite a los ciudadanos solicitar la eliminación de sus datos personales cuando ya no sean necesarios o si se retiran los consentimientos. La obligación judicial impuesta a OpenAI podría entrar en conflicto directo con este derecho, al impedir la eliminación de datos incluso cuando los usuarios así lo soliciten.

Posible intervención de reguladores europeos

Las autoridades de protección de datos de la UE, como la CNIL (Francia) o la AEPD (España), podrían verse presionadas a actuar si se demuestra que la retención judicial ordenada en EE. UU. afecta a ciudadanos europeos. No sería la primera vez: tanto Meta como Google han enfrentado sanciones multimillonarias por prácticas que violan el RGPD. El problema es que, en este caso, la decisión no sería imputable a OpenAI, sino a un sistema judicial extranjero.

¿Podría ChatGPT restringirse en Europa?

En el escenario más extremo —y si no se llega a una solución conforme al RGPD— OpenAI podría verse obligada a modificar radicalmente el tratamiento de datos de usuarios europeos o incluso limitar su acceso a la plataforma en la UE para evitar sanciones legales. No es ninguna locura: esto ya ocurrió en 2023, cuando el regulador italiano suspendió temporalmente el acceso a ChatGPT por problemas de cumplimiento del RGPD.

Vía | Ars Technica

Imagen | Marcos Merino mediante IA

En Xataka | Qué es Ollama y cómo usarlo para instalar en tu ordenador modelos de inteligencia artificial como Llama, DeepSeek y más 

utm_campaign=24_Jun_2025"> Marcos Merino .