Con ChatGPT nos estamos dando cuenta de algo preocupante: no sabemos si tu historial es tuyo, de OpenAI o del Gobierno

Publicado el 06/06/2025 por Diario Tecnología
Artículo original

Con ChatGPT nos estamos dando cuenta de algo preocupante: no sabemos si tu historial es tuyo, de OpenAI o del Gobierno

Todo lo que escribas podrá ser utilizado en tu contra. Es lo que plantea la justicia de Estados Unidos al intentar obligar a OpenAI a que guarde de forma indefinida todos los registros de nuestras conversaciones con ChatGPT. No solo eso: también exigen que guarde los chats que teóricamente creíamos haber eliminado. La situación hace inevitable la pregunta: ¿entonces todos esos datos, a quién le pertenecen?

The New York Times vs OpenAI se complica. Toda la situación actual se deriva del proceso legal que enfrenta al prestigioso periódico con la empresa de inteligencia artificial. Dicho enfrentamiento lleva 17 meses en marcha. El argumento inicial de NYT era que OpenAI había entrenado sus modelos con contenidos de NYT que además mostraba en sus respuestas a los usuarios. Ahora la cosa va más allá.

Ni se te ocurra borrar los chats. Tras una reciente petición de NYT, la juez Ona Wang que lleva el caso ordenó a OpenAI a iniciar la preservación indefinida de los registros de todos los contenidos potencialmente relevantes, incluyendo chats temporales e incluso la salida de texto que genera la API y que usan usuarios de pago. Hasta ese momento la política de retención de datos de OpenAI imponía un límite de 30 días para preservar las conversaciones. Después teóricamente se borraban sin más.

Muros de pago. El miedo de NYT y otros medios es que los usuarios estén usando ChatGPT para saltarse los muros de pago "podrían ser más propensas a borrar todas sus búsquedas para cubrir sus huellas", explicó OpenAI en el proceso judicial. Según los demandantes, faltan pruebas que lo demuestren porque OpenAI solo ha ocmpartido muestras de registros de chats que los usuarios habían aceptado que la empresa conservara.

OpenAI apela. La respuesta oficial de OpenAI a las demandas de datos del NYT es clara: "Creemos firmemente que se trata de una extralimitación. Pone en peligro tu privacidad sin contribuir realmente a resolver la demanda. Por eso nos oponemos". Los responsables de la empresa explican que han pedido al juez que reconsidere la orden destacando que "esa retención indefinida de datos de usuario viola las normas de la industria y nuestras propias políticas".

Qué datos están afectados por la orden. La exigencia del juez es muy amplia, pero hay detalles importantes que permiten aclarar a quién afecta y a quién no:

  1. Si usas la versión gratuita de ChatGPT, si usas una suscripción a ChatGPT Plus, Pro o Team o si usas la API de OpenAI sin acuerdo ZDR (Zero Data Retention), estás afectado y tus chats podrían ser preservados indefinidamente.
  2. Los usuarios de las cuentas ChatGPT Enterprise o ChatGPT Edu no están afectados por esta orden.
  3. Los usuarios de la API que han optado por ZDR no están afectados por el acuerdo.

Qué es ZDR. La "enmienda ZDR" se refiere a la política de no retención de datos (Zero Data Retention) que garantiza que no se registran prompts, ni se entrena a los modelos con nuestros datos. Esta gestión de los datos es especialmente importante para usos empresariales, de ahí que en ChatGPT Enterprise esté activada por defecto. Para el resto de planes, ZDR no está activada por defecto y las empresas y personas interesadas deben contactar con OpenAI para negociar los términos. No hay precios publicados para esta opción, pero es un servicio extra y como tal impone un coste adicional en el uso de la API de los modelos de OpenAI.

Sin evidencias. Según OpenAI, no hay pruebas de que hayan borrado de forma intencionada datos y todo es especulación. Además, tampoco hay evidencias de que los usuarios que infringen los derechos de autor al usar ChatGPT para evitar muros de pago sean más proclives a borrar sus chats. "OpenAI no destruyó datos, y desde luego no borró datos como respuesta a los eventos del litigio. La orden [judicial] parece haber asumido incorrectamente lo contrario".

Datos sensibles. La empresa defiende su deber a proteger "los datos y privacidad de sus usuarios" y explica que millones de usuarios usan ChatGPT a diario por motivos que van "de lo mundano a lo profundamente personal". Eso hace que esos usuarios estén compartiendo datos sensibles que no solo afectan a información financiera o médica, sino a cosas como sus sentimientos y reflexiones privadas.

Captura De Pantalla 2025 06 06 A Las 11 10 29

Ramificaciones. El impacto de esa orden judicial es potencialmente enorme. Como afirmaba en X un usuario llamado kepano, "si lo he entendido correctamente, esto significa que las políticas de retención de datos de las aplicaciones que utilizan la API de OpenAI simplemente no pueden cumplirse". Es decir, que si una tercera empresa que usa los modelos de OpenAI para dar su servicio promete que tus datos se mantendrán privados no podrá garantizar esa promesa. Las implicaciones para usuarios de todo tipo son claras. En Ars Technica citaban el comentario de un usuario de LinkedIn sugería que esta orden judicial crea "un grave incumplimiento de contrato para todas las empresas que usan OpenAI". y también destacaban mensajes en X de usuarios que afirmaban que "todos y cada uno de los servicios de IA "impulsados por" OpenAI deberían estar preocupados" por esta situación.

¿A quién le pertenecen los datos? Esta orden judicial abre un debate inquietante: quién tiene el control de los datos que intercambiamos con ChatGPT y, por extensión, con cualquier otro chatbot. Estas empresas teóricamente son las encargadas de gestionar dichos datos y eliminarlos, pero ¿son suyos?

  • ChatGPT y Gemini sí usan los chats para entrenar sus modelos por defecto, aunque se puede desactivar ese comportamiento. Ni Claude ni Copilot lo hacen, por ejemplo. Los datos en estos dos últimos casos son algo "más tuyos".
  • Pero siguen manteniéndolos durante un periodo variable que suele ser de 30 días
  • Con esta orden judicial, EEUU plantea poder tener acceso a esos datos si lo necesita, aunque teóricamente debe haber una investigación judicial detrás como la que se está llevando a cabo con The New York Times.
  • Y sin embargo, estos datos son aún más valiosos como fuente de información no ya para empresas privadas, sino para agencias y servicios de inteligencia. Y ya sabemos cómo se las gasta la NSA.

Cómo actúan normalmente. Las políticas de retención de datos son similares en todos los casos y todas borran esas entradas y salidas (chats) tras 30 días. Estas empresas también suelen tener disponibles opciones para esa no retención de datos —Anthropic también la tiene— que se puede aplicar por ejemplo a usos empresariales o privados. Sin embargo, las dudas sobre quién tiene al final ese control sobre los datos son claras, y este juicio no ha hecho sino aumentarlas.

Los chatbots y la confidencialidad. Teniendo en cuenta el uso cada vez más sensible que se hace de estos chatbots —tanto profesional como personal—, debería haber garantías mucho más fuerte de que ChatGPT, Gemini, Claude y demás chatbots del mercado tratan esas conversaciones de forma absolutamente confidencial. Es justo lo que planteaba Sam Altman hace unas horas al decir que "hablar con una IA debería ser como hablar con un abogado o un doctor".

Y el cifrado, ¿qué? Una opción sería que esas conversaciones con estos chatbots pudieran estar cifradas de extremo a extremo, como sucede con servicios de mensajería instantánea, pero en la práctica eso es inviable. Los servidores que recogen nuestra petición necesitan "verla" para procesarla y devolvernos una respuesta, y el cifrado lo haría imposible. Apple ya planteó una solución con Private Cloud Compute, pero de momento las principales empresas de IA mantienen un enfoque en el que esas conversaciones se manejan sin cifrado alguno. La garantía de privacidad es la que ellas dicen tener con sus usuarios, pero desde luego tienen acceso a esas conversaciones si lo necesitan.

Imagen | Kaitlyn Baker

En Xataka | Creías estar navegando en incógnito y borrando cookies en tu móvil Android. Meta veía todo lo que hacías igualmente

utm_campaign=06_Jun_2025"> Javier Pastor .