LegalToday

Por y para profesionales del Derecho

Portal jurídico de Aranzadi, por y para profesionales del Derecho

23/07/2025. 18:29:23
23/07/2025. 18:29:23

LegalToday

Por y para profesionales del Derecho

El secuestro judicial de las conversaciones con ChatGPT

Letrado de la Administración de Justicia

Una reciente orden judicial emitida por la jueza Ona Wang en el marco del litigio entre The New York Times y OpenAI, que obliga a esta empresa a preservar indefinidamente los registros de las conversaciones de los usuarios con ChatGPT, plantea una cuestión inquietante sobre la privacidad en la interacción con inteligencias artificiales. No existe una contradicción inherente entre el uso de chatbots de inteligencia artificial y la expectativa de confidencialidad, pero esta orden judicial amenaza con socavar la confianza de los usuarios al exponer sus datos a un escrutinio potencialmente ilimitado. Entiendo que este caso, derivado de un conflicto de 17 meses sobre el uso de contenidos protegidos por derechos de autor, trasciende la disputa original y pone en el centro del debate una pregunta fundamental: ¿a quién pertenecen realmente los datos generados en nuestras interacciones con herramientas como ChatGPT?

El litigio entre The New York Times y OpenAI comenzó con la acusación de que la empresa de inteligencia artificial entrenó sus modelos con contenidos del periódico, mostrándolos posteriormente en las respuestas de ChatGPT. La orden de la jueza Wang, que exige la retención indefinida de todos los registros de conversaciones, incluidos los chats temporales y las salidas de texto generadas por la API, marca un punto de inflexión en este conflicto. Hasta ahora, la política de retención de datos de OpenAI establecía un límite de 30 días para conservar las conversaciones, tras lo cual se suponía que eran eliminadas. Sin embargo, esta orden judicial obliga a la empresa a preservar incluso los datos que los usuarios creían haber borrado, afectando a quienes utilizan la versión gratuita de ChatGPT, las suscripciones Plus, Pro o Team, y la API sin un acuerdo de retención nula de datos (ZDR). Lo anterior me sugiere que esta medida representa un secuestro judicial de las conversaciones privadas, al imponer una vigilancia retrospectiva sobre datos que los usuarios asumían protegidos por políticas de privacidad.

OpenAI ha respondido calificando la orden como una extralimitación que pone en peligro la privacidad de los usuarios sin contribuir significativamente a resolver la demanda. Considero que esta postura refleja una preocupación legítima, ya que la retención indefinida de datos contradice no solo las políticas de la empresa, sino también las expectativas razonables de los usuarios sobre la confidencialidad de sus interacciones. Sam Altman, CEO de OpenAI, ha afirmado que “hablar con una IA debería ser como hablar con un abogado o un doctor”, subrayando la necesidad de tratar estas conversaciones con un estándar de confidencialidad comparable al de profesiones reguladas por estrictos códigos éticos. Ello me obliga a deducir que la intervención judicial en este caso no solo afecta a los usuarios de ChatGPT, sino que establece un precedente preocupante para todas las plataformas de inteligencia artificial que manejan datos sensibles.

La orden judicial no distingue entre los diferentes tipos de usuarios, afectando a aquellos que utilizan la versión gratuita o las suscripciones de pago sin acuerdos específicos de no retención de datos. En contraste, los usuarios de ChatGPT Enterprise, ChatGPT Edu o aquellos con acuerdos ZDR están exentos, lo que evidencia una disparidad en la protección de la privacidad según el tipo de cuenta. Asumo que esta distinción refleja una jerarquía implícita en la que los usuarios empresariales o con recursos para negociar acuerdos específicos gozan de mayores garantías, mientras que los usuarios individuales quedan más expuestos. El acuerdo ZDR, que garantiza que los datos no se registren ni se utilicen para entrenar modelos, es un servicio adicional que no está disponible por defecto y cuyo coste no es público, lo que limita su accesibilidad. Esta situación pone de manifiesto una brecha en la protección de datos que vulnera el principio de igualdad en el acceso a la privacidad.

El argumento de The New York Times, según el cual los usuarios podrían estar utilizando ChatGPT para eludir muros de pago y borrar sus chats para “cubrir sus huellas”, carece de pruebas sólidas, según OpenAI. Entiendo que esta especulación no justifica una medida tan drástica como la retención indefinida de datos, especialmente cuando implica la preservación de información sensible. Los usuarios de ChatGPT comparten datos que van desde lo cotidiano hasta lo profundamente personal, incluyendo información financiera, médica o reflexiones privadas. La posibilidad de que estas conversaciones sean accesibles indefinidamente por orden judicial representa una amenaza directa al derecho a la intimidad reconocido en el artículo 18 de la Constitución Española y en normativas internacionales de protección de datos. La falta de evidencia sobre la destrucción intencionada de datos por parte de OpenAI refuerza la percepción de que la orden judicial es desproporcionada.

Las implicaciones de esta orden trascienden el caso concreto y afectan a todas las empresas que utilizan la API de OpenAI. Lo anterior me lleva a considerar que la imposibilidad de cumplir con las políticas de retención de datos prometidas por estas empresas constituye un incumplimiento contractual que podría tener consecuencias legales significativas. Como señaló un usuario en X, las aplicaciones que dependen de la API de OpenAI no podrán garantizar la privacidad prometida, lo que socava la confianza en un ecosistema cada vez más dependiente de la inteligencia artificial. Esta situación pone en riesgo no solo la relación entre los usuarios y las empresas de IA, sino también la credibilidad de un sector que maneja datos sensibles a gran escala.

La pregunta sobre la titularidad de los datos generados en las interacciones con ChatGPT sigue sin respuesta clara. Mientras que OpenAI, Google (con Gemini) y otras empresas permiten desactivar el uso de chats para entrenar modelos, la retención temporal de datos, generalmente por 30 días, sigue siendo una práctica estándar. Sin embargo, la orden judicial plantea la posibilidad de que los gobiernos puedan acceder a estos datos en el marco de investigaciones judiciales, lo que introduce un nuevo actor en el debate: el Estado. Ello me sugiere que la privacidad en las interacciones con chatbots no está garantizada, ya que las empresas no son las únicas que pueden reclamar acceso a los datos. La referencia a la NSA en el contexto de este caso refuerza la preocupación de que los datos de los usuarios puedan ser utilizados por agencias de inteligencia, especialmente en un entorno donde la vigilancia masiva es una realidad documentada.

La falta de cifrado de extremo a extremo en las conversaciones con chatbots agrava este problema. A diferencia de los servicios de mensajería instantánea, donde el cifrado garantiza que solo los interlocutores accedan al contenido, los servidores de IA necesitan procesar los datos en texto plano para generar respuestas. Apple ha propuesto soluciones como Private Cloud Compute, pero las principales empresas de IA, incluida OpenAI, no han implementado mecanismos similares. Considero que esta limitación técnica no exime a las empresas de su responsabilidad de proteger la privacidad de los usuarios, especialmente cuando manejan información sensible. La garantía de confidencialidad que ofrecen se basa en sus políticas internas, pero estas pueden ser anuladas por órdenes judiciales, como demuestra este caso.

El impacto de esta orden judicial no se limita a los usuarios de ChatGPT, sino que afecta a todo el ecosistema de inteligencia artificial. La imposibilidad de garantizar la privacidad prometida por las aplicaciones que utilizan la API de OpenAI podría desincentivar su adopción, especialmente en sectores sensibles como la salud o las finanzas. Además, la orden plantea un precedente peligroso para otras plataformas de IA, como Claude o Copilot, que, aunque no utilizan los chats para entrenar modelos por defecto, también retienen datos temporalmente. Asumo que la falta de garantías robustas sobre la confidencialidad podría frenar la innovación en el sector, al generar desconfianza entre los usuarios y las empresas.

La comparación de Sam Altman entre hablar con una IA y hablar con un abogado o un doctor subraya la necesidad de establecer estándares de confidencialidad más estrictos. En profesiones como la abogacía o la medicina, la confidencialidad está protegida por leyes y códigos éticos que imponen sanciones severas por su violación. En el caso de las IA, la ausencia de un marco regulatorio claro deja a los usuarios en una posición vulnerable. Propongo que se desarrolle una normativa internacional que equipare las interacciones con chatbots a las comunicaciones protegidas, estableciendo sanciones para las empresas que no garanticen la privacidad y límites estrictos a la intervención judicial. Esta medida no solo protegería a los usuarios, sino que también fortalecería la confianza en la inteligencia artificial como herramienta de uso cotidiano.

En definitiva, la orden judicial que obliga a OpenAI a preservar indefinidamente las conversaciones con ChatGPT representa un secuestro de la privacidad de los usuarios. No hay contradicción entre el uso de chatbots y la expectativa de confidencialidad, pero la intervención judicial pone en riesgo este principio al exponer datos sensibles a un escrutinio ilimitado. La falta de cifrado, la disparidad en la protección entre usuarios y la posibilidad de acceso estatal a los datos subrayan la urgencia de establecer garantías más robustas. La confidencialidad debe ser un pilar innegociable en las interacciones con la inteligencia artificial, y su protección requiere un esfuerzo conjunto de empresas, legisladores y usuarios para evitar que estas conversaciones sean secuestradas por intereses externos.

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.