¿Pueden las conversaciones de ChatGPT ser usadas como prueba en un juicio? Esto dice el CEO de Open AI
Sam Altman, CEO de OpenAI, advierte que conversaciones en ChatGPT y cómo podrían tener incidencia en casos judiciales.

A photo taken on November 23, 2023 shows the logo of the ChatGPT application developed by US artificial intelligence research organization OpenAI on a smartphone screen (L) and the letters AI on a laptop screen in Frankfurt am Main, western Germany. Sam Altman’s shock return as chief executive of OpenAI late on November 22 -- days after being sacked -- caps a chaotic period that highlighted deep tensions at the heart of the Artificial Intelligence community. The board that fired Altman from his role as CEO of the ChatGPT creator has been almost entirely replaced following a rebellion by employees, cementing his position at the helm of the firm. (Photo by Kirill KUDRYAVTSEV / AFP)
/KIRILL KUDRYAVTSEV/AFP
La privacidad en los asistentes de inteligencia artificial cobra relevancia tras declaraciones del director ejecutivo de OpenAI, Sam Altman. Según indicó, las conversaciones de usuarios con ChatGPT podrían ser utilizadas como evidencia en procedimientos judiciales si una autoridad así lo requiere. Esta situación plantea nuevos desafíos legales para quienes interactúan con plataformas de IA en su vida cotidiana.
Altman explicó que, aunque los usuarios confían en la confidencialidad de la plataforma, la compañía almacena información y podría entregar registros de diálogos a tribunales cuando exista una solicitud legal formal. Este anuncio se suma al debate global sobre la privacidad en el uso de tecnologías de inteligencia artificial y la responsabilidad de las empresas ante las leyes vigentes.
ES DE INTERÉS: Trump apuesta por desarrollar la Inteligencia Artificial como ‘prioridad nacional’; este es su plan
¿Qué dijo Sam Altman sobre la privacidad y los riesgos legales en ChatGPT?
El CEO de OpenAI resaltó en un podcast reciente que los usuarios deben ser conscientes de que las conversaciones con ChatGPT no están completamente protegidas frente a solicitudes judiciales. “Si hablas sobre tus cosas más sensibles con el chat y luego hay una demanda, podríamos estar obligados a entregar eso”, explicó Altman.
La compañía procesa diariamente más de 2.500 millones de consultas y, según su política de privacidad, almacena información para cumplir con obligaciones legales. Esto significa que, en caso de requerimiento judicial, OpenAI debe colaborar entregando los registros que sean pertinentes. Altman enfatizó que este procedimiento no es exclusivo de ChatGPT, sino una práctica común en todas las plataformas digitales que manejan datos de usuarios.
Casos previos y precedentes legales sobre entrega de datos digitales
La posibilidad de que autoridades judiciales accedan a conversaciones almacenadas no es nueva. Casos en Estados Unidos han marcado precedentes sobre cómo se pueden usar datos digitales como prueba.
En Arkansas, durante la investigación del asesinato de Victor Collins, la policía solicitó a Amazon grabaciones de su dispositivo Echo, inicialmente protegidas por razones de privacidad. Tras intervención judicial y consentimiento del propietario, Amazon entregó los registros. De manera similar, en New Hampshire, investigaciones por homicidio llevaron a órdenes judiciales para acceder a grabaciones almacenadas en la nube.
LEE TAMBIÉN: Alertan sobre estafa con IA para recuperar autos robados en la CDMX; así engañan a los capitalinos
Estos ejemplos muestran que ni Amazon, OpenAI ni ninguna otra empresa puede negarse a cumplir con solicitudes legales formales. La entrega de datos está condicionada a órdenes judiciales y tiene como objetivo apoyar procesos penales o civiles en curso, protegiendo bienes jurídicos superiores como la persecución de delitos.
Consecuencias legales de usar ChatGPT y recomendaciones para usuarios
- Las conversaciones con ChatGPT pueden ser solicitadas por jueces en procesos civiles o penales.
- El almacenamiento de datos por OpenAI permite que estos registros se utilicen como evidencia si la autoridad lo requiere.
- Políticas de confidencialidad internas de la plataforma no prevalecen frente a una orden judicial.
- Este procedimiento aplica para todas las plataformas digitales, incluyendo correos electrónicos y aplicaciones de mensajería.
- Usuarios deben considerar la información sensible que comparten, pues podría formar parte de investigaciones.
- Altman advierte que la dependencia excesiva en ChatGPT puede ampliar la cantidad de información personal que eventualmente podría ser usada en juicios.
La advertencia de Sam Altman subraya la necesidad de que los usuarios comprendan los límites de la privacidad al interactuar con asistentes de inteligencia artificial. Las conversaciones almacenadas podrían ser entregadas ante cualquier requerimiento judicial formal, lo que reafirma la importancia de manejar información sensible con precaución.
Además, los precedentes legales muestran que esta práctica no es exclusiva de ChatGPT, sino común en empresas tecnológicas que procesan datos de usuarios. Entender estas regulaciones ayuda a prevenir riesgos legales y a tomar decisiones informadas sobre el uso de plataformas digitales de IA. DJ