Las conversaciones con inteligencia artificial, como las realizadas en ChatGPT, comienzan a ocupar un lugar cada vez más relevante en investigaciones criminales, al punto de convertirse en evidencia dentro de procesos judiciales en Estados Unidos.
Un caso reciente en Universidad del Sur de Florida ilustra esta tendencia. Fiscales incluyeron en una declaración jurada preguntas que un sospechoso habría hecho al chatbot días antes de la desaparición de dos estudiantes de posgrado. Entre ellas, consultas sobre cómo ocultar un cuerpo o si alguien podría descubrirlo.
Una nueva “huella digital” del estado mental
Para investigadores y fiscales, estos registros funcionan como una especie de ventana al estado mental de los sospechosos. Al igual que ocurre con historiales de búsqueda en internet, los chats pueden ayudar a establecer intención, planificación o posible móvil.
Especialistas señalan que muchos usuarios tienden a expresarse con mayor franqueza frente a un chatbot, bajo la creencia de que sus interacciones son privadas o no serán utilizadas en su contra. Sin embargo, desde el punto de vista legal, estas conversaciones no cuentan con protecciones especiales.
Sin privilegio legal de confidencialidad
A diferencia de lo que ocurre con un abogado, un médico o un terapeuta, no existe un “privilegio” legal que proteja lo que una persona comparte con una IA. Esto significa que, en caso de una investigación, los registros podrían ser requeridos y utilizados como evidencia.
El propio director ejecutivo de OpenAI, Sam Altman, ha advertido sobre este vacío legal, al señalar que muchas personas utilizan estos sistemas para temas altamente personales sin ser conscientes de los riesgos.
Casos que marcan precedente
El uso de chats con IA ya ha aparecido en distintos procesos judiciales, desde investigaciones por incendio provocado hasta juicios por homicidio. En estos casos, las preguntas realizadas a los sistemas —y sus respuestas— han sido analizadas como indicios de comportamiento o intención.
No obstante, abogados defensores han cuestionado este tipo de evidencia, argumentando que interpretar el pensamiento de una persona a partir de consultas digitales puede ser impreciso o incluso sesgado.
Privacidad vs. seguridad: un debate abierto
El crecimiento de esta práctica abre un debate más amplio sobre privacidad y derechos digitales. Expertos proponen la creación de marcos legales que otorguen mayor protección a las conversaciones con inteligencia artificial, similares a las que existen en profesiones reguladas.
Por ahora, la realidad es clara: todo lo que se escribe en plataformas de IA puede ser potencialmente accesible en un proceso legal.
Una recomendación clave
Ante este escenario, especialistas coinciden en una advertencia sencilla pero relevante: los usuarios deben asumir que cualquier interacción con un chatbot podría dejar un rastro utilizable fuera del ámbito privado.
En otras palabras, aunque la inteligencia artificial se perciba como una herramienta personal o confidencial, en términos legales está más cerca de ser un registro digital que una conversación protegida.