
Cada vez más usuarios tienen un chatbot con IA como compañero para todo, ya sea ChatGPT, Gemini, Claude o cualquier otra cosa. El problema surge cuando decidimos compartir datos sensibles con este tipo de herramientas, especialmente en modelos comerciales de grandes empresas tecnológicas donde siempre tenemos dudas sobre hacia dónde viajan nuestros datos.
En este sentido, hay quienes comparten sus datos legales con el asistente, lo que puede llevar a algo como lo ocurrido recientemente en Nueva York. Y un juez de la ciudad simplemente sentando un precedente Esto es histórico considerando que cada conversación mantenida con un chatbot es pública y, por lo tanto, no está protegida por el privilegio abogado-cliente. Esto significa que todo lo que le digas a la IA puede terminar siendo usado en tu contra en los tribunales.
El caso. Bradley Heppner, un alto ejecutivo Acusado de fraude Valorado en 300 millones de dólares, Claude utilizó el chatbot de Anthropic para hacer preguntas sobre su situación legal antes de su arresto. Creó 31 documentos a partir de sus conversaciones con la IA y luego los compartió con sus abogados defensores. Cuando el FBI confiscó sus dispositivos electrónicos, sus abogados afirmaron que esos documentos estaban protegidos por el privilegio abogado-cliente. El juez Jed Rakoff dijo que no.
Porque NO. al igual que compartir Moish Peltz, abogado especializado en activos digitales y propiedad intelectual, escribió en una publicación en X: la frase da tres razones. En primer lugar, una IA no es un abogado: no tiene licencia para ejercer la abogacía, no debe lealtad a nadie y sus términos y condiciones rechazan expresamente cualquier relación abogado-cliente. En segundo lugar, transmitir información legal a una IA equivale jurídicamente a transmitirla a un amigo y, por tanto, no está sujeto al secreto profesional. Y tercero, enviar posteriormente documentos “no privilegiados” a su abogado no los convierte automáticamente en confidenciales.
El problema de fondo. Como recuerda el abogado, la interfaz de este tipo de chatbot crea una falsa sensación de privacidad, pero en realidad estás ingresando información en una plataforma comercial de terceros que almacena tus datos y se reserva amplios derechos de divulgación. Respectivamente Política de privacidad antrópica Cuando Heppner implementó Claude, la empresa pudo enviar preguntas de los usuarios y generar respuestas a los «reguladores gubernamentales».
dilema. El documento judicial revela Para empeorar las cosas, Heppner introdujo en la IA información que había recibido previamente de sus abogados. Esto presenta al fiscal un dilema. Cuenta Pelo. Y si intenta utilizar estos documentos como prueba en el juicio, los abogados defensores podrían presenciar los hechos y potencialmente forzar la anulación del juicio.
¿Qué significa para ti? Según esta sentencia, si estás involucrado en un asunto legal, lo que le cuentes a una IA puede ser requerido por un juez y utilizado como prueba. No importa si preparas tu defensa o te asesoras con antelación, porque cualquier petición puede acabar convirtiéndose en un factor en tu contra. Y esto no se aplica sólo a los casos penales: divorcios, conflictos laborales, conflictos comerciales… Cualquier conversación con AI sobre estos temas elude la protección legal.
¿Y ahora qué? pelo señala que los abogados deben informar expresamente a sus clientes de este riesgo. No se puede dar por sentado que la gente lo entienda intuitivamente. La solución que menciona es crear espacios de trabajo colaborativos con IA que sean compartidos entre abogado y cliente, de modo que cada interacción con inteligencia artificial se produzca bajo la supervisión del abogado y en el marco de la relación abogado-cliente.
Foto de portada | Romain Dancre Y Solen Feyissa
En | Doblar ropa o desmontar LEGO siempre ha sido una tarea tediosa. La nueva IA para robots de Xiaomi ha puesto fin a eso

