En los últimos meses hemos visto un crecimiento exponencial de la conversación pública en torno al empleo de inteligencia artificial (IA) en la prestación de servicios legales. Con frecuencia, escuchamos técnicas cada vez más precisas para optimizar su uso, con lo que se obtienen desde investigaciones y primeros borradores de documentos legales básicos (algunos contratos cotidianos, actas, etc.), hasta redacciones más complejas con resultados de criterio. Sin embargo, en mi opinión, la conversación acerca de los límites éticos que deben observarse cuando se usa IA en la prestación de servicios legales no ha tenido la misma resonancia.
Al resolver el caso Upjohn Co. v. United States (1981), la Corte Suprema de los Estados Unidos partió de la premisa de que los abogados no somos meros prestadores de servicios que concurren a los mercados; por el contrario, coadyuvamos en la consecución de ulteriores finalidades de interés público. Por un lado, el correcto ejercicio de la profesión legal (uno en el que hay una comunicación veraz y franca del cliente para con su abogado, y donde el abogado asesora de manera completa y clara) coadyuva a la materialización del principio de legalidad: contribuye a que los gobernados ajusten su conducta a derecho y, con ello, a que se alcancen los objetivos de interés público que las leyes persiguen, en beneficio de todas y todos. Por el otro, el correcto ejercicio de la profesión permite una mejor impartición de justicia: contribuye a que los casos sean planteados separando la paja del trigo, y que el tribunal se enfoque en la causa de pedir efectivamente planteada. Justo por ello, es necesario observar una serie de principios éticos (ya cristalizados en los códigos de ética de los diversos colegios de abogados) que son prerrequisito para el correcto ejercicio profesional. Los deberes de lealtad, de competencia técnica, de diligencia y de guardar el secreto profesional, son algunos ejemplos.
En este contexto, el uso de IA no constituye una excepción a la observancia de estos principios. Pedí a Chat GPT identificar problemas éticos vinculados al uso de IA en la prestación de servicios legales, normalmente abordados en reportes de derecho comparado. El resultado arrojó problemas asociados a la renuncia al juicio profesional, a la confidencialidad de la información, al sesgo algorítmico, a la opacidad metodológica, a las alucinaciones, a las responsabilidades personales, entre otros. Dadas las limitaciones de este espacio, a continuación haré muy breves reflexiones sólo sobre tres de ellos, puntualizando cómo se asocian con los deberes éticos que tenemos frente a nuestros clientes. En ulteriores entregas podría abordar el resto.
(1) La renuncia al juicio profesional está relacionada con los principios de lealtad (el deber de actuar invariablemente en el mejor interés del cliente, en el marco de la legalidad) y de diligencia (el deber de ser altamente cuidadosos con la precisión de la asesoría que se proporciona). Una situación donde el resultado proporcionado por la herramienta es entregado al cliente sin ulterior revisión por sus abogados podría implicar privilegiar la productividad del abogado sobre los intereses del cliente e, incluso, una renuncia al debido cuidado esperado.
(2) La cuestión sobre la confidencialidad de la información está directamente vinculada con la obligación de guardar secreto profesional. Hacer legal prompting (i.e., instrucciones para que la IA realice ciertas tareas legales) con información entregada por el cliente, sin su consentimiento o sin garantías tecnológicas de contención, generará serias dudas en torno a si las confidencias compartidas efectivamente se mantienen inviolables.
(3) El sesgo algorítmico implica resultados que refuerzan patrones observados en la base de datos con la que fue entrenada la herramienta (e.g., sentencias y doctrina). Esto podría entrar en conflicto con la necesaria competencia técnica con la que debemos conducirnos al prestar asesoría legal, particularmente cuando el asunto que se nos encomienda requiere que se piense fuera de la caja, esto es, cuando lo que el cliente busca es precisamente una solución novedosa que se aparte de lo tradicionalmente resuelto.
En definitiva, tanto abogados como clientes estamos interesados en que los procesos sean más eficientes y ágiles. Sin embargo, es preciso ser conscientes de que los avances tecnológicos invariablemente deben reportar valor social, y ese valor podría neutralizarse en todo o en parte si al emplear herramientas de IA omitimos observar límites éticos como los observados. En última instancia, las relaciones entre clientes y abogados son relaciones fiduciarias, esto es, vínculos basados en la confianza personal. Honrémosla.
* Esta columna se hace en colaboración con María José Fernández Núñez