Investigación a un abogado por citar sentencias inexistentes atribuidas a la IA

La integración de la inteligencia artificial (IA) en el ámbito profesional prometía eficiencia, agilidad y una revolución en la forma de trabajar, especialmente en sectores tan intensivos en información como el jurídico. Sin embargo, como toda tecnología emergente, la IA viene acompañada de desafíos, riesgos y una curva de aprendizaje que, a veces, se traduce en situaciones inesperadas. Recientemente, una noticia ha sacudido la comunidad jurídica en España, encendiendo las alarmas sobre la necesidad de una implementación cautelosa y rigurosa de estas herramientas. El Tribunal Superior de Justicia de Canarias ha iniciado una investigación formal a un abogado por un motivo insólito: haber presentado ante los tribunales sentencias inexistentes, cuya creación atribuye a la inteligencia artificial. Este suceso no es solo una anécdota, sino un hito que nos obliga a reflexionar profundamente sobre la ética, la responsabilidad profesional y el papel ineludible de la supervisión humana en la era de la IA.

El caso en cuestión: detalles y alcance de la investigación

Investigación a un abogado por citar sentencias inexistentes atribuidas a la IA

El epicentro de esta polémica se sitúa en las Islas Canarias, donde la justicia ha puesto el foco en un letrado cuya estrategia procesal incluyó la invocación de jurisprudencia que, sencillamente, nunca existió. La revelación de que las sentencias citadas no figuraban en ninguna base de datos oficial, ni en el Centro de Documentación Judicial (CENDOJ) ni en otras fuentes verificables, activó las alarmas. Lo que podría haberse interpretado inicialmente como un error humano o una cita incorrecta, escaló cuando el abogado, al ser confrontado, explicó que la información había sido generada por una herramienta de inteligencia artificial. Esta confesión, lejos de eximirle, ha abierto una caja de Pandora sobre la veracidad de la información generada por IA y la diligencia debida de los profesionales del derecho.

La investigación del Tribunal Superior de Justicia de Canarias es un paso significativo. No se trata de un simple expediente sancionador por un error material, sino de la posible vulneración de principios fundamentales de la profesión, como la lealtad procesal, la buena fe y el deber de diligencia. La cuestión central es si el abogado incurrió en una negligencia grave al no verificar la fuente o si hubo una intención de inducir a error al tribunal. Mi opinión personal es que, independientemente de la intencionalidad, la falta de verificación en un asunto de tal trascendencia como la jurisprudencia es, cuanto menos, una grave imprudencia profesional. En un sistema basado en precedentes y en la aplicación rigurosa de la ley, la introducción de información falsa, sea por el medio que sea, socava la credibilidad del proceso judicial y del propio sistema de justicia.

La irrupción de la inteligencia artificial en el ámbito jurídico

La inteligencia artificial ha estado irrumpiendo en el sector legal de forma gradual, pero cada vez más acelerada. Desde herramientas de revisión de documentos que analizan miles de páginas en segundos, hasta plataformas que predicen resultados de litigios o asisten en la redacción de contratos, la "legal tech" prometía liberar a los abogados de tareas repetitivas y permitirles enfocarse en el análisis estratégico y la interacción con el cliente. Muchas firmas de abogados y departamentos jurídicos internos han adoptado estas tecnologías, buscando optimizar sus recursos y ofrecer servicios más eficientes. Se estima que el mercado global de la IA en el sector legal crecerá exponencialmente en los próximos años, como se puede constatar en numerosos informes sobre la IA y el sector legal.

Los beneficios potenciales son innegables: mejora en el acceso a la información legal, reducción de costes en determinadas fases del proceso, y una mayor capacidad de análisis. Sin embargo, estos beneficios vienen con una letra pequeña. La precisión de las herramientas de IA, especialmente los grandes modelos de lenguaje (LLM), depende en gran medida de la calidad y el sesgo de los datos con los que han sido entrenados. Además, su naturaleza algorítmica y a menudo opaca, lo que se conoce como el problema de la "caja negra", dificulta entender cómo llegan a sus conclusiones. En un contexto donde la fiabilidad es crítica, como el derecho, estas limitaciones adquieren una relevancia fundamental. La IA debe ser vista como una herramienta de apoyo, no como un sustituto de la mente y el juicio humano. Mi percepción es que estamos en una fase donde la experimentación es necesaria, pero siempre bajo un estricto escrutinio humano y con conciencia plena de las limitaciones tecnológicas.

Implicaciones éticas y profesionales para el abogado

El Código Deontológico de la Abogacía Española, así como las normativas de colegios profesionales, establecen una serie de deberes ineludibles para los letrados. Entre ellos, destacan la diligencia, la veracidad, la buena fe y el respeto a las instituciones judiciales. La presentación de información falsa ante un tribunal, intencionada o no, entra en conflicto directo con estos principios. La investigación en Canarias, por tanto, no es solo un examen tecnológico, sino, fundamentalmente, un escrutinio ético.

Deber de diligencia y verificación

Un abogado tiene el deber de verificar la exactitud de los hechos y la aplicabilidad de las leyes y precedentes que presenta. Este deber es una piedra angular de la profesión. Atribuir la responsabilidad a una IA no exime al profesional de su obligación de cotejar la información. Las herramientas de IA son asistentes; la responsabilidad final recae siempre en el humano que las utiliza. La confianza ciega en cualquier fuente, sea una base de datos tradicional o una IA avanzada, sin un proceso de verificación, es una negligencia profesional que puede tener graves consecuencias para el cliente y para la reputación del propio abogado. El Código Deontológico de la Abogacía es claro en este sentido.

La confianza en el sistema judicial

El sistema judicial se basa en la confianza mutua: confianza en que los hechos presentados son veraces, que las leyes citadas son correctas y que las argumentaciones se construyen sobre una base sólida. Cuando esta confianza se quiebra por la introducción de información espuria, se debilita la integridad del sistema. La investigación no solo busca determinar la responsabilidad del abogado, sino también enviar un mensaje claro a toda la profesión sobre los estándares de rigor y honestidad que deben mantenerse, incluso en un entorno tecnológicamente cambiante. La jurisprudencia es el pilar de la seguridad jurídica, y su adulteración, sea accidental o no, es un asunto muy serio.

El fenómeno de la "alucinación" de la IA y sus riesgos

El término "alucinación" de la IA se ha popularizado para describir un fenómeno preocupante en los modelos generativos de lenguaje: la capacidad de producir información que suena plausible y coherente, pero que es completamente falsa, inventada o sin base en los datos de entrenamiento. Estos modelos, diseñados para generar texto que parece humano, a veces "rellenan" lagunas de conocimiento o crean conexiones inexistentes para producir una respuesta fluida. Para un observador no experto, distinguir una "alucinación" de una respuesta veraz puede ser extremadamente difícil.

¿Por qué alucina la IA?

Los grandes modelos de lenguaje funcionan mediante la predicción de la siguiente palabra más probable en una secuencia, basándose en patrones estadísticos aprendidos de vastos conjuntos de datos. No "entienden" la verdad o la falsedad en un sentido humano, ni tienen conciencia. Cuando se les pide información que no está claramente representada en sus datos de entrenamiento, o cuando se les presiona para generar contenido muy específico, pueden "inventar" respuestas para mantener la coherencia lingüística. Esto es particularmente peligroso en campos como el derecho, donde la precisión y la veracidad son absolutas. El abogado de Canarias no es el primero en toparse con este problema. Ya se han documentado casos similares, como el del abogado estadounidense Steven Schwartz, que en 2023 se vio en una situación idéntica por citar casos ficticios generados por ChatGPT en un escrito judicial, lo que generó un intenso debate sobre las directrices de uso de la IA en la profesión legal en Estados Unidos y otros países. Pueden leer más sobre este precedente en este artículo de El País sobre el caso de Steven Schwartz.

Riesgos específicos en el contexto jurídico

Las alucinaciones de la IA pueden manifestarse en el ámbito jurídico de diversas maneras:

  • Citas de sentencias inexistentes: Como en el caso de Canarias y el precedente estadounidense.
  • Referencias a leyes o artículos derogados o modificados: Lo que llevaría a errores en la fundamentación jurídica.
  • Creación de precedentes falsos: Generando una apariencia de base jurisprudencial donde no la hay.
  • Interpretaciones erróneas de la ley: Que podrían llevar a conclusiones jurídicas incorrectas.

Es evidente que, aunque las herramientas de IA pueden ser muy útiles para la investigación inicial o la generación de borradores, la fase final de verificación y control de calidad debe ser realizada por un experto humano. La delegación total de estas funciones críticas a una máquina, sin la debida supervisión, es una receta para el desastre, y este caso lo subraya con una dolorosa claridad.

Precedentes y reacciones en otros países

El caso de Canarias no es un incidente aislado en el panorama global. Como mencioné, el abogado Steven Schwartz en Nueva York fue multado por un tribunal federal por haber usado ChatGPT para generar citas de casos judiciales inexistentes. Este incidente provocó un debate considerable en la comunidad jurídica de Estados Unidos, llevando a varios jueces a emitir órdenes que requieren a los abogados certificar que todas las citas legales han sido verificadas manualmente, o que han sido generadas y verificadas por un humano. La Asociación de Abogados de Nueva York, entre otras instituciones, ha publicado guías sobre el uso ético de la IA en la práctica legal.

Otros países también están lidiando con esta nueva realidad. La Unión Europea, a través de su Ley de IA, busca establecer un marco regulatorio robusto para estas tecnologías, clasificándolas por niveles de riesgo. Si bien la aplicación de IA en el ámbito legal no se considera de "alto riesgo" per se en todas sus facetas, su uso en la administración de justicia o en procesos que afectan derechos fundamentales podría caer en esa categoría, exigiendo controles más estrictos. La discusión está abierta y es global: ¿cómo podemos aprovechar los beneficios de la IA sin comprometer la integridad y la justicia?

El futuro de la IA en la práctica legal: un equilibrio necesario

Este incidente en Canarias nos brinda una valiosa lección: la IA es una herramienta potente, pero no infalible, y su uso exige una responsabilidad profesional inquebrantable. El futuro de la IA en la práctica legal no pasa por su prohibición, sino por una integración inteligente, ética y supervisada. Los abogados del futuro no serán aquellos que ignoren la IA, sino aquellos que sepan cómo utilizarla de manera efectiva y segura. Sin embargo, en mi opinión, es crucial que se refuercen los mecanismos de formación y actualización constante sobre estas tecnologías.

Directrices y formación

Es fundamental que los colegios de abogados y las instituciones judiciales desarrollen directrices claras sobre el uso aceptable y no aceptable de la IA. Esto incluye la necesidad de verificar todas las fuentes, la transparencia sobre el uso de la IA con los clientes y con los tribunales, y la formación continua de los profesionales. La Ley 3/2022, de 24 de febrero, de Cohesión Territorial del Sistema Nacional de Salud, si bien no directamente relacionada, subraya la importancia de la regulación en campos complejos, un principio que se extiende a la IA.

Colaboración entre humanos y máquinas

La IA debería ser vista como un "co-piloto" o un asistente, no como el piloto principal. Su función es complementar y potenciar las capacidades humanas, no reemplazarlas. Las tareas de alto riesgo, como la argumentación jurídica o la toma de decisiones críticas, deben permanecer firmemente en manos de los profesionales humanos, quienes son los únicos capaces de ejercer el juicio crítico, la ética y la empatía. La combinación de la velocidad y el procesamiento de datos de la IA con la sabiduría, la experiencia y la capacidad de discernimiento de un abogado es el camino más prometedor.

En definitiva, el caso del abogado en Canarias es un potente recordatorio de que la tecnología, por muy avanzada que sea, no exime de la responsabilidad profesional. Subraya la importancia de la diligencia, la verificación y el juicio crítico. La IA está aquí para quedarse y transformará la práctica legal, pero esa transformación debe ser guiada por la prudencia, la ética y un profundo respeto por los principios fundamentales de la justicia. La comunidad jurídica tiene ante sí el reto de abrazar la innovación sin sacrificar la integridad, asegurando que la verdad y la justicia prevalezcan, incluso en un mundo cada vez más digitalizado.

IA jurídica Ética legal Alucinaciones IA Responsabilidad profesional

Diario Tecnología