Como prácticamente en todos los oficios y profesiones, la inteligencia artificial (IA) constituye uno de los acontecimientos más impactantes en los procesos transformadores que viven el estudio y la práctica del Derecho, incluida la impartición de justicia.
En ese sentido, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) ha publicado recientemente las “Directrices para el uso de sistemas de IA en Cortes y Tribunales”, de la autoría del profesor Juan David Gutiérrez (Universidad de los Andes, Colombia).
Este muy importante documento tiene por propósito ofrecer una orientación práctica para jueces, administradores judiciales y responsables políticos que se encuentran en procesos de exploración para la adopción definitiva de la IA en el ámbito judicial.
En particular, pretende situar el uso de la IA como herramienta asistencial, más no sustitutiva, en la impartición de justicia, y bajo principios innegociables como son la responsabilidad y la supervisión humana.
La trascendencia de estas directrices también se explica en que están basadas en consultas con expertos de más de 160 países, con el involucramiento de más de 36,000 actores judiciales. Su pretensión es clara: reflejar diversas tradiciones legales, capacidades tecnológicas y necesidades sociales compartidas alrededor del mundo.
Así, constituyen el primer marco ético y operativo orientado globalmente para la IA aplicada a las funciones judiciales.
Pues bien, las directrices se fundamentan en quince principios universalmente aplicables: 1) protección de los derechos humanos, 2) proporcionalidad, 3) viabilidad de los beneficios, 4) seguridad, 5) seguridad de la información, 6) precisión y fiabilidad, 7) explicabilidad, 8) auditabilidad, 9) justicia transparente y abierta, 10) concientización y uso informado, 11) responsabilidad, 12) rendición de cuentas (accountability) y contestabilidad, 13) supervisión humana y toma de decisiones humanas, 14) diseño participativo y centrado en el ser humano, y 15) gobernanza y colaboración multiactor.
De este modo, las directrices hacen un llamado a que el despliegue de sistemas de IA proteja centralmente la igualdad material y la no discriminación, especialmente en relación con derechos de las mujeres, personas con discapacidad, niños, niñas y adolescentes, refugiados, migrantes, apátridas, en general, las minorías y otras poblaciones en situación de marginación y/o vulnerabilidad.
Llama la atención la adecuada recomendación de que la utilización de sistemas de IA tengan como objetivo lograr fines legítimos y proporcionales en el contexto de su uso, en especial, en materia de derechos.
Destaca también la directriz relacionada con el uso preciso y fiable de la IA; es decir, generar las condiciones para que puedan proporcionar información útil y relevante, así como producir resultados y predicciones correctas.
En cuanto a lo que las directrices llaman “explicabilidad”, implica que los tribunales deben hacer inteligible y proporcionar información sobre las entradas, razonamientos, resultados y funcionamiento de los sistemas de IA, de manera que estos elementos sean comprensibles, interpretables y rastreables para los humanos y, en especial, para las partes.
Es llamativa también la necesidad de que la IA sea transparente en cuanto a cómo sus sistemas desarrollan su contenido, cómo funcionan sus datos de entrenamiento, así como sus limitaciones (incluido el margen de error), sus capacidades y su propósito.
Además, estos sistemas deben garantizar la rendición de cuentas, informando y explicando cómo y por qué determinadas herramientas de IA fueron adoptadas por el tribunal de que se trate, así como los resultados obtenidos (o no) con su despliegue.
Finalmente, es destacable el aspecto relacionado con la supervisión y toma de decisiones humanas. Las directrices recomiendan que las personas juzgadoras “no deben delegar ninguna parte de su mandato ni depender exclusivamente de los sistemas de IA para adoptar decisiones o automatizar procesos completos que puedan afectar negativamente a los derechos de individuos o comunidades.”
Así, estas herramientas no deben sustituir el análisis independiente e imparcial de los hechos del caso, las pruebas, o el propio marco legal, por parte de la persona humana que es responsable de la toma de decisiones.
Hace no mucho tiempo, afirmábamos que no era lejano el tiempo en que estos sistemas pudieran emplearse para hacer tareas sofisticadas en la práctica del Derecho. Hoy la cuestión no es esa.
Es momento de establecer reglas a partir de las cuales el uso irremediable de la IA en la función judicial debe administrarse y regirse, con tal de que éste beneficie a la ética, la equidad, la no discriminación, la protección de los derechos humanos, es decir, en última instancia, a la impartición democrática de la justicia.