La inteligencia artificial (IA) es implementada cada vez con mayor frecuencia en todo el mundo, incluso a niveles inesperados: la empresa israelí AI21 Labs creó la representación inteligente de Ruth Bader Ginsburg, una abogada, jurista y jueza de Estados Unidos que trabajó por 27 años en la Corte Suprema de su país y murió en 2020.
Muchos usuarios ya le realizaron varias preguntas, con algunas respuestas satisfactorias y otras no tanto. La jueza tiene reconocimiento por llevar adelante la lucha feminista y la igualdad de género a través de la justicia. Su fallecimiento provocó algunos días de luto en el país norteamericano.
Para poder hablar con Ginsburg, los usuarios deben entrar a la página web del programa Jurassic-1. En total, más de 600.000 palabras del ámbito legal que han sido proferidos por la jueza se han utilizado para entrenar a esta IA y dar respuestas detalladas.
En un recuadro se puede escribir cualquier cosa a la IA, siempre que esté en inglés y se pueda responder con sí, no o un quizás. Además de elegir una de las tres opciones, argumentará ligeramente la respuesta.
Sin embargo, como todas las más recientes innovaciones en materia de inteligencia artificial, esta no ha pasado desapercibida y por el contrario, ya ha sido cuestionada por su desempeño y el lugar en que quedarían los jueces humanos en un futuro en el que este tipo de tecnologías alcancen altos niveles de desarrollo.
Inconsistencias en la jueza de IA
Emily Bender, profesora de la Universidad de Washington, explica que «puede devolver palabras y el estilo de ellas se basará en el texto que introdujeron, pero no está razonando».
David Martínez, profesor de la Universitat Oberta de Catalunya (UOC) sostiene que si un algoritmo solo se limita a ejecutar órdenes programadas, no existe posibilidad de que se vea alterada la aplicación mecánica de las normas por factores como prejuicios y creencias personales, debido a que si es de este modo, este tipo de inteligencias no cuentan con elementos de subjetividad.
Esta tecnología ya fue utilizada de manera oficial en la justicia, pero sólo como un apoyo. Desde hace tiempo la administración de Justicia utiliza algoritmos para calcular la probabilidad de reincidencia o para recuperar información de grandes bases de datos.
En España, por ejemplo, se creó la “Agencia Española de Supervisión de la Inteligencia Artificial”, que tiene como objetivo analizar esta forma de trabajo y su comportamiento ético.