Por Lily Zurita
En pasados días, en una inédita acción de la justicia boliviana, la Sala Constitucional Cuarta de Santa Cruz usó el ChatGPT para consultar un criterio jurídico en medio de una audiencia. Los vocales de ese Tribunal buscaban definir una Acción de Privacidad que se presentó contra periodistas, en el marco de una supuesta protección de los derechos humanos.
Al respecto, el director de la Carrera de Derecho de la Universidad Franz Tamayo, Unifranz, Alberto Salamanca reflexiona que la norma suprema del ordenamiento jurídico boliviano establece que las autoridades judiciales son designadas para impartir justicia y tomar decisiones, previa valoración basada en criterios y elementos jurídicos que cada una de las partes aporta en el proceso para validar su pretensión.
“Se espera que la Autoridad Judicial ponga en práctica sus capacidades y competencias profesionales y jurídicas para la resolución de una causa, aplicando su experiencia profesional y no así la capacidad de una máquina o emulador de Inteligencia Artificial”, ´puntualiza el abogado.
Solo las personas pueden impartir justicia, según la CPE
La Constitución Política del Estado (CPE), en sus artículos 120, 178, 179, determina que la potestad de impartir justicia emana del pueblo boliviano y se sustenta en los principios de independencia, imparcialidad y seguridad jurídica, entre otros.
Interpretada esa norma, hay que entender que el pueblo delega a un Órgano Judicial, compuesto por seres humanos, la potestad de impartir justicia y a la población el derecho de ser oída por esa autoridad jurisdiccional competente, independiente e imparcial.
César Cabrera, abogado constitucionalista, puntualiza que este artículo hace referencia al derecho al debido proceso en su elemento del juez natural.
“El Art 115, numeral 1, de la Carta Magna, señala que toda persona será protegida oportuna y efectivamente por los jueces de los tribunales en el ejercicio de sus derechos e intereses legítimos lo que da a entender que tenemos que estar protegidos por seres humanos, mas no por sistemas mecánicos como es la Inteligencia Artificial, que si bien puede entenderse como un gran avance de la humanidad, para la administración de justicia no es el método adecuado para impartir justicia porque en la justicia tiene que considerarse a las personas. Los jueces tienen que ponderar y valorar las pruebas que aportan las partes para sustentar sus pretensiones. La valoración, ponderación y otorgarle un valor probatorio determinado a cada uno de los elementos probatorios es lo que, finalmente, va a determinar quién tiene razón o no en el conflicto”, indica el constitucionalista.
Principio de sana crítica
Existe un principio jurídico, contenido en las normas: sana crítica, que deben aplicar los jueces y autoridades judiciales. El analista jurídico José Alanoca dice: «debe ser un sistema razonable de verificación en una interpretación correcta de un hecho concreto. Además, el juez debe realizar una decisión acuciosa e imparcial, tratando de alejarse lo más posible de sus propias apreciaciones subjetivas”.
En tanto, Eduardo Couture, autor del libro Fundamentos de Derecho Procesal Civil, define las reglas de la sana crítica como «las reglas del correcto entendimiento humano; contingentes y variables con relación a la experiencia del tiempo y del lugar; pero estables y permanentes en cuanto a los principios lógicos en que debe apoyarse la sentencia».
Es decir, el juez debe explicar el cómo y por qué otorga credibilidad a determinados elementos probatorios o al aporte y fundamentación jurídica que haya desarrollado cada parte en el proceso.
Qué es el ChatGPT
El ChatGPT es, según National Geographic (NG), es un robot virtual (un chatbot), pero con mucho más potencial de ejecución de tareas. Se trata de “un modelo de red neuronal desarrollado por OpenAI, empresa fundada en 2015 en Estados Unidos por Sam Altman y Elon Musk (quienes salieron de la compañía en 2018)”, precisa NG.
Salamanca advierte que el ChatGPT, si bien es una herramienta tecnológica que brinda ayuda y apoyo para cierto tipo de actividades, no es una herramienta exclusivamente dedicada a la resolución de causas judiciales ya que su base de datos tampoco ha sido «alimentada» con información específicamente judicial de Bolivia, ni con toda la información que hace a nuestras costumbres jurídicas.
Por lo tanto, mientras no se tenga una herramienta exclusiva para cumplir con un fin específico, la información será sesgada y no confiable.
A futuro, seguramente se podrá aplicar la Inteligencia Artificial a la resolución de causas judiciales, tanto sencillas como complejas, porque está demostrada su capacidad para resolver estos nodos problemáticos con las distintas redes neuronales artificiales, pero para ello, se necesita ‘alimentar’ esas bases de datos con información específica de nuestro contexto, social y jurídico e inclusive político. Pero el primer camino es enseñar a la Inteligencia Artificial sobre la forma y estructura del sistema judicial boliviano.
Por lo pronto, China ha avanzado bastante en este ámbito y ya resuelve causas judiciales con jueces robots, al igual que en Estados Unidos y Estonia. Varios países europeos también lo utilizan para temas de deudas comerciales.
A futuro se prevé que, la aplicación de la Inteligencia Artificial en el ámbito del Derecho, tendrá efectos positivos, como la verdadera vigencia del Principio de Gratuidad (Ley 025 del Órgano Judicial, Art 3 numeral 8: “El acceso a la administración de justicia es gratuito, sin costo alguno para el pueblo boliviano; siendo ésta la condición para hacer realidad el acceso a la justicia en condiciones de igualdad”) y que se reduzca o se elimine la corrupción en el sistema judicial boliviano.
No obstante, Salamanca considera que no se debe olvidar que la Inteligencia Artificial robótica, seguirá siendo administrada por los seres humanos, con una probabilidad de manipulación de la respuesta por parte de los robots.