Por Catalina Ordóñez Martin (Estudiante de Derecho, Universidad Católica del Norte, Coquimbo).
No es un secreto que ya ha habido abogados y jueces que han utilizado inteligencias artificiales (IA) no sólo como ayudas, sino como único método para hacer su trabajo, a tal punto que hay noticias hablando de este tema en diversos medios de comunicación (sin importar que sean confiables o no). La fiebre de las IA, y de cómo podrían reemplazarnos en nuestros trabajos —incluso en el ámbito legal—, está en auge y debe ser discutido con seriedad.
Las IA existen hace ya un tiempo, y su rol en la sociedad ha sido cada vez mayor —un ejemplo contemporáneo es el rápido desarrollo de las vacunas contra el covid, que fue posible gracias a ellas—. Estas tecnologías son sistemas de computación que están codificados de tal manera que se les proporciona una serie de bases de datos, que se convierten en input; procesan los datos y aprenden de ellos, para finalmente generar un output o respuesta, que se basa en la información previamente entregada. De esta manera, se puede resumir su tarea a un aprendizaje automatizado en las máquinas que pueden hacer ciertas tareas de manera informada (con la información que tienen o que se les proporciona) y rápida (más rápida que un humano, al menos).
En estos momentos podríamos decir que es el tema de moda, no porque sean nuevas, sino porque esta es la primera vez que son accesibles a todo público. Dada esta asequibilidad, los medios académicos han tenido que empezar disquisiciones acerca del uso de estas herramientas tecnológicas no solo en su área, sino también en el ámbito laboral y social, pues los problemas éticos que surgen no son menores.
Ahora bien, ya que uno de los últimos pasos en las vivencias sociales es la regulación legal, y debido a que estas herramientas han sido usadas y abusadas en ciertos espacios legales, esto ha provocado diversas reacciones, tanto a favor como contrarias, frente a ellas.
Como ya se dijo, se ha dado el caso de que algunos jueces o abogados han utilizado IA para hacer su trabajo. Las herramientas jamás han sido un problema para la humanidad, pero sí pueden surgir inconvenientes a partir del uso particular que se le den —un caso histórico es el de los luditas en el siglo XIX, quienes no odiaban la tecnología que propiciaría un medio de producción más cómodo y rápido, sino que despreciaban un mercado que pretendía un reemplazo general a los humanos por una máquina que no puede controlarse sola, y que solo iba en beneficio de un señor capitalista—. En el caso de Chat GPT, una de las tantas inteligencias artificiales que, en modo chat, pueden responder de una manera que parece —y hago énfasis en parece— cierta y sensata a cualquier pregunta, se puede entrever una complicación que surge no sólo de la veracidad de sus respuestas, sino también del fondo de sus respuestas. Para corroborar que este tipo de inteligencia artificial se equivoca en sus respuestas hay ya muchos artículos y videos que pueden demostrarlo, e incluso, si el lector se siente aventurero y dispone del tiempo, puede comprobarlo él mismo.
El principal inconveniente, desde mi perspectiva, es la discusión acerca de la responsabilidad.
Supongamos el caso de un juez. Que una IA «tome una decisión» que se utilice para dictar una sentencia no resta responsabilidad al juez, pues, primero, es él quien utiliza la herramienta; segundo, hay segundas instancias; y, tercero, y más importante aún, el desarrollo del Derecho y de las mismas resoluciones va evolucionando, quizá no paralelamente sino de manera un tanto tardía, pero al menos correspondiente con los desarrollos sociales.
Una IA, que para justificar sus respuestas utiliza meros inputs, casi nunca podrá dar una sentencia que sea coherente con el ámbito actual de una situación social, no solo porque no está al tanto de los desarrollos sociales que se dan día a día, las influencias que tienen, los cambios éticos y de ideologías, etc., sino por los tipos de input que estudiará: ¿Se le entregarán indiscriminadamente inputs? ¿habrá una ideología de por medio que discrimine el tipo de bases de datos que corresponde proporcionarle? ¿Quién decidirá qué inputs son válidos o no? ¿Quién escogerá a la persona encargada de proporcionar la información adecuada?
En síntesis, alguien debe proporcionar una información, decidir si se discrimina información y enseñarle a la IA que una respuesta es más correcta que otra.
Por otro lado, a parte de la dificultad de determinación de objetividad, se puede llegar a una petrificación del Derecho: la ausencia de nueva información o diferentes puntos de vista o interpretación pueden hacer que el Derecho se convierta en un mero instrumento de una sola visión jurídica (tecnificada) que no tiene coherencia con los cambios sociales, y no representa la dinámica social, sino que impone una ley rígida, despreciando los cambios constantes.
Estos problemas no se le pueden atribuir a una IA, pues, como se dijo, solo es un sistema que analiza bases de datos, sino que la responsabilidad recae sobre el juez. Este tiene el deber de decidir y dictar sentencias basándose no solo en los principios hermenéuticos prescritos en el CC, sino también tiene que seguir un principio de equidad, que le impone un deber con la sociedad: la eficacia no es una excusa suficiente ni para evitar sopesar las diversas situaciones y analizarlas a fondo con cada una de sus diferencias y realidades ni para permitir una petrificación legal.
Por ello, si el juez utiliza esta herramienta, eso no conlleva un problema en sí, incluso podría argumentarse que la rapidez que ella proporciona podría ser beneficiosa para un sistema judicial colapsado como el nuestro. La cuestión es que se requiere de un análisis del caso individual y de la realidad en la que se genera: una herramienta no puede hacer este trabajo, sino un humano, en este caso, un juez.
Por lo tanto, la responsabilidad recae sobre el juez, y en él radica el desarrollo del derecho como una faceta más del ser humano.

Gracias por el artículo. Parece claro que herramientas como Chat GPT no son suficientemente adecuadas para reemplazar a un juez o a un abogado, pero ¿qué me dice de una inteligencia artificial creada con el único propósito de entender el sistema legal y dar respuestas coherentes con respecto a él? una herramienta tal estaría, por ejemplo, alimentada con todos los procesos anteriores «en tiempo real», aprendería a reconocer patrones de cambio con respecto al tiempo o la ubicación en la interpretación de diversas normas, etc. La ponderación de respuestas buenas o malas podría ser encargada a una serie de expertos juristas durante un tiempo prolongado, y, además, durante ese tiempo cada una de las respuestas podría ser «verificada» de manera independiente por el juez o el abogado que planea usarla para darle su visto bueno. ¿No le parece, pues, que una IA tal podría a largo plazo reemplazar mucho del trabajo judicial o, por lo menos, hacer que la carga de «responsabilidad» recaiga en menos personas involucradas (cuyo trabajo sería el de validar o invalidar el proceso realizado por la IA)?
Me gustaMe gusta