¿Abrir la caja negra? El amanecer de un “derecho a la explicación” en el proyecto de ley que regula las plataformas digitales

Por Diego Ojeda Cifuentes (Estudiante de Derecho en Pontificia Universidad Católica de Valparaíso).

Cuando somos objeto de inferencias algorítmicas, rara vez comprendemos cómo y por qué se generan. Este fenómeno es lo que comúnmente se conoce como “opacidad algorítmica”, y constituye, por lejos, la regla general del ecosistema digital actual. En este orden de ideas, el nuevo proyecto de ley que regula las plataformas digitales (Boletín n° 14.561-19)1 busca revertir este cuadro analógico a través de un controvertido derecho: el derecho a la explicación. 

Así, pese a que el mencionado proyecto no emplea la terminología “explicación”, es posible derivar su contenido —o algo muy similar— de su artículo 10, que dispone: “Los usuarios de plataformas digitales tienen derecho a ser informados de manera inteligible acerca de las razones y fundamentos de las decisiones que dichas plataformas tomen respecto a ellos2. No obstante, cuando se trata de decisiones basadas en procedimientos intrínsecamente opacos (i.e. aprendizaje profundo) ¿Cómo se puede materializar la promesa de hacer “inteligible” a los usuarios los “fundamentos” de las decisiones sin banalizar este derecho? 

Antes de entrar en materia, permítanme aclarar de qué va esto de tener un “derecho a la explicación”. Se ha entendido que este derecho busca garantizar la provisión de información significativa para el receptor, que le permita comprender cómo se comportan las variables de entrada para producir una inferencia o salida. Nótese que esto implica más que la simple transmisión de información; supone priorizar los factores contextuales necesarios para propiciar la comprensibilidad de un determinado grupo objetivo.

De este modo, por ejemplo, para que una explicación sea genuinamente significativa —o “inteligible”, para usar la terminología del proyecto— debería evitarse que la información sea tan extensa que inunde la economía cognitiva del receptor, que resulte demasiado técnica, etc. Pues solo así el usuario estaría razonablemente capacitado para comprender la decisión, examinar si se ha basado en correlaciones espurias, sesgadas o discriminatorias, e impugnarla de manera eficaz. 

Volvamos ahora al quid del asunto planteado ¿Por qué las explicaciones de ciertas decisiones automatizadas son difíciles de conseguir? Fundamentalmente por dos razones: bien porque quien debería proveerlas no quiere (opacidad intencional); bien porque no puede (opacidad intrínseca). Examinemos con algún grado de detalle tales objeciones.

En primer lugar, las explicaciones pueden afectar negativamente otros intereses competitivos. Información muy detallada puede tensionar secretos comerciales o derechos de propiedad intelectual, así como también los derechos de privacidad y protección de datos personales de terceros. Asimismo, puede ser una invitación para el juego estratégico con el sistema (“gaming the algorithm”). Así, cierto grado de opacidad será habitualmente deseable —y hasta cierto punto necesario— para resguardar los derechos de terceros y la funcionalidad misma del sistema.    

Se trata, ciertamente, de objeciones atendibles. Sin embargo, la dicotomía entre tales intereses y un derecho a la explicación puede ser una tesitura algo engañosa. La opacidad intencional es, por así decirlo, remediable. Para ello, debemos atender al quantum de la explicación, con el fin de encontrar el balance óptimo que permita conciliar los valores en competencia. 

Esto nos conduce, pues, a la segunda coyuntura: el problema de la opacidad inherente. Con esto se alude a ciertos enfoques del aprendizaje automático, como explica Burrel, en que puede ser imposible proporcionar una interpretación semántica de los procedimientos matemáticos de resolución algorítmica3. De ahí que se hable no de un problema de alfabetismo técnico del receptor, sino de falta de interpretabilidad del modelo subyacente. 

Existen, además, limitaciones temporales. En los modelos lineales, por un lado, existe previsibilidad ex ante de cómo interactúan conjuntamente todas las variables para la toma de decisiones, de modo que no resulta problemático. En cambio, en los modelos de naturaleza dinámica, donde el funcionamiento se encuentra distribuido en entornos interactivos que lo definen, no existe una visibilidad estática del sistema.

Dicho esto, si quisiéramos conseguir decisiones intrínsecamente interpretables —que resistan explicaciones significativas sobre cómo el sistema toma decisiones en general (i.e. lógicas globales)—, podríamos interpretar draconianamente este derecho, en el sentido de que constituya una exigencia prescindir del uso de modelos intransparentes en favor de métodos más diáfanos. Por consiguiente, la información relevante sobre cómo el sistema toma decisiones, el peso de las variables dentro del árbol, etc., podría proporcionarse aún antes de que se tome la decisión. Sin embargo, aquello implicaría renunciar a buena parte de los algoritmos en boga que hoy resultan de interés.

Empero, es posible proporcionar otra lectura: que este derecho se orienta no a una visión global de la toma de decisiones, sino a explicar, a posteriori, las lógicas locales de una decisión específica4. Esto permitiría recurrir a los modelos de explicación post hoc —conocidos por ser métodos “sin abrir la caja negra”—, que informan sobre cómo el sistema tomó una decisión para un caso específico, sin tener que explicar la complejidad del modelo subyacente. 

Una vía positiva para la concreción de este propósito es el uso de las explicaciones contrafactuales. Este enfoque, propuesto por un grupo interdisciplinario de investigadores europeos para explicar las inferencias basadas en aprendizaje profundo5, se basa en mostrar el “mundo lo más cercano posible” en que el resultado podría ser distinto, informando cómo podrían alterarse las variables de entrada lo menos posible para modificar la inferencia. En la praxis, un contrafactual podría visualizarse de la siguiente manera: “su resultado es X. Si un pequeño subconjunto de características hubiera sido A en lugar de B, la predicción habría sido, en cambio, Y”. 

Retomando la pregunta inicial, esta última alternativa parece, en humilde opinión de quien redacta estas líneas, moderadamente sensata. El enunciado que establece el derecho a ser informado de “las razones y fundamentos de las decisiones que dichas plataformas tomen” debe articularse sociotécnicamente; no como un derecho a conocer la funcionalidad general del sistema de decisión, sino como un derecho a recibir una explicación retrospectiva, que encapsule las causas últimas (léase “razones y fundamentos”) de una decisión específica.

De lo contrario, el escenario resultante podría generar estándares poco realistas, cuya consecuencia práctica sea la prohibición de facto de ciertas tecnologías, o un nuevo paradigma de explicaciones con poca o nula significatividad para el usuario, que termine por conferir legitimidad a decisiones opacas, intrusivas y potencialmente discriminatorias.

Referencias:

1. Este proyecto, ingresado el 1 de septiembre a tramitación, puede consultarse en el siguiente enlace: http://www.senado.cl/appsenado/templates/tramitacion/index.php?boletin_ini=14561-19

2. Esta formulación, aunque prevista para un supuesto más amplio, parece estar inspirada en el Reglamento General de Protección de Datos de la Unión Europea (RGPD), que establece el derecho a “información significativa sobre la lógica aplicada” de ciertas decisiones automatizadas, en “forma concisa, transparente, inteligible y de fácil acceso, con un lenguaje claro y sencillo” [artículos 12 n° 1, 13 n° 2 lit. f), 14 n° 2 lit. g) y 15 n° 1 lit. h), en combinación con el artículo 22].

3. Vid. Burrell, Jenna, How the machine ‘thinks’: Understanding opacity in machine learning algorithms, en Big Data & Society 3 (2016) 1.

4. Lo mismo se discutió a propósito del derecho a la explicación en el RGPD. Vid. Wachter, Sandra; Mittelstadt, Brent; Flordi, Luciano, Why a right to explanation of automated decision-making does not exist in the general data protection regulation, en International Data Privacy Law, 7 (2017) 2.

5. Vid. Wachter, Sandra; Mittelstadt, Brent; Russell, Chris, Counterfactual Explanations without Opening the Black Box: Automated Decisions and the GDPR, en Harvard Journal of Law & Technology 31 (2018) 2.

Esta entrada fue publicada en Opinión. Guarda el enlace permanente.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s