Foto Diego Pardow

Respuesta Final por Diego Pardow*

En este breve espacio intentaré hacerme cargo de los comentarios, en el mismo orden con que los fui recibiendo. Al final incluiré algunas líneas que, en mi opinión, resumen un par de aspectos donde todos pareceríamos estar de acuerdo.

Comenzaré por el comentario de Gabriel Weintraub. Resulta paradójico que centre su comentario en la posibilidad de reemplazar al “juez humano” por un “juez autómata”. Al final del día, esa es precisamente la metáfora del célebre proceso kafkiano, un proceso donde la humanidad de la justicia se va perdiendo en un laberinto de funcionarios y expedientes, hasta que finalmente desgasta la moralidad acusado. Desde esta perspectiva, es interesante la distinción de Weintraub entre preferencias vagas y preferencias definidas. La automatización resultaría menos problemática cuando la sociedad tiene claro lo que quiere, como sería el caso de la selección escolar. Al contrario, encarcelar a un persona involucraría una colección de tantos intereses sobrepuestos y contrapuestos, que preferiríamos delegar esa decisión en un humano. Como lo recoge Isaac Asimov en su primera ley de la robótica, hay algo irreductiblemente humano en castigar y causar daño a otro ser humano. Recuerdo que cuando decidí ser abogado, mi abuelo me llevó a conocer una estatua que está situada justo afuera de la Corte de Apelaciones de Valparaiso. A diferencia de muchas otras representaciones de Themis, en este caso la musa de la justicia aparece con el velo descubierto, la balanza debajo del brazo izquierdo y la espada de la mano derecha con la guardia abajo, prácticamente indefensa. Siempre me ha parecido que esa estatua refleja mucho mejor el ideal de un juez criminal. Se trata de alguien que, antes que nada, intenta comprender la humanidad detrás del crimen.

Un argumento similar es recogido en el comentario de Mauricio Olavarría. En lugar de distinguir en atención a la definición de las preferencias, sin embargo, Olavarría distingue entre decisiones rutinarias y especiales, proponiendo que las primeras resultan más sencillas de automatizar. Lo curioso de este enfoque es que incluso castigar a quienes cometen crímenes, un aspecto que en el párrafo anterior era presentado como irreductiblemente humano, parece volverse rutinario por obra y gracia de la repetición. Cualquiera que haya presenciado una audiencia de control de detención en un tribunal chileno, sabe perfectamente que los jueces hacen bien pocos esfuerzos por entender el problema humano detrás del crimen, sino que más bien intentan aprovechar el tiempo y realizar la mayor cantidad de audiencias posibles. Como en una línea de producción, los presuntos criminales van pasando mientras el tribunal realiza preguntas estándar y aplica también castigos estándar. Así las cosas, y si se trata simplemente de repetir situaciones estándar, ¿qué ventajas ofrece un humano? El comentarista plantea que podríamos reservar la intervención humana respecto de aquellos problemas que sean lo suficientemente complejos o especiales. Pero entonces resulta que la distinción en atención a la definición de las preferencias tampoco es tan distinta de la distinción en atención a la repetitividad del problema. Al igual que en el caso anterior, respecto de los problemas repetitivos la sociedad sabría razonablemente bien qué es lo que quiere. El autómata abordaría así la ejecución de estas decisiones sencillas, definidas y repetitivas, mientras el humano se encarga de los aspectos complejos, indefinidos y singulares.

En el fondo, tanto Weintraub como Olavarría sostienen sus comentarios en una distinción entre ejecutar decisiones previas y adoptar decisiones nuevas. El escepticismo de mi ensayo, incluso respecto de automatizar la ejecución de decisiones administrativas previas, es que ello lleva implícito un sesgo social. En nuestra sociedad los pobres son muchos más numerosos y tienen muchos más problemas que resolver, por lo que son sus problemas los que se vuelven repetitivos, los que se estandarizan y se simplifican. Por ello, solamente habría un Estado humano para aquellos que puedan pagarlo. En todo caso, también es cierto que este sesgo está presente hoy en día, sin importar si trata de procesos automáticos o humanos. Siguiendo con el ejemplo de los juicios criminales, las audiencias del “Caso Penta” que muchos seguimos por televisión, tienen pocas similitudes con las miles de audiencias por casos de micro-tráfico de drogas que se realizan todos los días. Pareciera así que la estandarización de los problemas humanos es algo que viene de la mano con la sociedad moderna, y que el escepticismo contra la automatización es en realidad un escepticismo contra la modernidad.

De hecho, esta visión romántica de un Estado humano, sensible a la complejidad y al alcance de todos, es ciertamente una debilidad de mi ensayo que todos los comentaristas apuntaron, pero principalmente Isabel Aninat y Umut Aydin. La primera, sobre la base de la incapacidad del Estado humano para procesar información y comprender adecuadamente los problemas sociales que está llamado a resolver. La segunda, sobre la base de la capacidad de los intereses particulares para capturar a la burocracia. Ambas apuntan a un aspecto clave. Efectivamente, si adoptamos una perspectiva más pesimista, caracterizando al Estado como una organización que difícilmente entiende a sus ciudadanos y actúa de manera parcial, los riesgos de la automatización parecen ser menos importantes. Nuestra capacidad para querer un cambio, lógicamente depende de la valoración que tengamos sobre el status quo. Por ejemplo, si miramos lo que hace el Estado en materia de cuidado de menores en riesgo social, nuestra disposición para introducir nuevas maneras de hacer las cosas es claramente mayor que en otras áreas. El reemplazo del Estado humano, aparece así como una consecuencia lógica de su incapacidad para cumplir la misión fundamental de mejorar la vida de los ciudadanos.

Estas diferencias en la valoración del Estado son expresadas también por Gabriel Domenech, quien dibuja una ilustrativa dicotomía entre la precisión en los resultados y la democracia en los procesos. En la mayor parte de los casos, resulta difícil conseguir precisión y democracia al mismo tiempo. Por esta razón, reservamos la democracia para un grupo restringido de decisiones administrativas, aquellas donde podemos darnos el lujo de detenernos y reflexionar sobre lo que estamos haciendo. Pareciera entonces que la humanidad viene asociada a la democracia, mientras que la automatización se asocia con el autoritarismo. Este pareciera ser un principio de consenso entre los distintos participantes de este debate. Los riesgos de la automatización de las decisiones administrativas son, en definitiva, los riesgos tradicionales del autoritarismo. La centralización del poder y la pérdida de contacto con la ciudadanía distan mucho de ser problemas nuevos.

Quizás el comentario que sintetiza con mayor claridad esta conclusión colectiva sea el de Guillermo Larraín. Las instituciones cumplen una función similar a la de un edificio, donde recibimos y damos cobijo a nuestra sociedad. Pero construir estas instituciones negando las características de la sociedad moderna, sería como construir en Chile un edificio asumiendo que los terremotos no existen. La automatización de nuestros procesos es necesaria para lidiar con los problemas sociales de hoy en día, pero al utilizarla deshumanizamos el Estado y erosionamos su legitimidad institucional. En las propias palabras del comentarista, no se trata de resistir la automatización de las decisiones administrativas, sino de reconocer su déficit democrático y tenerlo en constante escrutinio.

 

*Diego Pardow es Profesor de la Facultad de Derecho de la Universidad de Chile y Doctor en Derecho de la Universidad de California Berkeley.