Inteligencia artificial y analítica jurídica [1era edición]
 9786124930027

Citation preview

3

DERECHO, ECONOMÍAYTECH

2

INTELIGENCIA ARTIFICIAL V ANALITICA JURÍDICA Nuevas herramientas para la práctica del Derecho en la era digital

Kevin D. Ashley Traducción de Matías Parmigiani

@PUCP Facultad de Derecho

¡p

2

DERECHO, ECONOMÍAYTECH

Kevin D. Ashley

Inteligencia artificial y analítica jurídica Nuevas herramientas para la práctica del Derecho en la era digital

Traducción de Matías Parmigiani

@PUCP

YACH AY legal

Facultad de Derecho

LIMA, 2023

a

Colección DERECHO, ECONOMÍA Y TECH

Consejo Editorial Thibault Schrepel (Holanda) Melissa Zupan (Perú) Coordinador Gabriel E. Uscamayta

-2Inteligencia artificial y analítica jurídica Nuevas herramientas para la práctica del Derecho en la era digital

© Kevin D. Ashley, 2023 Esta traducción de "Artificial Intelligence and Legal Analytics" ha sido publicada en acuerdo con Cambridge University Press.

Coordinadores del volumen: Gabriel E. Uscamayta | Lucía León Pacheco

Traducción de la obra original: "Artificial Intelligence and Legal Analytics. New Toolsfor Law Practice in the Digital Age" (Cambridge University Press, 2017) © Traducción de Matías Parmigiani Revisión de la traducción: Lucía León Pacheco

© Corporación Yachay SAC Yachay Legal - Primera edición impresa, julio de 2023 ISBN:9786124930027 Con el respaldo institucional de la Facultad de Derecho de la Pontificia Universidad Católica del Perú

Hecho el Depósito Legal en la Biblioteca Nacional del Perú N.° 2023-05772

©2023: Corporación Yachay SAC Para su sello editorial YACHAY LEGAL Calle Andalucía 119 - Of. 302, Pueblo Libre - Lima 15084 - Perú Telf. (+51) 963 576 3411 [email protected] Impreso en julio de 2023: Multigrafik SAC Calle s/n Mz. 54 Lote 25 A.H. Huáscar (Grupo 06 Sector A) San Juan de Lurigancho, Lima-Perú. Diseño de portada y diagramación: Kemberson Domínguez Herrera Marketing y publicidad: Robert C. Ríos Jara

Tiraje: 1000 ejemplares Impreso en el Perú - Printed in Perú Todos los derechos reservados. Queda prohibida la reproducción total o parcial de esta obra, bajo ninguna forma o medio, electrónico o impreso, incluyendo fotocopiado, grabado o almacenado en algún sistema informático, sin el consentimiento por escrito de los titulares del Copyright.

www.YACHAYLEGAL.com

Para Alida, por siempre

Contenido

Lista de ilustraciones..................................................................................................................... 19 Lista de tablas.................................................................................................................................... 25

Reconocimientos.............................................................................................................................. 27

Primera parte DERECHO, NEUROCIENCIA Y FILOSOFÍA. ASPECTOS GENERALES 1.

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho) y su futuro rol en la práctica jurídica.........31

1.1. Introducción............................................................................................................................31 1.2. IA & Derecho y la promesa de la analítica textual........................................... 32 1.3. Nuevos paradigmas para una tecnología inteligente en la práctica jurídica........................................................................................................... 35 1.3.1. El paradigma anterior: los sistemas legales expertos..................... 39 1.3.2. Paradigmas alternativos: la recuperación de argumentos y la computación cognitiva .......................................................................... 44

1.3.3. Hacia las nuevas apps legales............................................................................. 47 1.4. Lo que Watson puede y no puede hacer............................................................... 48

1.4.1. El programa Watson de IBM...................................................2................... 49 1.4.2. Responder preguntas vs. Razonar.............................................................. 53 1.4.3. El programa Debater de IBM......................................................................... 61

-7-

Inteligencia artificial y analítica jurídica

1.4.4. Las herramientas de la analítica textual para responder preguntas legales................................................................................................... 64 1.4.5. Fuentes para las herramientas de la analítica textual.....................69

1.5. Una guía a este libro............................................................................................................ 70 1.5.1. Parte I: Los modelos computacionales de razonamiento jurídico........................................................................................................................ 72 1.5.2. Parte II: La analítica de textos jurídicos................................................. 74

1.5.3. Parte III: Conectando los modelos computacionales de razonamiento y los textos jurídicos.................................................... 75 1.6. Las implicancias de la analítica textual para los estudiantes......................77

2.

El modelaje del razonamiento legislativo........................................ 81

2.1. Introducción........................................................................................................................... 81 2.2. Las complejidades de modelar el razonamiento legislativo....................... 82

2.2.1. La ambigüedad semántica y la vaguedad.............................................. 83

2.2.2. Ambigüedad sintáctica...................................................................................... 85 2.3. La aplicación deductiva de las reglas jurídicas................................................... 87

2.3.1. Ejecutando una versión normalizada en una computadora...... 87 2.3.2. La lógica de predicados.................................................................................... 90

2.3.3. La ambigüedad sintáctica como una limitación de diseño.........91 2.3.4. El programa BNA................................................................................................. 93 2.3.5. Algunos problemas de traducir las leyes a programas................. 96 2.4. La complejidad de la interpretación jurídica y la importancia de los argumentos.................................................................................................... 100 2.4.1. Un proceso de interpretación jurídica paso a paso...................... 102

2.4.2. Otras fuentes de indeterminación jurídica....................................... 104 2.5. Sistemas administrativos para reglas y procesos comerciales.............106

2.5.1. Los sistemas expertos en procesos de negocio............................... 107 2.5.2. La automatización de los procesos comerciales de cumplimiento legal........................................................................................... 111 2.5.3. Los requisitos para un lenguaje de cumplimiento de procesos.................................................................................................................. 114

8-

Contenido

2.5.4. Conectando las normas jurídicas y los procesos de negocio............................................................................................................ 118 2.5.5. Un ejemplo de modelaje de cumplimiento de procesos de negocio.............................................................................................................. 122

2.6. La representación de las redes legislativas.........................................................124

3.

El

modelaje del razonamiento jurídico basado en casos .. 129

3.1. Introducción......................................................................................................................... 129 3.2. La relación entre los conceptos jurídicos y los casos judiciales............ 131

3.2.1. El proceso jurídico............................................................................................ 131

3.2.2. Una ilustración del proceso jurídico.................................................... 132 3.2.3. El rol de los conceptos jurídicos............................................................... 133 3.3. Tres modelos computacionales de casos y conceptos jurídicos........... 135 3.3.1. Prototipos y deformaciones........................................................................ 136 3.3.2. Dimensiones y factores jurídicos............................................................ 140 3.3.3. Explicaciones basadas en ejemplares................................................... 159

3.4. Modelos teleológicos del razonamiento jurídico basado en casos....... 165 3.5. Una aproximación al modelaje de razonamientos teleológicos............. 169 3.5.1. La teleología en la construcción de teorías........................................ 171

3.6. Limitaciones de diseño para la computación cognitiva con modelos de razonamiento jurídico basados en casos.........................175

4.

Modelos para la

predicción de resultados jurídicos............ 179

4.1. Introducción......................................................................................................................... 179 4.2. Un enfoque vecino más cercano a la predicción jurídica automatizada............................................................................................................... 180 4.3. Una introducciónalaprendizaje automático supervisado.......................... 182

4.3.1. Los algoritmos de aprendizaje automático: los árboles de decisión......................................................................................

183

4.4. Prediciendo lasresoluciones de la Corte Suprema......................................... 185 4.4.1. Las características para predecir las resoluciones de la Corte Suprema........................................................................................ 187

-9

Inteligencia artificial y analítica jurídica

4.4.2. La aplicación del aprendizaje automático supervisado a los datos de SCOTUS................................................................................... 187 4.4.3. Una evaluación del método de aprendizaje automático.......... 188 4.4.4. Las medidas evaluativas del aprendizaje automático y los resultados.................................................................................................... 189 4.5. La predicción de resultados mediante argumentos basados en casos.......................................................................................................................... 190

4.5.1. La predicción mediante CATO.................................................................. 190

4.5.2. La predicción basada en problemas....................................................... 191 4.5.3. El algoritmo de predicción IBP..................................................................194 4.5.4. Evaluando las predicciones de IBP......................................................... 196 4.6. La predicción con valores subyacentes................................................................ 199

4.7. La predicción basada en la conducta de los litigantes.................................202 4.8. La predicción en la computación cognitiva....................................................... 204 5.

LOS MODELOS COMPUTACIONALES DE ARGUMENTACIÓN JURÍDICA....................................................................................................... 207

5.1. Introducción......................................................................................................................... 207 5.1.1. Las ventajas de los MCAJ.............................................................................. 209

5.2. El modelo argumentativo Carneades..................................................................... 210 5.3. Un ejemplo ampliado de un MCAJen acción.................................................... 212 5.3.1. El ejemplo del Derecho de familia con Carneades....................... 213 5.3.2. La argumentación mediante normas jurídicas derrotadles... 216 5.3.3. Integrando la argumentación con casos y reglas........................... 218

5.4. El modelo computacional de argumentación abstracta............................. 223 5.5. Cómo los modelos computacionales de argumentación jurídica computan a ganadores y perdedores............................................................226

5.5.1. La resolución de argumentos conflictivos sobre hechos........ 227 5.5.2. La resolución de argumentos conflictivos sobre valores........ 228 5.5.3. La resolución de argumentos conflictivos sobre normas jurídicas.................................................................................................................. 229

5.6. ¿Cuán prácticos son los modelos computacionales de argumentación jurídica?..................................................................................... 230 -10-

Contenido

5.6.1. El rol de los estándares de prueba en los Modelos Computacionales de Argumentación Jurídica............................... 232

5.6.2. La integración del razonamiento probabilístico en los Modelos Computacionales de Argumentación Jurídica........... 234 5.7. El modelo de predicción argumentativa basado en juicios de valor.... 237

5.7.1. El modelo de dominio PAJV.................................

239

5.7.2. Los valores de PAJV que subyacen a la regulación de los secretos comerciales........................................................................................ 240

5.7.3. Los esquemas argumentativos de PAJV.............................................. 242 5.7.4. Las predicciones de PAJV basadas en argumentos...................... 246 5.7.5. La evaluación del programa PAJV...........................................................249

5.8. El modelo computacional de argumentación probatoria en el terreno jurídico.................................................................................................... 253 5.9. Los modelos computacionales de argumentación jurídica como un puente.................. 257

Segunda parte LA ANALÍTICA DE TEXTOS JURÍDICOS 6.

La representación de conceptos jurídicos EN ONTOLOGÍAS Y SISTEMAS TIPO............................................................... 269

6.1. Introducción......................................................................................................................... 269

6.2. Los fundamentos de la ontología............................................................................. 270 6.3. Ontologías jurídicas de muestra............................................................................... 273

6.3.1. La ontología de e-Court................................................................................ 273 6.3.2. La ontología basada en marcos de van Kralingen..........................276 6.4. La construcción de ontologías jurídicas.............................................................. 278

6.5. El respaldo ontológico al razonamiento legislativo.......................................281 6.6. El respaldo ontológico a la argumentación jurídica...................................... 287 6.6.1. Una aplicación (app) en la mira de la ontología de la argumentación jurídica.................................................................................. 287 6.6.2. Una ontología para el Micro-mundo argumentativo................... 295

6.6.3. Los límites para automatizar la argumentación jurídica por medio del respaldo ontológico..........................................................306

-n -

Inteligencia artificial y analítica jurídica

6.6.4. El respaldo ontológico para la computación cognitiva en la argumentación jurídica.......................................................................310

6.7. Sistemas tipo para la analítica textual................................................................... 310

6.7.1. La definición de un sistema tipo..............................................................311

6.7.2. Un ejemplo de sistema tipo: DeepQA................................................... 312 6.8. LUIMA: un sistema tipo UIMA de naturaleza jurídica............................... 314

6.9. Las anotaciones de LUIMA pueden respaldar la recuperación de información conceptual de tipo jurídico............................................ 319 7.

Un

intento de volver más astuta la recuperación

DE INFORMACIÓN JURÍDICA ..................................................................323

7.1. Introducción......................................................................................................................... 323

7.2. Servicios actuales de recuperación de información jurídica...................324 7.3. Un ejemplo del uso comercial de los sistemas IR de naturaleza jurídica............................................................................................................................ 325 7.4. Cómo funcionan los sistemas IR de naturaleza jurídica............................ 328

7.5. Las medidas de relevancia de IR.............................................................................. 332 7.5.1. La medida de relevancia Booleana.......................................................... 332 7.5.2. La aproximación espacio-vectorial a la relevancia....................... 332

7.5.3. Modelos probabilísticos de relevancia.................................................. 335

7.6. La evaluación de los sistemas IR de naturaleza jurídica............................ 339 7.7. Desarrollos recientes en sistemas IR de naturaleza jurídica................. 342

7.8. La comparación de IR y MCAI.................................................................................. 345 7.9. La mejora de la IR de naturaleza jurídica mediante enfoques de IA & Derecho....................................................................................................... 346 7.9.1. La integración de las ontologías jurídicas e IR................................ 346 7.9.2. La integración de IR y las medidas de relevancia de IA & Derecho........................................................................................................ 347 7.9.3. La expansión de la evaluación de relevancia de IR mediante redes de citas.................................................................................. 350

7.9.4. La detección del cambio conceptual...................................................... 353 7.10. Conclusión.......................................................................................................................... 355

-12-

Contenido

8.

El aprendizaje automático con textos jurídicos...................... 357

8.1. Introducción......................................................................................................................... 357 8.2. La aplicación del aprendizaje automático a los datos textuales........... 358

8.3. Una configuración básica para aplicar el AA a los textos jurídicos.... 359 8.4. Aprendizaje automático para descubrimientos electrónicos................ 364 8.4.1. Las hipótesis de los litigantes en el descubrimiento electrónico............................................................................................................. 365

8.4.2. El proceso de codificación predictiva................................................... 367

8.4.3. La evaluación de la efectividad de la codificación predictiva.. 369 8.4.4. Otras cuestiones abiertas de la codificación predictiva........... 373 8.4.5. El aprendizaje automático no supervisado a partir de los textos.......................................................................................................... 376

8.5. La aplicación del AA a los textos judiciales en el History Project........377 8.5.1. La arquitectura del sistema del History Project..............................378

8.5.2. Algoritmos de AA: las máquinas de respaldo vectorial........... 381

8.5.3. La SVM del History Project ...................................................................... 382 8.6. El aprendizaje automático de estructuras de casos..................................... 384 8.7. La aplicación del AA a los textos legislativos................................................... 385 8.7.1. El análisis legislativo........................................................................................ 386

8.7.2. Una herramienta de AA interactiva para el análisis legislativo.....................................................

387

8.8. Hacia las apps jurídicas de computación cognitiva.......................................390

9.

La

extracción de información de los textos legislativos y regulatorios ................................................................ 393

9.1. Introducción......................................................................................................................... 393 9.2. Una investigación general sobre la extracción de información de textos legislativos.............................................................................................. 395 9.3. La extracción automática de información funcional de las disposiciones legislativas........................................................................................ 398

9.3.1. El aprendizaje automático al servicio de la extracción de disposiciones de tipos funcionales........................................................ 399

-13-

Inteligencia artificial y analítica jurídica

9.3.2. Las reglas de clasificación textual para la extracción de información funcional................................................................................... 401

9.4. AA vs. KE en la extracción de información legislativa...............................402 9.5. La extracción de reglas lógicas a partir de leyes y regulaciones......... 406 9.6. La extracción de requisitos para el diseño de productos compatibles con las leyes.................................................................................. 408

9.6.1. La implementación del cumplimiento normativo mediante regulaciones extraídas................................................................................... 411 9.6.2. Los enfoques semiautomáticos para mejorar la anotación humana tendiente a posibilitar el cumplimiento normativo. 412 9.7. La extracción de información funcional para comparar regulaciones............................................................................................................... 415

9.7.1. El aprendizaje automático para la construcción de redes legislativas.............................................................................................................. 417 9.7.2. La aplicación de un algoritmo de AA para textos legislativos.....................................................................................

419

9.7.3. La evaluación del algoritmo de AA en textos legislativos y el manejo de los datos de entrenamiento dispersos.................423 9.7.4. La aplicación de LUIMA para el enriquecimiento de la representación de textos legislativos.................................................... 425

9.8. Conclusión............................................................................................................................. 427 10. La extracción de información argumentativa DE LOS TEXTOS JUDICIALES [LEGAL CASE TEXTs] .......................... 429

10.1. Introducción...................................................................................................................... 429 10.2. La información argumentativa en los casos judiciales............................. 430 10.3. La extracción de argumentos de las pretensiones jurídicas................ 432 10.3.1. El aprendizaje automático para la clasificación de oraciones como proposiciones, premisas y conclusiones...... 433

10.3.2. La representación de textos..................................................................... 433 10.3.3. La aplicación de algoritmos de aprendizaje estadístico.........434 10.3.4. La gramática argumentativa para la estructura del árbol discursivo............................................................................................................... 438 10.3.5. La identificación de instancias de esquemas argumentativos.... 439

-14-

Contenido

10.4. La extracción de factores jurídicos de naturaleza argumentativa... 442 10.4.1. Tres representaciones para aprender a partir de los textos... 442 10.4.2. ¿Cuán bueno fue el funcionamiento de SMILE?..........................446 10.4.3. La anotación de componentes factoriales........................................447

10.5. La extracción de evidencias tácticas y normas jurídicas citadas..... 448 10.5.1. La aplicación del sistema tipo LUIMA.............................................. 449

10.5.2. La preparación de los casos paradigmáticos [Gold Standard Cases]........................................................................................ 450 10.5.3. LUIMA-Annotate............................................................................................ 451

10.5.4. La evaluación de LUIMA-Annotate.................................................... 456 10.6.

La anotación de datos de entrenamiento.............................................457

10.6.1. La anotación en Debater de IBM........................................................... 458 10.6.2. Los protocolos de anotación....................................................................461

10.6.3. Los entornos de anotación respaldados por computadoras..... 461

Tercera parte LA CONEXIÓN ENTRE LOS MODELOS DE RAZONAMIENTO COMPUTACIONAL Y LOS TEXTOS JURÍDICOS 11.

La recuperación de información jurídico-conceptual PARA LA COMPUTACIÓN COGNITIVA.................................................. 467

11.1 .Introducción...................................................................................................................... 467

11.2. El estado del arte en la IR jurídico-conceptual............................................. 470 11.3. La arquitectura de LUIMA........................................................................................ 471

11.3.1. LUIMA-Search................................................................................................. 471 11.3.2. La reclasificación de documentos mediante LUIMA-Rerank.................................................................................................... 476 11.4. Un experimento para evaluar a LUIMA...........................................................478

11.4.1. Métricas de evaluación............................................................................... 480 11.4.2. LUIMA vs. CLIR..........................................................................

11.5. Continuar transformando la recuperación de información (IR) jurídica en recuperación de argumentos (AR)....................................... 486

-15-

482

Inteligencia artificial y analítica jurídica

11.5.1. La conexión de LARCCS y los sistemas IR..................................... 487 11.5.2. Las consultas por casos con información argumentativa extendida............................................................................................................... 489

11.5.3. Nuevos tipos de anotación jurídica...................................................... 492 11.5.4. Perspectivas para la anotación de tipos jurídicos ampliados o expandidos................................................................................. 499 11.5.5. Suscitando las necesidades argumentativas de los usuarios.... 503 ll.ó.La recuperación de información conceptual a partir de las leyes....... 507

11.6.1. Un sistema tipo para las leyes................................................................. 508

11.6.2. Técnicas en red para la recuperación de información jurídico-conceptual.......................................................................................... 511 11.6.3. La recuperación de información jurídico-conceptual mediante diagramas legislativos en red................................................512 11.7.Conclusión.............................................................................................................................. 516

12. Las apps jurídicas de computación cognitiva................................. 517 12.1 .Introducción.........................................................

517

12.2. Las nuevas apps jurídicas del mercado.............................................................. 518

12.2.1. Ross........................................................................................................................ 519 12.2.2. Lex Machina...................................................................................................... 521 12.2.3. Ravel....................................................................................................................... 521 12.3. Tendiendo puentes entre los textos jurídicos y los modelos computacionales....................................................................................................... 523 12.4. Las apps de computación cognitiva que evalúan hipótesis jurídicas.......................................................................................................................... 523

12.4.1. Un paradigma para las apps jurídicas de computación cognitiva: la evaluación de las hipótesis jurídicas.......................... 524

12.4.2. Hipótesis jurídicas apuntadas................................................................. 526 12.4.3. La operacionalización de hipótesis...................................................... 531

12.4.4. La interpretación de hipótesis................................................................ 533 12.5. Desafíos para las apps jurídicas de computación cognitiva................. 541

12.5.1. Desafíos: La anotación automática de la información jurídica de naturaleza argumentativa..................................................... 543

-16-

Contenido

12.5.2. Desafíos: el manual de anotación para las instancias de entrenamiento............................................................................................... 550

12.5.3. Desafíos: el diseño de la interfaz de las consultas...................... 559 12.6.

La detección de oportunidades para nuevas hipótesis y argumentos...................................................................................................................561

12.7. ¿Qué hacer a continuación?...................................................................................... 566

12.8. Conclusión.......................................................................................................................... 576 Glosario................................................................................................................................................ 577 Bibliografía

.................................................................................................................................. 587

índice analítico............................................................................................................................... 611

17-

Lista de ilustraciones

1.1. Reglas heurísticas que definen las pérdidas y la responsabilidad objetiva (Waterman y Peterson, 1981)..................................................................................................... 41 1.2. RTA para problemas de oferta y aceptación con cuatro estados: (0) no hay relaciones jurídicas relevantes; (1) oferta pendiente; (2) existe contrato; (12) existe contrato y está pendiente la propuesta de modificación (Gardner, 1987, p. 124).............................................................................................................................. 55 1.3. El método heurístico de Gardner para distinguir preguntas jurídicas fáciles y difíciles (Gardner, 1987; Rissland, 1990)...........................................................................59

1.4. Diagrama argumentativo correspondiente a la resolución de Debater de IBM sobre el tópico de videojuegos violentos (nodo raíz) (véase Dvorsky, 2014)...62 1.5. El diagrama representa un argumento jurídico realista que involucra el tópico de los videojuegos violentos.......................................................................................................... 63 1.6. Arquitectura de un analizador textual para documentos legales, incluyendo documentos contractuales. Los casilleros en líneas discontinuas muestran los componentes para el análisis semántico y la recuperación de información conceptual ............................................................................................................................................ 67 2.1. Las versiones normalizadas de dos interpretaciones alternativas de la ley de Louisiana y las reglas Prolog correspondientes (abajo) (Alien y Engholm, 1978).86 2.2. La sección 354 del Internal Revenue Code y una versión normalizada (derecha) (véase Alien y Engholm, 1978)............................................................................ 89 2.3. Diagrama de flujo para la sección 354 proposicionalizada del Internal Revenue Code (véase Alien y Engholm, 1978)...................................................................................... 89

2.4. Las disposiciones de BNA representadas en reglas (Sergot et al., 1986)...................... 94 2.5. El resultado del programa BNA (extractos) (Sergot et al., 1986, p. 376f)................... 97

2.6. Los gráficos normativos que concluyen en la “Legalidad” y el “Consentimiento efectivo” de la sección 4 (1) de la Ley Federal para la Protección de Datos (véase Oberle et al., 2012, pp. 305-6, Figs. 13 y 14)..................................................... 110 2.7. Muestra de un diagrama BPMN de un simple proceso de reclamo de seguro con anotaciones de reglas comerciales (véase la Tabla 2.1) (Koeter et al., 2014, Fig. 2, p. 220)......................................................................................................................... 111

2.8. La red Petri representando un simple problema de asignación de recursos entre un productor y un consumidor (véase Kafura, 2011, p. 8).......................... 119

-19

Inteligencia artificial y analítica jurídica

2.9. Un informe sobre los rastros, reglas y tareas responsables del incumplimiento legal (extractos) (véase Governatori y Shek, 2012)...................................................... 124 2.10. Un diagrama legislativo en red que compara los esquemas legales de Pensilvania (PA) y Florida (FL) sobre las medidas de vigilancia de sus respectivos sistemas públicos de salud ante las emergencias: los círculos representan a los actores y colaboradores del sistema público de salud de FL y PA. Las líneas grises representan las relaciones existentes en ambos Estados; las líneas blancas, por su parte, las relaciones jurídicas que se constatan en PA, pero no en FL (Sweeney et al., 2014).................................................................................................................... 126

3.1. La dimensión Secretos-Divulgados-Extraños en Ashley (1990)...................................... 143 3.2. El argumento de tres capas de tipo Hypo relativo al caso Masón (véase Ashley, 1990)......................................................................................................................147 3.3. El modelo argumentativo de Hypo plasmado en un diagrama de Venn (Ashley, 1990)................................................................................................................................... 148

3.4. Una celosía de reclamo Hypo (Ashley,1990)..............................................................................150

3.5. Ejemplo de un proceso CABARET para analizar Weissman vs. IRS, 751 F. 2d 512 (2d Cir. 1984) (Rissland y Skalak, 1991)........................................................ 153 3.6. La jerarquía de factores de CATO (Aleven, 1997, 2003).......................................................158 3.7. El argumento de CATO minimizando/enfatizando una distinción (Aleven, 2003)................................................................................................

159

3.8. El caso Vaughn representado por una red semántica GREBE (Branting, 1991,1999)................................................................................................................. 159

3.9. GREBE empareja la estructura del caso Vaughn con el problema de Jarek (Branting, 1991,1999)................................................................................................................ 161 3.10. Los casos sobre actividades realizadas “en cumplimiento de tareas laborales” que fueron recuperados por GREBE para el problema de Jarek (Branting, 1991, 1999)163

3.11. Extractos del argumento de GREBE para el problema de Jarek (véase Branting, 1991,1999).....................................................................................................................165 3.12. ¿Qué argumento responde mejor a las preocupaciones teleológicas? (Berman y Hafner, 1993)............................................................................................................ 169

3.13. Una teoría construida a partir de factores y preferencias valorativas (Bench-Capon y Sartor, 2013).................................................................................................. 172 3.14. El argumento como una construcción teórica a partir de prelaciones entre factores y valores (véase Bench-Capon y Sartor, 2003).............................................. 173

4.1. Proyección de casos de impuestos a las ganancias de capital en dos dimensiones (véase Mackaay y Robillard, 1974)............................................................ 182

4.2. Datos sobre decisiones sobre libertad bajo fianza (a) que sirven de base para la construcción de un árbol de decisiones (b)....................................................... 184 4.3. Ejemplos de las características contenidas en la base de datos de la Corte Suprema [S], los puntajes de Segal-Cover [SC] y el diseño de características [FE] (Katz et al., 2014).................................................................................................................. 186 4.4. El modelo de dominio IBP (Ashley y Brüninghaus, 2006)..................................................192

-20

Lista de ilustraciones

4.5. Algoritmo IBP (Ashley y Büninghaus, 2009).............................................................................194 4.6. Ejemplo de la predicción de IBP para el caso MBL................................................................ 195

4.7. IBP vs. otros métodos predictivos: resultados (Ashley y Büninghaus, 2009).......... 196 4.8. Extractos de una teoría aprendida por AGATHA con el caso Masón como situación fáctica actual (Chorley y Bench-Capon, 2005a)......................................... 199 5.1. Un diagrama argumentativo Carneades (Gordon, 2008b, c; Gordon y Walton, 2009; Walton y Gordon, 2009; véase Ashley, 2012).....................................................212 5.2. La deducción clásica (Gordon, 2008b, c; Gordon y Walton, 2009; Walton y Gordon, 2009).................................................................................................................................215 5.3. La deducción clásica no puede probar una proposición y su contraria (véase Gordon, 2008b, c; Gordon y Watson, 2009; Walton y Gordon, 2009).215

5.4. Esquema relativo a argumentos formulados a partir de reglas inferenciales derrotables (véase Gordon, 2008b, c; Gordon y Walton, 2009; Walton y Gordon, 2009)................................................................................................................................ 216 5.5. Argumentos (a favor y en contra) con reglas de inferencia derrotables (Gordon, 2008b, c; Gordon y Walton, 2009; Walton y Gordon, 2009; véase Ashley, 2012)........................................................................................................................ 218

5.6. La deducción clásica (Gordon, 2008b, c; Gordon y Walton, 2009; Walton y Gordon, 2009)................. 219 5.7. El argumento (contrario) basado en casos de Carneades (Gordon, 2008b, c; Gordon y Walton, 2009; Walton y Gordon, 2009; véase Ashley, 2012)........... 221 5.8. El argumento (pro) basado en casos de Carneades (Gordon, 2008b, c; Gordon y Walton, 2009; Walton y Gordon, 2009; véase Ashley, 2012).............................. 222 5.9. El ataque de argumentos según VAF (véase Atkinson y Bench-Capon, 2007, p. 113). 225 5.10. El modelo de dominio PAJV (Gabmair, 2016)......................................................................... 238

S.ll. Los valores protegidos por la ley de secretos comerciales: el derecho de propiedad y el derecho a la confidencialidad de los demandantes (Grabmair, 2016).............................................................................................................................. 243 5.12. Los valores protegidos por la ley de secretos comerciales: el interés público general en la usabilidad de información públicamente disponible y el interés en la competencia justa o leal (Grabmair, 2016)............................................................ 244 5.13. El resultado del programa PAJV para el caso Dynamics (Extractos) (Grabmair, 2016, pp. 59-60).......................................................................................................246 5.14. Estructura enunciativa y argumentativa para razonar sobre un asunto de Reformulación con compensaciones en PAJV (Grabmair, 2016, p. 51) .......... 251 5.15. Un árbol normativo parcial de MLD para fallos sobre vacunas, mostrando tres condiciones causales en el caso Althen (véase Walker et al., 2011)................... 256

5.16. Cadenas de razonamiento extraídas de MLD (extractos) (véase Walker et al., 2011)..........................................................................................................................................258 6.1. Una muestra de la ontología para la formación contractual................................................ 270

6.2. Extractos de la ontología de e-Court que muestran la ampliación de “objeto de razonamiento”, “agente” y “rol jurídico”. Los vínculos son “es un”, a menos

-21-

Inteligencia artificial y analítica jurídica

que se indique lo contrario (véase Breuker y Hoekstra, 2004; Breuker et al., 2004; Van Engers et al., 2008).............................................................................................................. 275 6.3. Ontología en el sistema DALOS (extractos) (véase Francesconi et al., 2010)........ 279 6.4. Modelo de argumentación jurídica con hipótesis (Ashley, 2009b)................................293

6.5. Marco de caso para el Micro-mundo relativo a Intereses-Propietarios-sobrePresas (P: Demandante, D: demandado)............................................................................ 297 6.6. Marco factorial para el Micro-mundo relativo a Intereses-Propietarios-sobrePresas (P: Demandante, D: demandado)........................................................................... 297 6.7. Marco ILC para el Micro-mundo sobre Intereses-Propietarios-sobre-Presas (P=Demandante, D=Demandado)......................................................................................... 302 6.8. Marco de prueba relativo al Micro-mundo de Intereses-Propietarios-sobrePresas (P=Demandante, D=Demandado).......................................................................... 304

6.9. Marco de políticas/valores relativo al Micro-mundo de Intereses-Propietariossobre-Presas (P=Demandante, D=Demandado)............................................................ 304 6.10. La prueba del Juez McCarthy en Popov vs. Hayashi.......................................................... 309 7.1. El modelo del vector-espacial tridimensional........................................................................... 333 7.2. BN para el problema de la familia fuera de casa (véase Cherniak, 1991, p. 52)....336

7.3. Modelo de recuperación de red inferencial (véase Turtle, 1995, p. 33)..................... 338 7.4. La arquitectura de SPIRE (Daniels y Rissland, 1997a)......................................................... 350 7.5. Recuperación relativa a “videocassette” (véase Rose y Belew, 1991)........................ 355

8.1. La arquitectura del sistema del History Project (véase Al-Kofahi et al., 2001)..... 379 8.2. Ejemplos de SVM. Los puntos negros son instancias positivas, los puntos grises instancias negativas y el punto blanco es una instancia “desconocida” (véase Noble, 2006, p. 1566)..................................................................................................... 383 8.3. Herramienta para el análisis legislativo (Savelka et al., 2015)..........................................387

9.1. Muestra de input/output de xmLegesExtractor (Francesconi, 2009, p. 66)........... 398 9.2. Ejemplo de un híper-plano SVM de clases múltiples (véase Francesconi y Passerini, 2007, p. 12)................................................................................................................... 400 9.3. Una muestra de oraciones legislativas anotadas en función de sus partes lógicas: antecedentes < A >, consecuentes < C > y tópicos < T > (Bach et al., 2013)..................................................................................................................................... 407 9.4. Sugerencias terminológicas para la anotación de plantillas (véase Yoshida et al., 2013)....................................................................................................................................... 414 9.5. La partición de la disposición legislativa en fragmentos de un subárbol...................420

9.6. Árbol de decisión para clasificar los textos legislativos como relevantes (reí.) o irrelevantes (irrel.) para el estudio de la Escuela de Salud Pública.............................421 9.7. El diagrama de caja resume los resultados de todos los experimentos en cada una de las tareas correspondientes a Florida (FL). Cada diagrama describe el desempeño en función de una medida F1 dentro de un solo experimento. Las tareas incluyeron la identificación del agente actuante (AA), de la prescripción (PR), de la acción (AC), del objetivo (GL), del propósito (PP), del tipo de emergencia (ET), del agente receptor (RA), de la condición (CN) y del marco temporal (TF) (Savelka y Ashley, 2015).................................................. 425 22-

Lista de ilustraciones

10.1. Extracto de la estructura de un árbol argumentativo extraído automáticamente de un caso (véase Moens et al., 2007, Fig. 5)............................. 439 10.2. Una visión general de SMILE e IBP (véase Ashley y Büninghaus, 2009)................ 445 10.3. Un esquema de LUIMA-Annotate (Grabmair et al., 2015).............................................. 452 10.4. El entorno de anotación de LUIMA............................................................................................... 462

10.5. Una anotación de los factores y componentes de un caso de secretos comerciales mediante el empleo de GATE Teamware (Wyner y Peters, 2010)...... 463

10.6. La anotación de los factores sobre secretos comerciales en el caso Masón realizada por WebAnno (véase Yimam et al., 2013).....................................................464 11.1. La arquitectura del pipeline de LUIMA (Grabmair et al., 2015)................................... 473 11.2. LUIMA-Search: la muestra de una consulta (parte superior) y la entrada de una oración en el índice de la base de datos de Lucene (parte inferior).............. 476 11.3. AP de las versiones LUIMA vs. Línea de Base para once consultas y MAP (Grabmair et al., 2015)..................................................................................................................483

11.4. NDCG de las versiones de LUIMA vs. Línea de Base para once consultas y NDCG promedio (Grabmair et al., 2015)....................................................................... 484

11.5. Consultas sobre casos con proposiciones que desempeñan roles argumentativos particulares (del Dominio V/IP). Los términos en negrita representan los tipos de rol argumentativo de nivel de oración existentes. Los términos en cursiva representan los requisitos normativos....................................... 488 11.6. Consultas sobre factores jurídicos y roles argumentativos (del domino de secretos comerciales). Los términos en negrita representan los tipos de roles argumentativos de nivel de oración más los tipos de factores jurídicos y los tipos valorativos (véase la Sección 11.5.3). Los términos en cursiva representan los requisitos normativos. Los términos en cursiva subrayados representan las políticas o valores legales.......................................................................... 491 11.7. Nuevos tipos de roles argumentativos de nivel de oración.............................................. 495

11.8. La minería argumentativa relativa a la opinión judicial del caso Masón. Las anotaciones (con WebAnno) son: los factores jurídicos sobre apropiación indebida de secretos comerciales, los tipos principales de oración en LUIMA, la proposición/premisa y la proposición/conclusión, y los esquemas argumentativos ............................................................................................................................................502 11.9. Esquema de datos de entrada de consultas. Los nodos representan los sucesivos niveles de un árbol de consulta y de una cadena de razonamiento de estilo DLF. Aquí el usuario busca casos con evidencias y descubrimientos basados en evidencias acerca de que “la vacuna Triple Viral puede causar un desorden convulsivo intratable y la muerte”, en conexión con un fallo judicial sobre el requisito de que “la teoría médica causalmente conecta”, obtenido de la regla Althen sobre la causalidad de hecho.............................................................. 506 11.10. Tipos legislativos generales (izquierda) y específicos (derecha) de un dominio.................................................................................................................................... 509

11.11. Consultas conceptuales legislativas provenientes del dominio de Emergencias de Salud Pública.................................................................................................. 510

-23-

Inteligencia artificial y analítica jurídica

11.12. La red legislativa de Texas según LENA (Ashley et al., 2014)11.7........................... 515 12.1. Dos plantillas para las hipótesis jurídicas apuntadas.......................................................... 528 12.2. Una muestra de las hipótesis jurídicas a las que las apps jurídicas de computación cognitiva deberían apuntar (a partir del dominio de apropiación indebida de secretos comerciales)...........................................................................................529

12.3. Una muestra de las hipótesis jurídicas a las que las apps jurídicas de computación cognitiva deberían apuntar (a partir del dominio de lesiones por vacunas)........................................................................................................................................529 12.4. Árbol RST para un fragmento del caso Masón que muestra parte de la información atributiva.................................................................................................................. 547

12.5. Entorno de anotación para estudiantes de abogacía de primer año............................555

-24

Lista de tablas

2.1. De los textos regulatorios, pasando por las reglas de negocio y las anotaciones de procesos de negocio (véase la Figura 2.7), hasta los formatos en lógica de predicados (Koetter et al., 2014, p. 220)............................................................................. 113

3.1. Factores de secretos comerciales (Aleven, 1997).....................................................................155 5.1. Los factores jurídicos y los precedentes relacionados con la dificultad excesiva (véase Gordon, 2008b, c; Gordon y Walton, 2009; Walton y Gordon, 2009)...... 220 5.2. Algunos estándares de prueba en Carneades (Gordon y Walton, 2006) y sus contrapartes jurídicas (Weiss, 2003; Feller, 2015)........................................................ 233

5.3 ¿Pueden los MCAJ actuar como un puente entre los textos jurídicos y las respuestas buscadas por los seres humanos?................................................................... 260 6.1. Tres marcos ontológicos para la norma jurídica, el concepto y el acto jurídico con rellenos de ranuras para la regulación de bibliotecas (véase Van Kralingen et al., 1999, pp. 1135-8, 1150-3)............................................................................................. 277 6.2. Muestra de un diálogo socrático de naturaleza jurídica en un micro-mundo con movimientos argumentativos (P: Demandante, D: Demandado) (Ashley, 2009a, 2011)............................................................................................................................... 289

6.3. Los casos correspondientes al Micro-mundo de Intereses-Propietariossobre-las-Presas-Salvajes (P: demandante, D: demandado). Las abreviaturas factoriales se definen más abajo, en la Tabla 6.4 (Ashley, 2009a, 2011)........... 294 6.4. Factores y políticas en el Micro-mundo relativo a Intereses-Propietarios-sobrePresas (P=Demandante, D=Demandado) (Ashley, 2009a, 2011)......................... 298

6.5. Pruebas propuestas en el Micro-mundo relativo a Intereses-Propietarios-sobrePresas (P=Demandante, D=Demandado) (Ashley, 2009a, 2011)......................... 303 6.6. El sistema tipo LUIMA: los Tipos de Nivel de Oración, Formulación, Mención y Término ........................................................................................................................................ 315 6.7. El sistema tipo LUIMA: Tipos de nivel de oración.................................................................. 317 7.1. Modelo de índice invertido............................................................................................

330

8.1. Matriz de confusión para tres clases de roles preposicionales (parte superior). Las tres tablas de confusión de abajo muestran el total de verdaderos positivos (TP), verdaderos negativos (TN), falsos positivos (FP) y falsos negativos (FN) para cada clase............................................................................................................................................... 364

-25-

Inteligencia artificial y analítica jurídica

9.1. Problemas relativos a la clasificación de disposiciones legislativas presentados a los enfoques de AA y KE (de Maat et al., 2010)......................................................... 404 10.1. Algunos esquemas argumentativos anotados automáticamente (Feng y Hirst, 2011).................................................................................................................... 441 10.2. Las medidas de desempeño en la clasificación de oraciones (los valores más altos se destacan en negrita).........................................................................................457 11.1 Once consultas ingresadas en el sistema CLIR (Grabmair et al., 2015).................. 474

11.2. Información presuposicional en dos dominios de demandas jurídicas.................. 498 11.3. Consulta estructurada traducida de “Hallazgo o conclusión de que la vacuna Triple Viral causa un trastorno convulsivo intratable”............................................. 504 12.1. Ejemplos de las razones probatorias de DLF en las decisiones de los peritos judiciales (izquierda) y las posibles políticas y principios subyacentes (derecha) ........................................................................................................................................ 542

-26

Reconocimientos

a Escuela de Derecho de la Universidad de Pittsburgh apoyó la redacción de este libro gracias al otorgamiento de unas becas estivales del Decanato. Las notas y borradores de este libro evolucionaron en el transcurso de una estancia de docencia en el marco del programa doctoral Erasmus Mundus en Derecho, Ciencia y Tecnología de la Universidad de Bologna, una oportuni­ dad por la cual estoy agradecido a la Profesora Monica Palmirani. Vern Walker, Jaromir Savelka y Thomas Gordon leyeron borradores previos y formularon valiosas sugerencias, por lo que también estoy a ellos agradecido. Por su lectura cuidadosa y sus reflexivas sugerencias, siento una gratitud especial por quien antes fuera mi estudiante de doctorado y hoy es mi colega de investigación, Matthias Grabmair. El trabajo de Matthias en la analítica de textos jurídicos y en la predicción y argumentación basada en casos, así como su trabajo y el de Jaromir en la aplicación del aprendizaje automático a la legislación, me convencieron de que ya era hora de escribir este libro. Asesorar a Matthias, colaborar con él y aprender de él han sido unos de los mayores regocijos de mi vida profesional como docente. Nunca hubiera tenido una vida profesional como docente, y nunca hubiera terminado este libro, sin el amor y apoyo cons­ tante de mi esposa Alida. Nuestra hija Alexandra, quien continúa sonriéndonos mientras trabajamos con ardor en nuestra investigación y escritura, fue de gran ayuda en la selección del arte gráfico utilizado en la cubierta.

L

27-

PARTE I MODELOS COMPUTACIONALES DE RAZONAMIENTO JURÍDICO

1 Una introducción a Inteligencia Artificial y Derecho (IA & Derecho) y su futuro rol en la práctica jurídica

1.1. INTRODUCCIÓN nteligencia Artificial y Derecho (IA & Derecho) [AI & Law], un campo de estudio constituido en la década de 1980, aunque con antecedentes en décadas anteriores, está a punto de experimentar una revolución. Equipos de especialistas en Búsqueda de Respuestas (BR) [question answeríng - QA], Extracción de Información (El) [Information extraction - IE] y minería de argumentación textual [argument mining from text] plantaron las semillas de esta revolución mediante programas como Watson y Debater, de IBM, y los diseños para administrar información de dominio público en los que esos programas se basan. A partir de estas semillas, seguramente se desarrollarán nuevas aplicaciones para el ámbito jurídico. De hecho, ellas se están gestando en la actualidad. Este libro explica de qué manera.

I

Programas como Watson y Debater no serán capaces de argumentar ju­ rídicamente. Ellos pueden llegar a responder preguntas jurídicas en un sentido superficial, pero no pueden explicar sus respuestas o construir razonamientos jurídicos. No obstante, las herramientas para analizar textos de dominio pú­ blico en las que ellos se basan tendrán un impacto profundo en el desarrollo de nuevas aplicaciones jurídicas. Tales herramientas identificarán aquella información de naturaleza argumentativa contenida en los textos jurídicos que permita que la recuperación de información jurídica se transforme en un nuevo tipo de recuperación conceptual: la recuperación de argumentos (RA) [argument retrieval - AR]. -31-

Kevin D. Ashley

Los modelos computacionales desarrollados por los especialistas en IA & Derecho serán capaces de argumentar jurídicamente. La información de naturaleza argumentativa que novedosamente se extraiga conectará los mode­ los computacionales de razonamiento jurídico (MCRJ) [computational models of legal reasoning - CMLR] directamente con los textos legales. Los modelos pueden generar argumentos a favor y en contra de ciertas soluciones para de­ terminadas controversias legales, predecir una solución para una controversia y explicar sus predicciones con razones que los profesionales del mundo jurídico podrán reconocer y evaluar por sí mismos. El resultado será una clase nove­ dosa de aplicación jurídica [legal app] que facilite la computación cognitiva, una suerte de actividad colaborativa entre seres humanos y computadoras en la que cada parte lleve a cabo aquellas actividades inteligentes en las que se desempeñe mejor. Este capítulo introduce el objeto de IA & Derecho y explica el rol que desempeñará a la luz de las nuevas tecnologías disponibles para analizar textos jurídicos. Explica cómo estas tecnologías habilitan nuevas herramientas para la práctica jurídica que se valen de modelos computacionales de razonamiento y argumentación legal desarrollados por especialistas en IA & Derecho.

Algunas de las preguntas aquí tratadas incluyen las siguientes: ¿cuál es el objeto de IA & Derecho? ¿Qué es un modelo computacional de razona­ miento jurídico (MCRI)? ¿Cuáles son las nuevas tecnologías para la Búsqueda de Respuestas (BR), la Extracción de Información (El) y la minería de argu­ mentación textual? Dadas estas tecnologías, ¿qué roles desempeñarán IA & Derecho, MCRI y la argumentación? ¿De qué hablamos cuando nos referimos a la recuperación de información conceptual y a la computación cognitiva, y qué clase de aplicación (app) jurídica les servirá de respaldo?

1.2. IA & DERECHO Y LA PROMESA DE LA ANALÍTICA TEXTUAL El objetivo de gran parte de las investigaciones en IA & Derecho ha consistido en desarrollar modelos computacionales de razonamiento jurídico (MCRI) capaces de formular argumentos jurídicos que sirvan para predecir soluciones a controversias legales. Un MCRI es un programa informático que implementa un proceso destinado a evidenciar las propiedades del razona­ miento jurídico practicado por los seres humanos. El proceso puede implicar el análisis de una situación y la respuesta a una pregunta jurídica, la predicción de un resultado o incluso la formulación de un argumento jurídico. Un subconjunto de MCRI implementa un proceso de argumentación jurídica como parte de su -32-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

razonamiento. Tal cosa es lo que hacen los modelos computacionales de argu­ mentación jurídica (MCAJ) [computational models of legal argument - CMLA]. Tanto los MCRJ como los MCAJ simplifican una tarea intelectual altamen­ te compleja para el hombre, como estimar el valor a liquidar en una demanda por responsabilidad por un producto o analizar un problema de oferta y acep­ tación durante el primer año de un arreglo contractual, descomponiéndola en un conjunto de pasos informáticos o algoritmos. Los modelos especifican cómo insertar un problema y la clase de solución jurídica que se obtiene como resultado. En el medio, sus constructores han diseñado un mecanismo computacional destinado a aplicar el conocimiento del área para completar los pasos y transformar un insumo [znpi/t] en un resultado [output].

Al desarrollar estos modelos, los investigadores lidian con problemas tales como el modo en que debe ser representado el significado de una norma jurídica para que un programa informático pueda resolver si se aplica o no a una situación específica, cómo distinguir un caso fácil de uno difícil o cuá­ les son los roles que la jurisprudencia y la valoración desempeñan a la hora de interpretar las normas jurídicas. Sus respuestas a estas preguntas no son filosóficas sino científicas; sus programas computacionales no sólo modelan tareas de razonamiento jurídico, sino que también se encargan de realizarlas; y los investigadores realizan experimentos con el fin de evaluar el desempeño de sus programas.

Mientras los especialistas en IA & Derecho han efectuado grandes avan­ ces, un cuello de botella cognoscitivo ha impedido que su progreso contribuya a la práctica jurídica. Hasta ahora, el conocimiento jurídico substantivo em­ pleado por sus modelos computacionales debió ser extraído manualmente de las fuentes legales, esto es, de los casos, leyes, regulaciones, contratos y otros textos utilizados por los profesionales del Derecho. Es decir, han sido expertos de carne y hueso quienes han tenido que leer los textos legales y representar las partes relevantes de su contenido de una forma que pudiera ser usada por los modelos computacionales. Una incapacidad para conectar automáticamente los modelos computacionales de argumentación jurídica con los textos legales ha limitado entonces la posibilidad de que los programas existentes se apliquen para recuperar información jurídica del mundo real, así como para predecir y arribar a soluciones concretas. Desarrollos recientes en Búsqueda de Respuestas (BR), Extracción de Información (El) y minería de argumentación textual prometen modificar ese panorama. “Un sistema de búsqueda de respuestas inspecciona una amplia col­ ección de textos y halla una pequeña oración o frase que precisamente responde

-33-

Kevin D. Ashley

la pregunta de un usuario” (Prager et al., 2000). “La extracción de información es el problema de resumir los detalles esenciales que son característicos de un documento determinado” (Freitag, 2000). La minería de argumentación textual implica identificar automáticamente estructuras argumentativas en el interior de ciertos documentos, como las premisas y la conclusión, digamos, así como las relaciones existentes entre parejas de argumentos (ACL-AMW, 2016). Las tres tecnologías por lo general descansan, al menos en parte, en el aprendizaje automático (AA) [machine learning - ML], que asiste de este modo a los programas en el procesamiento de la información semántica disponible en los textos.

Un término más general para invocar estas técnicas, a saber: analítica textual o minería textual, “refiere al descubrimiento de información que puede encontrarse en archivos textuales... Describe un conjunto de técnicas lingüísti­ cas, estadísticas y de aprendizaje automático que modelan y estructuran el contenido informativo de fuentes textuales al servicio de la inteligencia empre­ sarial, el análisis exploratorio de datos, el estudio o la investigación” (Hu y Liu, 2012, pp. 387-8). Cuando los textos a ser analizados son jurídicos, podemos hacer referencia a la “analítica de los textos jurídicos”, o, dicho de manera más simple, a la “analítica jurídica”, mediante la que se obtiene “una comprensión sustancialmente significativa extraída de algunos datos jurídicos”, incluyendo los datos que se hallan en los textos legales (Katz y Bommarito, 2014, p. 3). Las técnicas de la analítica textual pueden abrir el cuello de botella co­ gnoscitivo que durante tanto tiempo impidió el progreso en el desarrollo de aplicaciones jurídicas inteligentes. En lugar de confiar solamente en técnicas manuales para representar lo que los textos legales dicen de modo tal que esto pueda ser usado por los programas, los investigadores pueden automatizar el proceso cognoscitivo de representación.

Como resultado, algunos MCRJ y algunos MCAJ podrían vincularse pronto con herramientas de análisis textual para posibilitar la construcción de una nueva generación de aplicaciones jurídicas y algunas herramientas nove­ dosas para la práctica profesional del derecho. Específicamente, los modelos desarrollados en el campo de IA & Derecho emplearán información extraída automáticamente de los textos legales, como algunos fallos y estatutos, para asistir a los seres humanos a la hora de resolver disputas legales, predecir solu­ ciones para un caso, proporcionar explicaciones y confeccionar argumentos a favor y en contra de conclusiones jurídicas, de modos más eficientes que los actualmente permitidos por la tecnología.

34-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

De manera complementaria, los programas de IA & Derecho pueden proporcionar respuestas a preguntas que probablemente están en las mentes de los tecnólogos que trabajan para laboratorios comerciales y start-ups: ahora que podemos extraer información semántica automáticamente de los textos legales, ¿qué pueden hacer con ella los programas informáticos? ¿Y qué tipo de información exactamente debería ser extraída de las leyes, las regulaciones y los fallos? Los modelos computacionales de razonamiento jurídico (MCRJ) demuestran cómo las nuevas herramientas de procesamiento textual pueden adaptarse a las estructuras del conocimiento jurídico y ser usadas para asistir a los seres humanos en el desempeño práctico de tareas jurídicas. Algunos MCRJ y algunos MCAJ pueden ser útiles para que los programas de inteligencia artificial avanzados hagan un uso inteligente de los recursos legales. Ciertamente, la información extraída será usada para mejorar la re­ cuperación de información jurídica, contribuyendo a que los profesionales jurídicos se focalicen con mayor rapidez en la información relevante. Sin em­ bargo, ¿qué más podría esperarse? ¿Las computadoras pueden razonar a partir de la información extraída de los textos legales? ¿Podrían ayudar a los usuarios a plantear y tantear hipótesis jurídicas, a construir argumentos jurídicos o a predecir soluciones para disputas legales?

Las respuestas parecen ser decididamente afirmativas, por más que la cantidad de trabajo investigativo que todavía queda por delante antes de que las nuevas aplicaciones jurídicas demuestren todo su potencial sea considerable. De hecho, de eso se trata este libro: de mostrar cómo debería conducirse ese trabajo investigativo. Este libro también pretende asistir a los operadores y a otras personas en esta tarea, así como en la utilización de las aplicaciones jurí­ dicas resultantes. Esto incluye a firmas comerciales interesadas en desarrollar nuevos productos y servicios basados en estos modelos, así como a agencias públicas interesadas en modernizar sus procesos de trabajo.

1.3.

NUEVOS PARADIGMAS PARA UNA TECNOLOGÍA INTELIGENTE EN LA PRÁCTICA JURÍDICA

La tecnología de la práctica jurídica está cambiando rápidamente. La codificación predictiva está transformando el arte de litigar. Start-ups como Ravel (Ravel Law, 2015a), Lex Machina (Surdeanu et aL, 2011) y Ross, basada en Watson (Ross Intelligence, 2015) (véanse las secciones 4.7 y 12.2), están ganando centralidad y muchos estudios jurídicos se están incorporando a sus listas de suscriptores. Estos y otros desarrollos en la analítica textual ofrecen -35-

Kevin D. Ashley

nuevos modelos de procedimientos y nuevas herramientas para ofrecer ser­ vicios legales, prometiendo una mayor eficiencia y, posiblemente, una mayor accesibilidad pública. Estos cambios presentan desafíos y oportunidades para los jóvenes abogados y los científicos informáticos, aunque no ha sido sencillo predecir el futuro de la práctica jurídica. Los estudios jurídicos se vienen negando a incorporar personal y esto ha reducido el número de aplicaciones en las facultades de derecho. Quienes se postulan para ingresar en ellas sopesan las chances de un empleo lucrativo en contra del monto de un préstamo es­ tudiantil, lo que los invita a evaluar otras opciones. Hay incertidumbre sobre las tareas de naturaleza jurídica que la tecnología puede desarrollar. Luego de citar predicciones periodísticas, académicas y comerciales del “inminente y extendido desplazamiento de los abogados a causa de las computadoras”, Remus y Levy argumentan de manera persuasiva que las predicciones “pasan por alto detalles técnicos...críticos para entender los tipos de tareas abogadiles que las computadoras pueden y no pueden desarrollar. Por ejemplo, por qué la revisión documental que tiene lugar en la práctica del discovery o descubrimiento* se presta más a la automatización que la revisión que tiene lugar en el trabajo de debida diligencia empresarial, y por qué la automatización de... las historias deportivas no sugiere una inminente automatización de la redacción jurídica” (Remus y Levy, 2015, p. 2).1*

Nota del traductor: como bien señala Cristian Gual Gray (al respecto, véase “Breves apun­ tes sobre el discovery”, Actualidad Jurídica Uría Menéndez, 29-2011, en: https://www. uria.com/documentos/publicaciones/3080/documento/articuloUM.pdf?id=2994), el discovery es una figura paradigmática del Derecho procesal de los países del common law que no tiene un equivalente en lengua castellana, pues la palabra ‘descubrimiento’, que sería su traducción literal, es muy poco sugerente. En todo caso, bastará por el momento con entender que ella hace referencia al “conjunto de actos procesales que tiene por objeto la obtención de información, principal pero no únicamente de carácter fáctico, para la mejor determinación de las posiciones de las partes en un determinado proceso judicial” (ibíd., p. 115). Aunque a lo largo de esta traducción se empleará por lo general la palabra castellana ‘descubrimiento’, como cuando se aluda al ‘descubri­ miento electrónico’, en ocasiones se acudirán a algunas paráfrasis. Ese será el caso, sin ir más lejos, cada vez que ‘discovery’ haga referencia a las obligaciones y potestades probatorias de las partes en la etapa de instrucción que precede a un juicio. Mientras estoy de acuerdo con que estas predicciones en torno al desplazamiento de los abogados son exageradas, Remus y Levy han subestimado en demasía las investiga­ ciones de IA & Derecho registradas en este libro, investigaciones que permitirán que la recuperación de argumentos (RA) y la computación cognitiva asistan a los abogados en la práctica jurídica. -36-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

Tampoco es claro qué deberían aprender los estudiantes de derecho so­ bre la tecnología. Durante mucho tiempo los estudios jurídicos reclamaron por estudiantes preparados para el ejercicio profesional, pero incluso los estudios parecen confundidos acerca de los tipos de tecnologías a incorporar, como así también acerca de si esa tecnología debería ser desarrollada por ellos mismos y no por proveedores externos, o acerca de las habilidades y el conocimiento que mejor prepararían a los estudiantes de derecho a fin de evaluar y utilizar las nuevas tecnologías.

Williams Henderson, un profesor de la Facultad de Derecho de la Uni­ versidad de Indiana, ha sostenido que la ingeniería de procesos legales ha cambiado la práctica jurídica y seguirá haciéndolo, para lo que se requerirá que las facultades de derecho enseñen a sus estudiantes habilidades en in­ geniería de procesos.

Debido al énfasis en el proceso y en la tecnología que hoy se constata en el interior de la industria jurídica, las habilidades técnicas y el conocimiento del área (que hoy se enseñan) pueden ser inadecuados para una gran proporción de los estudiantes de derecho que se gradúen en el 2015... [los estudiantes] ...no están preparados para aprender que el derecho tiene menos que ver hoy con los juicios por jurados y la incidencia de los tribunales que con la ingeniería de procesos, la codificación predictiva y las habilidades colaborativas y técnicas que esos procesos implican (Henderson, 2013, pp. 505f).

La ingeniería de procesos (o “reingeniería”) ha sido definida en la literatura sobre negocios y gestión de la información como un “proceso de cambio”, [cuyo] objetivo consiste en aportar ganancias rápidas y sustan­ ciales en el rendimiento organizacional por medio de un rediseño del núcleo del proceso comercial, [satisfaciendo] una necesidad de acelerar el proceso, reducir los recursos necesarios, mejorar la productividad y la eficiencia, y mejorar la competitividad (Attaran, 2004, p. 585).

La tecnología de la información (TI) ha sido denominada “la tecnología más efectivamente propicia” para esa reingeniería del proceso comercial, esta­ bleciendo “una comunicación sencilla, mejorando el rendimiento del proceso” y contribuyendo a “un esfuerzo de reingeniería por modelar, optimizar y medir sus consecuencias” (Attaran, 2004, p. 595).

-37-

Kevin D. Ashley

Henderson enfatiza el rol que la ingeniería de procesos ha cumplido en la evolución del trabajo legal, un concepto que él toma del libro The End of Lawyers?, de Richard Susskind, para quien el trabajo legal, de ser personalizado (o hecho a medida), está evolucionando para adoptar un formato estanda­ rizado, sistematizado, empaquetado y, en última instancia, mercantilizado [commoditized]: Estos cambios se ven posibilitados por la identificación de patro­ nes recursivos en formularios legales y opiniones judiciales, lo que permite el uso de procesos y tecnología capaces de ofrecer soluciones muy baratas y de muy alta calidad a la miríada de ne­ cesidades legales. El trabajo intensivo que tradicionalmente fue realizado en los Estados Unidos por los graduados en derecho recién egresados... hoy está siendo realizado por graduados de la India [que trabajan para subcontratistas especializados en proce­ sos legales], quienes están aprendiendo cómo diseñar y operar procesos destinados a extraer información útil de grandes masas de textos digitales. No sólo los graduados en derecho de la India se están quedando con los empleos disponibles, sino que están aprendiendo habilidades valiosas que brillan por su ausencia en las facultades de derecho de los Estados Unidos (Henderson, 2013, pp. 479, 487).

Al poner el foco en el uso de procesos y tecnologías para diseñar métodos económicamente más eficientes para arribar a soluciones jurídicas, Henderson concuerda con Susskind en que la mercantilización [commoditization] constituye la culminación de esta evolución del trabajo legal. Una mercancía jurídica... es un paquete u ofrecimiento Online o electrónico que se le facilita al usuario final para su uso directo, a menudo bajo la premisa de “Hágalo usted mismo”. La palabra “mercancía” en el contexto jurídico [hace referencia] a sistemas de tecnología de la información... [que permanecen] indiferen­ ciados en el mercado (indiferenciados en la mentalidad de los clientes, no en la de quienes proporcionan el servicio). Por cada mercancía, bien puede que haya productos en competencia muy similares (Susskind, 2010, p. 31ff).

En otras palabras, el resultado de la mercantilización jurídica es un producto o servicio de software que cualquiera puede adquirir, descargar y usar para resolver problemas legales sin contratar a un abogado, o, en la jerga habitual, un tipo de aplicación jurídica computarizada, una “app jurídica”.

-38-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

1.3.1. El paradigma anterior: los sistemas legales expertos Ambos conceptos, la ingeniería de procesos y la mercantilización, plan­ tean preguntas interesantes. Si la ingeniería de procesos de los servicios legales está repensando cómo proporcionar soluciones “muy baratas y de muy alta calidad”, ¿quién o qué se hará responsable de adaptar esas soluciones al pro­ blema particular de un cliente? Si, como Susskind sostiene, la mercantilización significa “Hágalo usted mismo”, ¿implica eso que el cliente queda librado a su propia suerte? En otras palabras, ¿qué tipo de apoyo proporciona la app jurídica? En particular, ¿puede la app jurídica alcanzar algún nivel de personalización? Hasta no hace mucho tiempo, el modelo computacional paradigmático para diseñar una app jurídica habría sido un sistema legal experto. Como los define el propio Susskind, quien desarrolló en su momento un sistema legal experto pionero,

los “sistemas expertos” son aplicaciones computacionales que contienen representaciones de conocimiento y experiencia... que pueden aplicar —como lo hacen los seres humanos— a la hora de resolver problemas, ofrecer consejos y cumplir una variedad de tareas diferentes. En el derecho, la idea es usar la tecnología computacional para que la experiencia y el conocimiento, dos atributos escasos, se vuelvan más ampliamente disponibles y de fácil acceso (Susskind, 2010, p. 120f).

Típicamente, los sistemas legales expertos lidian con áreas reducidas del mundo jurídico, pero tienen el conocimiento y la experiencia suficientes en el dominio reducido como para recomendarle a su cliente que formule pre­ guntas pertinentes sobre su problema, como para personalizar su respuesta basándose en las interacciones con el susuario y como para explicar sus razones. Su experiencia incluye una heurística que los operadores habilidosos utilizan cuando aplican reglas jurídicas a hechos específicos. Esta heurística está conformada por “reglas básicas”, frecuentemente útiles, aunque sean in­ suficientes para garantizar la obtención de un resultado correcto (Waterman y Peterson, 1981).

Las reglas son representadas en un lenguaje declarativo que especifica sus condiciones y su conclusión. Ellas son derivadas a través de un proceso de adquisición cognoscitiva fundamentalmente manual: consultar manualmente a expertos humanos, presentarles escenarios problemáticos, invitaros a resolver los problemas y preguntarles qué reglas los expertos aplicaron al momento de analizar el problema y arribar a una solución (Waterman y Peterson, 1981).

39-

Kevin D. Ashley

El sistema experto de Waterman sobre responsabilidad por productos El sistema legal experto de Don Waterman (W-LES, por sus siglas en inglés) constituye un clásico ejemplo de los años 80 de un MCRJ que desa­ rrolló un razonamiento jurídico automático, por limitado que fuera, sobre un problema práctico. Proporcionaba recomendaciones para la solución de controversias en disputas sobre responsabilidad por productos (Water­ man y Peterson, 1981). Los insumos [inputs] de los que se alimentaba W-LES consistían en descripciones de disputas sobre responsabilidad por productos. Como resultados [outpurs], W-LES recomendaba valores de liquidación y explicaba sus análisis.

Las recomendaciones de W-LES sobre cómo dirimir una disputa legal y por qué monto hacerlo estaban basadas en reglas heurísticas, incluyendo reglas ajustadoras de reclamos y “enunciados formalizados de la doctrina jurídica de California sobre responsabilidad por productos, tal como constaba en las leyes, las opiniones de los tribunales y los tratados legales” (Waterman y Peterson, 1981, p. 15). La Figura 1.1 ilustra el programa de reglas heurísticas que define tres clases de pérdidas y la demanda sobre responsabilidad objetiva.

W-LES se encargaba de procesar mecánicamente una situación fáctica apelando a estas reglas heurísticas mediante un tipo de razonamiento delantero o encadenamiento hacia delante [forward chaining]. Su motor de inferencias se desplazaba a través de las reglas, evaluando si se producía algún “disparo”, esto es, si las condiciones de una regla eran satisfechas por los hechos incor­ porados en la base de datos que representaban el problema en ciernes. Si así era, entonces la regla aplicable se disparaba y sus consecuencias deductivas eran incorporadas a la base de datos. El motor de inferencias se desplazaba repetidamente a través de las reglas hasta que ninguna otra regla pudiera aplicarse.

[REGLA 3.1: DEFINICIÓN DE [REGLA 4: DEFINICIÓN DE RESPONSABILIPÉRDIDA] DAD OBJETIVA]

si el tipo de pérdida del deman- SI (el demandante es lesionado por el producto dante es una “lesión” o (el demandante representa a la víctima faENTONCES entiéndase que el detal y la víctima fatal ha sido matada por el mandante ha sido lesionado por el producto) producto o la propiedad del demandante ha sido dañada por el producto)

-40

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

[REGLA 3.2: DEFINICIÓN DE PÉRDIDA]

y no se aplica la defensa por venta acci­ dental

si el tipo de pérdida del deman­ dante es una “víctima fatal”

y (el producto es fabricado por el deman­ dado

ENTONCES entiéndase que el de­ mandante representa a la víctima fatal y que la víctima fatal ha sido matada por el producto

o el producto es vendido por el demandado o el producto es alquilado por el deman­ dado)

y el demandado es responsable por el uso del producto

[REGLA 3.3: DEFINICIÓN DE PÉRDIDA]

y (California es la jurisdicción en la que debe dirimirse el caso

si el tipo de pérdida del deman­ dante es un “daño a la propiedad”

o el usuario del producto es la víctima

ENTONCES entiéndase que la propiedad del demandante ha sido dañada por el producto

o el comprador del producto es la víctima) y el producto es defectuoso al momento de venderse y (el producto no sufre cambios entre su fab­ ricación y su venta

o (la expectativa del demandado es que “el producto no sufre cambios entre su fabri­ cación y su ventay la expectativa del demandado es razonable y debida))

ENTONCES entiéndase que la teoría de la re­ sponsabilidad se aplica a la pérdida del deman­ dante

Figura 1.1. Reglas heurísticas que definen las pérdidas y la responsabilidad objetiva (Waterman y Peterson, 1981)

Idealmente, al final del proceso, las reglas cuyas conclusiones repre­ sentaban una solución para el problema se habrían disparado exitosamente, aportando una predicción y un diagnóstico (o, en otros sistemas legales ex­ pertos, la selección y el relleno del formulario legal relevante). La explicación del resultado consiste en un “registro de auditoría” o rastreo a través de las reglas que se dispararon y las condiciones satisfechas que posibilitaron esos disparos (Waterman y Peterson, 1981). Otros sistemas expertos aplicaron reglas por medio de un encadenamien­ to hacia atrás [backward chaining]. El motor de inferencias comienza con un conjunto de metas prefijadas, selecciona una y se desplaza a través de la base de datos de reglas (y hechos) en la búsqueda de una regla cuya conclusión sea

-41

Kevin D. Ashley

la meta a alcanzar. Luego, añade las condiciones de esa regla al conjunto de metas prefijadas y repite el ciclo hasta que todas las metas sean satisfechas, o hasta que no haya más reglas (o hechos) con los que satisfacer las metas restantes (Sowizral y Kipps, 1984, p. 3). Waterman enfrentó tres limitaciones de diseño al momento de desa­ rrollar sistemas legales expertos: reglas jurídicas que varían de jurisdicción en jurisdicción; reglas jurídicas que emplean conceptos jurídicos mal definidos; e inferencias probatorias inciertas.

En primer lugar, las reglas jurídicas sobre responsabilidad por productos son diferentes en cada Estado. Mientras algunos Estados aplican la regla de la negligencia contribuyente, otros aplican la regla de la negligencia compa­ rativa. Si se aplica la primera regla, la negligencia del demandante elimina la responsabilidad. Si se aplica la segunda, la negligencia del demandante reduce proporcionalmente lo que puede recuperar. Waterman enfrentó este problema mediante la representación de múltiples reglas estatales, permitiéndoles a los usuarios especificar qué reglas aplicar a fin de demostrar las diferencias en los resultados. En segundo lugar, las reglas jurídicas empleaban algunos conceptos sin definirlos (i.e., “términos imprecisos”, en la jerga de Waterman), tales como “razonable y debido” o “previsible” (Waterman y Peterson, 1981, p. 18). Wa­ terman consideró un número de posibles soluciones, como proporcionar más “reglas tendientes a describir de qué manera un término impreciso fue usado previamente en ciertos contextos”, desarrollar “descripciones sintéticas de instancias en las que el término impreciso se hubiera usado previamente” para dejar que el usuario decida, comparar “casos previos en los que el término se aplicó, y proporcionar una estimación numérica que indicara la certeza de que la regla ...se aplicara... A fin de cuentas, él se inclinó por hacer que el sistema le preguntara al usuario si el término se aplicaba” (Waterman y Peterson, 1981, p. 26).

En tercer lugar, los litigantes no están seguros sobre cómo probar cues­ tiones de hecho ni sobre la doctrina jurídica aplicable. Entre las sugerencias de Waterman estaban la de incorporar las incertidumbres como premisas adi­ cionales dentro de cada regla, o la de tratar las incertidumbres como una regla separada del resto, lista para ser aplicada luego de considerar las reglas restantes. Los usuarios “considerarían un caso con independencia de la ...incertidumbre, alcanzarían una conclusión tentativa y luego ajustarían esa conclusión a partir de un factor probabilístico que representara su nivel general de incertidumbre sobre el caso” (Waterman y Peterson, 1981, p. 26).

-42-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

Los sistemas legales expertos más modernos

Aunque ya no sean el paradigma imperante, los sistemas legales expertos todavía se usan ampliamente en un determinado número de contextos. Neota Logic provee herramientas para que los estudios jurídicos, los departamentos de derecho y los estudiantes de abogacía construyan sistemas legales expertos. Su sitio web ofrece ejemplos de asesorías computarizadas sobre cuestiones tales como la Ley de Prácticas Corruptas en el Extranjero (FCPA, por sus siglas en inglés), los riesgos de corrupción bancaria en transac­ ciones internacionales y la Ley de Licencia por Razones Médicas y Familiares (FMLA, por sus siglas en inglés) (Neota Logic, 2016) (véase la sección 2.5.1). El Centro para la Instrucción Jurídica Asistida por Computación (CALI, por sus siglas en inglés) y el Centro Jurídico para el Acceso a la Justicia y la Tecnología del IIT Chicago-Kent College, supervisado por el profesor Ron Staudt, proveen una herramienta basada en el web para los sistemas expertos de autor. Mediante la herramienta, personas con habilidades jurídicas que no sean programadoras pueden crear sistemas expertos llamados A2J Guided Interviews® que conducen a los litigantes autorrepresentados a través de un proceso legal que culmina en la producción de un documento legal a ser pre­ sentado ante los tribunales (A2J, 2012).

Como se discutirá en la sección 2.5, los estudios utilizan sistemas ad­ ministrativos con reglas comerciales similares a las que aplican los sistemas expertos para monitorear si sus procesos se adecúan a las regulaciones rele­ vantes.

Aunque todavía gocen de una amplia vigencia, los sistemas legales ex­ pertos no parecen ser la mejor app para el ámbito jurídico. Hay al menos tres razones que explican esto. Primero, las técnicas desarrolladas para posibilitar que los sistemas expertos operen con información incierta e incompleta tienden a ser ad hoc y poco fiables. Segundo, el proceso manual consistente en adquirir reglas es engorroso, lento y costoso, un cuello de botella en la adquisición de conocimiento que ha limitado la utilidad de los sistemas expertos en el derecho y otros campos disciplinares (Hoekstra, 2010). Tercero, la analítica textual no puede resolver este cuello de botella cognoscitivo. Mientras las nuevas analí­ ticas textuales pueden extraer ciertos tipos de información semántica de los textos jurídicos, todavía no son capaces de extraer reglas de sistemas expertos.

A lo largo de este libro, de tanto en tanto volveremos sobre los sistemas expertos, lo que ellos prometen y sus limitaciones; por ahora baste con decir que, si una app jurídica aspira a ofrecer soluciones que recepten las particulari­

43

Kevin D. Ashley

dades que los problemas les presentan a los usuarios, bien puede que debamos seguir buscando respuestas en otros paradigmas.

1.3.2. Paradigmas alternativos: la recuperación de argumentos y la computación cognitiva A diferencia de los sistemas expertos, los dos paradigmas alternativos, el de la recuperación de argumentos y el de la computación cognitiva, no apuntan a resolver por sí mismos los problemas legales de los usuarios. En su lugar, ellos extraen información semántica de los textos jurídicos y la emplean para ayudar a las personas a que resuelvan sus problemas legales.

La recuperación de información conceptual, por cierto, no es algo nuevo. Hace tiempo que la inteligencia artificial viene buscando identificar y extraer de los textos elementos semánticos tales como los conceptos y su interrelación. Como los define Sowa, “los conceptos representan cualquier entidad, acción o estado que puede ser descripto mediante el lenguaje, y las relaciones concep­ tuales muestran los roles desempeñados por cada entidad” (Sowa, 1984, p. 8). De manera similar, hace tiempo que la inteligencia artificial busca el objetivo de dotar de mayor astucia a la recuperación informativa, usando la información semántica extraída para formular inferencias sobre textos recuperados. Roger Schank utilizó el término “recuperación dé información conceptual” en 1981 para describir: un sistema capaz de manejar la organización y recuperación de hechos en dominios relativamente irrestrictos (por ejemplo,..., resúmenes científicos). Primero, el sistema debería ser capaz de entender automáticamente textos escritos en lenguaje natural — tanto los insumos de la base de datos como las consultas dirigidas al sistema... de tal modo que el contenido conceptual o el signi­ ficado de un elemento pueda ser usado para recuperar algo más que sus palabras clave... Si las categorías son especificadas por conceptos, y si el analizador del lenguaje natural transforma el texto en una representación conceptual, entonces las inferencias pueden obtenerse a partir de las representaciones (o significados) conceptuales de nuevos elementos para resolver a qué categorías pertenecen (Schank et al., 1981, pp. 98, 102).

La recuperación de información conceptual en el terreno jurídico tam­ poco es nueva. Algunos esfuerzos pioneros para lograr allí la recuperación conceptual fueron realizados por Hafner (1978) y Bing (1987). Como se discutirá en las secciones 7.7 y 11.2, los servicios modernos orientados a la recu­ -44-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

peración de información de relevancia jurídica toman en cuenta los conceptos legales sustantivos y los temas de interés a los que apuntan los usuarios. Otros trabajos recientes se han focalizado en la posibilidad de ampliar los sistemas de recuperación de información conceptual no sólo para que la información jurídica devuelta esté conceptualmente relacionada con la consulta, sino con el problema al que el usuario intenta aplicar la información apuntada (véase Winkels et al., 2000). Hoy, la recuperación de información conceptual jurídicamente relevante puede definirse como el acto de recuperar de manera automática la informa­ ción jurídicamente relevante de los textos vinculando los conceptos y el rol que ellos desempeñan en los documentos con los conceptos y roles requeridos para solucionar el problema jurídico de un usuario. Como se desprende de la definición, la recuperación de información conceptual jurídicamente relevante difiere de la recuperación de información jurídica ordinaria. Ella no sólo apunta a modelar las necesidades que tengan los usuarios de obtener información para resolver un determinado problema, como por ejemplo a la hora de dar con un argumento jurídico apropiado, sino también los conceptos y los roles que ellos desempeñan en ese proceso resolutivo.

En rigor, tampoco puede considerarse novedoso el rol que la recupera­ ción de información conceptual jurídicamente relevante cumple al ayudar a los usuarios a construir argumentos viables para fundamentar una demanda o a fin de refutar los mejores argumentos de la contraparte. Dick y Hirst (1991) exploraron la posibilidad de representar manualmente casos en los que algunas estructuras argumentativas esquemáticas les permitieran a los abogados “buscar información... para la construcción de argumentos resolutivos”. En esa época, sin embargo, los autores sólo pudieron suponer que ya llegaría “el tiempo en que el análisis lingüístico y la generación mecánica de lenguaje serán posibles”.

A la postre, su suposición se vería confirmada. Durante años, la dispo­ nibilidad de medios robustos para extraer ese tipo de información conceptual de los textos escritos en lenguaje natural fue inexistente. Hoy, en cambio, las herramientas de análisis lingüístico disponibles son capaces de identificar automáticamente aquella información estructurada argumentativamente en los textos legales, lo que ha permitido el surgimiento de un nuevo paradigma: el paradigma de la recuperación robusta de información conceptual jurídicamente relevante basada en argumentos, al que en la sección 10.5 se aludirá como el paradigma de la recuperación de argumentos (RA).

La computación cognitiva representa el segundo paradigma novedoso en el desarrollo de sistemas. Más allá de su nombre, la computación cognitiva no

-45

Kevin D. Ashley

consiste en desarrollar sistemas de inteligencia artificial que “piensen” o realicen tareas privativas de los seres humanos. La unidad operativa de la computación cognitiva no estriba ni en la máquina ni en el ser humano, sino en el trabajo colaborativo entre máquinas y seres humanos. En la era de los sistemas cognitivos, los seres humanos y las máquinas colaborarán para alcanzar los mejores resultados, aportando al trabajo en equipo sus herramientas características más sofisticadas. Las máquinas serán más analíticas y racionales —pues, de hecho, ellas detentan una memoria enciclopédica y tremendas habilidades computacionales. Las personas aportarán la experiencia, el juicio, la intuición, la empatia, la sapiencia moral y la creatividad (Kelly y Hamm, 2013).

En un paradigma computacional cognitivo, los usuarios humanos son los responsables de personalizar en última instancia sus propias soluciones por medio de una app legal, pero la tecnología de servicios legales personalizados debe brindarles información sobre la necesidad a satisfacer y debe respaldarlos brindándoles un acceso personalizado a la información legal relevante que les permitiría construir una solución. Esto es, la app legal no sólo seleccionará, ordenará, destacará y resumirá la información de manera tal que responda al problema específico de un usuario humano, sino que también explorará la información e interactuará con los datos de manera novedosa. Para que este enfoque triunfe, la tecnología no tiene por qué resolver el problema del usuario. No será un sistema legal experto. Sin embargo, deberá tener alguna “comprensión” sobre la información disponible y sobre la rele­ vancia de la información en el proceso resolutivo, a fin de que la información se encuentre convenientemente disponible en el momento adecuado y en las circunstancias oportunas. En este sentido, RA es consistente con la compu­ tación cognitiva, en la que la responsabilidad de encontrar y aplicar recursos para resolver el problema de un usuario se divide entre las tareas inteligentes que la computadora puede desempeñar mejor y aquellas otras que dependen de la experiencia de los usuarios humanos.

Los sistemas expertos y los paradigmas de la computación cognitiva difieren en virtud de las fuentes de las que emana su conocimiento respectivo. En los primeros, la experiencia se encarna en reglas que los expertos humanos aplican a la hora de resolver esos problemas, reglas que por lo general han sido construidas manualmente por ingenieros durante el proceso de adquisición de conocimiento.

- 46

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

En el paradigma de la computación cognitiva, en cambio, el conocimiento se encarna en el cuerpo de textos de donde el programa extrae soluciones o elementos resolutivos posibles y los ordena en función de su relevancia para el problema. Esto supone, por supuesto, que un cuerpo disponible de textos contiene información relevante para el tipo de problema en ciernes. Por ejemplo, si el problema consiste en una situación fáctica que podría fundar un argumento para formular una demanda jurídica, será necesario un cuerpo legal de casos que involucre ese tipo de demanda.

La tecnología no puede leer los textos en el sentido en que pueden hacerlo los humanos, pero dispondrá de técnicas para procesarlos inteligentemente, identificando aquellos elementos que sean relevantes para un problema y acercándoselos al usuario para que este los tome en cuenta de manera apro­ piada. Significativamente, el conocimiento del programa para determinar la relevancia, es decir, para identificar, ordenar y presentar soluciones o elemen­ tos resolutivos posibles, no se adquiere por lo general de modo manual sino automáticamente, mediante la extracción de patrones de alguna colección de datos pertenecientes a un dominio específico que emplee AA.

1.3.3. Hacia las nuevas apps legales

Por lo menos ese es el objetivo. Aunque los investigadores de los ámbitos universitarios y comerciales reconocen su potencial extraordinario, al momento de escribir este libro probablemente nadie sea realmente consciente de cómo implementar con exactitud la computación cognitiva al terreno jurídico. Cla­ ramente, no será algo sencillo, aunque sí parezca factible. Los investigadores y tecnólogos de IA & Derecho están comprometi­ dos activamente con la tarea de aplicar BR, El y las técnicas de la minería de argumentación textual a los procesos de solución de problemas jurídicos. La integración de técnicas computacionales que fueron desarrollándose durante años para representar las reglas jurídicas y los fallos judiciales son vistas por ellos con el potencial de modelar razonamientos jurídicos y predecir futuras decisiones. Las herramientas de IA & Derecho ilustran tanto los elementos contenidos en los textos legales a los que las nuevas técnicas de procesamiento textual deberían apuntar como las tareas legales que luego podrían ser aco­ metidas.

También ellos reconocen que la investigación de IA & Derecho ha identificado problemas de diseño que limitan, o guían firmemente, lo que los MCRJ pueden realizar. Algunas veces los problemas pueden ser minimizados

-47-

Kevin D. Ashley

o ignorados en virtud de la tarea que la app legal desempeña, pero es bueno estar al tanto de los mismos por adelantado. Los problemas de diseño serán de ayuda para que los tecnólogos no tengan que reinventar la rueda o dar de baja fines ya perimidos. Los próximos años serán tiempos de gran excitación en el desarrollo de la práctica jurídica y de la historia de IA & Derecho. El objetivo de este libro es el de presentar las herramientas disponibles, explorar cómo ellas pueden integrarse con las nuevas herramientas de procesamiento textual y equipar a los lectores para que se atrevan a participar de esta revolución tecnológica.

1.4. LO QUE WATSON PUEDE Y NO PUEDE HACER

¡Pero esperemos un minuto! ¿Acaso la revolución no ha terminado? El programa Watson de IBM realiza increíbles hazañas de búsqueda de respues­ tas (BR) basándose en extracción de información (El) del texto. Su primo, el programa Debater, ya es capaz de minar argumentos del texto. Quizá uno simplemente pueda dar rienda suelta a estos programas para verlos realizar auténticos razonamientos jurídicos, ¿o no?

No, como ya se ha notado, programas como Watson o Debater no serán capaces de nada semejante. Esta sección explica por qué no. Al mismo tiempo, Watson ofrece un marco conceptual y unas herramientas analíticas que pue­ den ser útiles para entender el desafío de construir programas que sí puedan realizar razonamientos jurídicos a partir del texto. Al poner el foco en los programas Watson y Debater aquí no se busca sugerir que el desarrollo futuro de las herramientas tecnológicas de la prác­ tica legal en la era digital dependa de técnicas que son propiedad de IBM. De hecho, Watson está basado en un procesador de texto de código abierto y en una herramienta de extracción de información (IE), la Arquitectura para la Administración de la Información No Estructurada [Unstructured Information Management Architecture - UIMA]. Una alternativa a UIMA, GATE, un entorno de anotaciones de código abierto, fue utilizado en el etiquetado de temas en conexión con la investigación de Debater. Al momento de diseñar y explicar la tecnología de Watson, no obstante, los investigadores de IBM formularon algunas de las tareas características de la analítica textual. Es conveniente aprovecharse de esas formulaciones a fin de sugerir las potenciales aplicaciones de esas tareas en el terreno jurídico.

-48-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

1.4.1. El programa Watson de IBM En febrero de 2011, “¡Jeopardy!”, un popular programa televisivo de concursos en el que participan jubilados entrados en años y jóvenes nerds, capturó por un momento la imaginación del público de los Estados Unidos. Las reglas y la organización del programa son sencillas: el presentador Alex Trebek preside el concurso y tres participantes se enfrentan a un panel en el que figuran seis categorías. Cada categoría está distribuida en cinco ítems de valor creciente. Cada ítem se compone de una pequeña ventana; al abrirla, automáticamente se despliega una respuesta. Los participantes compiten en­ tre sí para ser los primeros en apretar el timbre que los habilitará a formular la pregunta correspondiente a esa respuesta, obtener el valor de ese ítem y elegir la siguiente categoría e ítem. La regla cardinal es que la intervención del participante, o su “respuesta”, se haga en forma de pregunta. El show ha sido una marca distintiva de las noches televisivas al menos desde 1984, pero esa noche sería diferente: uno de los tres participantes no era humano. Un equipo de IBM Research, conducido por Favid Ferrucci, había diseñado un sistema informático llamado “Watson” con la sola intención de concursar en el horario televisivo estelar, compitiendo con los dos mayores campeones: Brad Rutter, cuyas victorias en anteriores apariciones le permi­ tieron alcanzar la cifra de 3.25 millones de dólares; y Ken Jennings, quien, con una racha ganadora de 74 juegos, prácticamente se había convertido en un accesorio más del espectáculo.

Hacia el final de tres noches consecutivas de juego, Watson había derro­ tado de manera convincente a los campeones humanos. Fue un tour de forcé para el equipo de IBM Research, cuyo programa de ajedrez Deep Blue había derrotado hacía 14 años a Gary Kasparov, el campeón mundial reinante de ajedrez.

Por supuesto, Watson era falible. Famosa fue su pifia en “¡La final de leopardy!”, el último round de la noche, cuando el presentador anuncia la ca­ tegoría y el show se interrumpe para dar paso a los anuncios comerciales. En el entretiempo, cada concursante apuesta una cantidad que puede al­ canzar la suma del puntaje que haya cosechado hasta ese momento. Cuando el presentador finalmente revela la respuesta, los concursantes tienen 30 segundos para escribir sus preguntas en un panel electrónico, al son de un jingle hoy familiar, que ha llegado a personificar la tensión de pensar bajo presión (i.e., “Think”, compuesto por Merv Griffin, el verdadero genio de “¡leopardy!”).

49-

Kevin D. Ashley

Esa noche, la categoría final fue la de “Ciudades de los Estados Unidos por $400”. La respuesta para la que había que encontrar una pregunta fue “Su aeropuerto más grande recibió el nombre de un héroe de la Segunda Guerra Mundial; su segundo aeropuerto más grande, el de una batalla de la Segunda Guerra Mundial”. “Think” llegó a su fin y el presentador le pidió a cada parti­ cipante que revelara su pregunta.

La audiencia pegó un grito cuando apareció en pantalla la respuesta de Watson: “¿¿¿¿Qué es Toronto????” [“What is Toronto????”]. Probablemente ello no se debió a que la audiencia se sorprendiera ante el error. La respuesta correcta era “¿Qué es Chicago?” [“What is Chicago?”]. Cualquiera puede ad­ vertir el carácter engañoso de la pregunta. Uno podría saber que el segundo aeropuerto más grande de Chicago, Midway Airport, fue bautizado con el nombre de una famosa batalla naval que se produjo en el Pacífico durante la Segunda Guerra Mundial, pero difícilmente sepa que el as de la aviación naval, el Teniente Comandante Edward “Butch” O’Hare, fue un héroe de esa guerra. En su lugar, la audiencia probablemente se impresionó por el hecho de que Watson no supiera algo mucho más básico, lindante con el sentido común: Todos saben que Toronto ni siquiera se trata de una ciudad situada en los Estados Unidos. A pesar de que el error de Watson no fue costoso (Watson apostó tan sólo 947 dólares), sí fue revelador: Watson no posee un conocimiento de los hechos ni una información profundamente arraigada, como la que se constata en las reglas expertas. Más bien, para cada par típico de pregunta/respuesta (P/R), Watson aprende cómo extraer las respuestas posibles para la pregunta (o, en la jerga de “¡Jeopardy!”, preguntas a la respuesta) indagando en los mi­ llones de textos que figuran en su base de datos. Para cada par de P/R, también aprende los tipos de evidencia que le permiten reconocer las respuestas para tal o cual tipo de pregunta, una evidencia estructurada en el texto por medio de características sintácticas y pistas semánticas, las cuales incluyen referencias a ciertos conceptos y relaciones. Para cada par típico de P/R, Watson también ha aprendido cuánta confianza tener en los distintos tipos de evidencias asociados con los textos. Como lo indicaron los numerosos signos de interrogación que empleó, Watson tuvo poca confianza en su respuesta (Ferrucci et al., 2010).

Watson aprende de un conjunto de documentos formativos, en los que los humanos marcaron o anotaron muchas instancias de cada tipo de par P/R. Los textos formativos marcados sirven como ejemplos de cómo extraer infor­ mación sobre tal o cual tipo de pregunta y de respuesta. Watson aprende de los ejemplos formativos cómo extraer información, para aplicar este conocimiento

-50-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

en la extracción de información de otros textos que no hayan sido marcados, generalizando de este modo cómo extraer información en el transcurso mismo del proceso (Ferrucci at al., 2010). Al explicar la respuesta de Watson, los investigadores del proyecto Watson de IBM señalaron que Chicago se posicionó como una suerte de segunda mejor opción en la lista de posibles respuestas, pero que Watson no encontró demasiada evidencia para conectar los aeropuertos de esa ciudad con la Segunda Guerra Mundial. Adicionalmente, Watson aprendió que las frases categoriales como “Ciudades de los Estados Unidos” no son demasiado dispositivas. Si “Tal o cual... de esta ciudad de los Estados Unidos” hubiera aparecido en la respuesta, Watson les habría otorgado un peso mayor a las ciudades de los Estados Unidos. Finalmente, hay ciudades llamadas Toronto en los Estados Unidos que están situadas en diferentes estados, como Ilinois, Indiana, lowa, Minnesota, Ohio, Kansas y South Dakota, además de que la propia ciudad de Toronto, situada en Canadá, cuenta con un equipo de béisbol perteneciente a la Liga de los Estados Unidos (Schwartz, 2011).

Aplicando Watson al Derecho

Parece que IBM está interesada en aplicar la tecnología de Watson (también conocida como Deep QA) al terreno jurídico (véase Beck, 2014). De acuerdo al Asesor General de IBM, Robert C. Weber, Elija una pregunta y, en millonésimas de segundos, Deep QA puede analizar cientos de millones de páginas de contenido y minarlas para derivar hechos y conclusiones... Deep QA nunca reemplazará a los abogados; después de todo, la esencia de la bue­ na abogacía consiste en un razonamiento maduro e inteligente... Pero la tecnología incuestionablemente puede ampliar nuestras capacidades y contribuir a que nos desempeñemos mejor... En IBM, nosotros tan sólo estamos empezando a explorar en qué medida Deep QA puede ser aprovechada por los abogados. (¡Esta­ mos casi seguros de que se desempeñaría muy bien en un examen concursal multiestado!). Pero ya está quedando en evidencia que esta tecnología será útil de dos maneras diferentes: para revelar hechos e identificar ideas al momento de construir argumentos jurídicos. La tecnología también podría ser útil en la práctica real de los tribunales. Si un testigo dice algo que no parece creíble, usted podrá contar con un asociado que le permita poner a prueba la precisión de su testimonio (Weber, 2011).

51

Kevin D. Ashley

El error de Watson, sin embargo, sugiere algunos de los desafíos que se plantean a la hora de aplicar la tecnología Watson al terreno jurídico. Uno no puede menos que imaginar cómo sería un concurso como “¡Jeopardy jurídico!”. El anfitrión Alex revela “La categoría es: Derecho del deporte”. Ken Jennings elige “Derecho del deporte por $1.2 millones”. Se despliega la ventana: la respuesta es: “Equipos de la Liga Norteamericana de Béisbol que están legalmente impedidos de contratar a trabajadores temporarios durante una huelga económica”. Suena un timbre. “¿Watson?”, responde Alex.

Watson replica: “¿Qué son los Blue Jays de Toronto?”. Alex sonríe. “¡Correcto! Los Blue Jays de Toronto no pueden contratar a trabajadores temporarios durante una huelga económica”. Esta vez, saber que Toronto no es una ciudad de los Estados Unidos constituye ciertamente una consideración jurisdiccional relevante para anali­ zar jurídicamente la cuestión. A diferencia de otros equipos de la misma Liga, los Blue Jays de Toronto no están sujetos al Derecho laboral de los Estados Unidos, sino al Derecho laboral de la Provincia de Ontario, en donde las leyes de contratación de trabajadores temporarios difieren, al menos de acuerdo a Lippner (1995), un artículo jurídico referido a la huelga de béisbol del año 1995.

Watson, sin embargo, no necesariamente debería conocer la ubicación geográfica de Toronto o su nacionalidad para responder correctamente la pre­ gunta. Watson no dispone de un conjunto de reglas que especifiquen la nación en la que se ubica Toronto o las leyes que se le aplican, ni tampoco dispone de reglas para entender si es el Derecho federal de Canadá o el Derecho provincial de Ontario el que debería aplicarse en este caso. Pero, en cualquier caso, ese no es el modo en el que Watson respondería esas preguntas. En la medida en que el artículo jurídico referido integre el corpus de Watson, un Watson entrenado apropiadamente podría aprender a identificarlo como relevante para este tipo de pregunta, extraer de él la respuesta apropiada y asegurar su confianza en la sensibilidad de la respuesta.

No obstante, esta constituye una pregunta jurídica. Cuando se trata de analizar preguntas jurídicas, uno espera más que sólo una respuesta. Uno espera una explicación de por qué la respuesta se halla bien fundada. Presumiblemente, Watson no podría explicar la respuesta extraída. Explicar la respuesta requiere que uno razone con las reglas y conceptos relevantes para la elección de la ley y el tema legal, un conocimiento que Watson no tiene y no podría usar.

-52-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

Un Watson entrenado apropiadamente podría haber aprendido ciertos tipos de evidencia a los fines de reconocer los pares de preguntas y respuestas relevantes, incluyendo por lo pronto pistas semánticas, conceptos y relaciones como “contratación legal”, “trabajadores temporarios” o “huelga económica”. También podría haber aprendido cuánto peso adjudicarle a esta evidencia al juz­ gar su confianza de que la pregunta y la respuesta se encuentran relacionadas.

Si este tipo de evidencia es suficiente para que Watson explique la res­ puesta de una manera aceptable desde un punto de vista jurídico constituye, por cierto, otro asunto. El conocimiento de Watson sobre cómo extraer infor­ mación aún no parece haber llegado a tanto (al respecto, véase la discusión del programa Debater de IBM en la Sección 1.4.3). Por otro lado, el autor del artículo jurídico antes citado sí posee ese conocimiento legal y ha resumido en ese artículo cómo la aplicación de ese conocimiento (i.e., de las reglas y casos relativos a la jurisdicción, la materia legal y la elección de la ley relevante) justifica su conclusión. Si Watson puede ser entrenado para reconocer y extraer aquellos argumentos que explican las conclusiones jurídicas, sería capaz de conducir a los usuarios humanos a la explicación del autor, incluso sin que Watson fuera capaz de construir por sí mismo la explicación a partir de los primeros principios. Incluso entonces, por supuesto, estará la cuestión de si el artículo y su explicación resultan actuales.

1.4.2. Responder preguntas vs. Razonar Esto plantea una pregunta: ¿un programa basado en la tecnología Watson podrá alguna vez razonar realmente? Por ejemplo, ¿podría analizar un problema de Derecho contractual típico de un estudiante de primer año de abogacía? En la cita anterior, el Consejero de IBM, Robert Weber, enfatizó la expresión “razonamiento inteligente” y declaró entre paréntesis estar casi seguro “de que [Watson] se desempeñaría muy bien en un examen concursal multiestado” (Weber, 2011). No obstante, ¿podría la tecnología Watson ingeniárselas para encarar la parte ensayística de un examen concursal? ¿O sólo podría hacerlo si alguien (¿Google?) hubiera almacenado los contenidos de los viejos exámenes archi­ vados en los libros azules (suponiendo que el análisis informático alguna vez llegara a “leer” la escritura manual de los estudiantes, una tarea ciertamente sobrehumana, si alguna vez hubo alguna)? ¿Acaso lo que justifica su confianza en su respuesta sólo será una técnica altamente sofisticada de recuperar res­ puestas anteriores a preguntas similares, y, quizá, de destacar la evidencia (los

-53-

Kevin D. Ashley

aspectos sintácticos y las pistas semánticas en el texto referidas a los conceptos y relaciones)? ¿Tendrá la aptitud para adaptar viejos argumentos a nuevos problemas? ¿Y tendrá la aptitud para resolver un nuevo problema a partir de primeros principios, así como para explicar su razonamiento?

A los efectos de comprender con mayor profundidad el tipo de razona­ miento jurídico involucrado en la realización de un ensayo concursal, conviene examinar sucintamente un típico MCRJ, diseñado por Ann Gardner (su progra­ ma no fue bautizado, pero podríamos denominarlo AGP), que ya en la década de 1980 había analizado asuntos legales surgidos de problemas contractuales presentados en los exámenes de final de curso de estudiantes de abogacía de primer año (Gardner, 1987).

AGP es presentado aquí no sólo como un ejemplo de un enfoque sis­ temático sobre el razonamiento jurídico modelado por computación sobre preguntas de examen en torno al Derecho de contratos, sino también a modo de contraste con el enfoque de Watson.

El analizador de problemas contractuales de primer año de Gardner Cualquiera que haya cursado la carrera de abogacía reconocerá (proba­ blemente con estremecimiento) el tipo de problema manejado por AGP: un presunto comprador y un presunto vendedor intercambian durante el lapso de dos semanas una serie de telegramas superpuestos y a veces inconsistentes, así como órdenes de compra relativas a la posible adquisición de un cargamento de sal. Luego de manifestar su aceptación aparente a una oferta aparente, el comprador encuentra un proveedor más barato y le envía al vendedor un tele­ grama de desistimiento. La pregunta es “¿El contrato ha sido perfeccionado?”. Los insumos de AGP fueron descripciones de este tipo de problema de oferta y aceptación representado por un ser humano (Gardner) en un lenguaje lógico (ilustrado más abajo). AGP utilizó una red de transición aumentada (RTA) [augmented transition network - ATN] para analizar esos problemas y producir un análisis de los problemas contractuales.

La red de AGP, mostrada en la Figura 1.2, representó estados jurídicos en el análisis de un problema de oferta y aceptación en Derecho contractual (i.e., ninguna relación jurídica relevante (0), una oferta pendiente (1), el contrato existe (2), el contrato existe y la propuesta para modificarlo está pendiente (12)). Los arcos representaron los eventos o transiciones de un estado jurídico a otro estado jurídico: de un estado en el que no hay ninguna relación jurídica relevante (0) a un estado en el que hay una oferta pendiente (1) por medio de -54-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

una oferta; de un estado en el que hay una oferta pendiente (1) a un estado en el que el contrato existe (2) por medio de una aceptación, etc. Rechazo; revocación de la aceptación

aceptación

oferta

Contraoferta; modificación de la oferta

;

Propuesta de modi­ ficación

Aceptación; rechazo; revocación; muerte

rechazo; revocación; muerte

Aceptación más propuesta de modificación

Rechazo; revocación de la aceptación

Contraoferta; aceptación más propuesta de modificación

Figura 1.2. RTA para problemas de oferta y aceptación con cuatro estados: (0) no hay rela­ ciones jurídicas relevantes; (1) oferta pendiente; (2) existe contrato; (12) existe contrato y está pendiente la propuesta de modificación (Gardner, 1987, p. 124)

Cada arco se había asociado con las reglas del Derecho contractual rela­ tivas a la oferta y aceptación. Estas reglas exponen los requisitos legales para moverse de un estado a otro. Por ejemplo, el arco de oferta que va de (0) a (1) cuenta con una regla asociada, precisamente la que define la noción de “ofer­ ta”, contemplada en la sección 24 de la Reformulación (Segunda) de la Ley de Contratos [Restatement of Contraéis, Second]: “Una oferta es la manifestación de la voluntad de ingresar en una negociación, hecha de modo tal que pueda justificar que otra persona comprenda que ha sido invitada a asentir a esa negociación y a concluirla” (Gardner, 1987, p. 142). AGP procesó los eventos que conforman el problema en orden cronoló­ gico, almacenando su análisis en un detallado árbol de análisis y resumiéndolo como resultado en un árbol de síntesis. El programa repite los siguientes pasos hasta haber procesado cada evento del problema: -55-

Kevin D. Ashley

1.

Tomar el siguiente evento del problema.

2. Encontrar el estado actual en el árbol de análisis detallado. A partir de la RTA, determinar los arcos que surgen de ese estado. 3. Para cada posible arco, evaluar si el evento satisface las reglas aso­ ciadas con el arco y actualizar el árbol de análisis detallado con los resultados de la evaluación. 4. Si la evaluación involucra una pregunta jurídica “difícil” (véase más abajo), es decir, presenta dos maneras alternativas y jurídicamente fundamentadas de evaluar el evento, insertar una rama para cada interpretación en el árbol de análisis detallado.

5. Editar el árbol de análisis detallado para que surja como resultado un árbol resumido de estados de red que representen las diferentes “interpretaciones” de los eventos. Por ejemplo, AGP comienza con un primer evento:

El 1 de julio un comprador envió el siguiente telegrama a un vendedor: “Tengo clientes que buscan sal y necesito inmediata­ mente un cargamento. ¿Podría proporcionarme un cargamento que me asegure un precio de 2,40 dólares por kilogramo de sal?” El vendedor recibió el telegrama en el mismo día. Los eventos no fueron introducidos en un lenguaje coloquial, sino en un lenguaje lógico de representación. AGP no pudo leer el texto, por lo que un ser humano tuvo que introducir manualmente esa información en la representación lógica (i.e., lógica de predicados, definida en la Sección 2.3.2). Por ejemplo, algunos extractos de la representación son:

(enviar Envíol) (agente Envíol Comprador) (beneficiario Envíol Vendedor) (objeto Envíol Telegrama) (telegrama Telegrama) (enunciado S13) (texto S13 “¿Podría proporcionarme un cargamento que me asegure un precio de 2,40 dólares por kilogramo de sal?”) (contenido proposicional S13 Propl3) (fuerza literal S13 Q13) (pregunta sí/no Q13) (fuerza efectiva S13 R13) (solicitud R13) (Gardner, 1987, pp. 89, 105, 111). En esta representación, Envíol es la instancia de un envío con el Com­ prador como el Agente, el Vendedor como el Beneficiario y el Telegramal, una instancia de un telegrama, como el Objeto del envío. S13 es un enunciado

-56-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

cuyo texto aparece citado, cuyo contenido preposicional es representado en la Propl3 (definida en otro sitio) y cuya fuerza literal como un acto discursivo consiste en plantear una pregunta, pero que también plantea efectivamente una solicitud (Gardner, 1987, pp. 89, 105,111). En el paso (3), al evaluar si el evento satisface el arco, el programa reco­ lecta las reglas asociadas al arco. Como los eventos, todas las reglas contractuales fueron traducidas manualmente al lenguaje lógico. Por caso, la regla asociada con el arco que va de (0) a (1) y que define una “oferta” en consonancia con la sección 24 de la Reformulación (Segunda) de la Ley de Contratos incluye reglas antecedentes y predicados (en cursiva) como los siguientes: 1.

Hay una manifestación con algún contenido simbólico sobre un in­ tercambio por parte de algún agente, el ofertante posible.

2. Los términos del intercambio están especificados con una certeza razonable.

3. Por medio del contenido de la manifestación, el ofertante posible ha realizado un acto discursivo que invita a su destinatario a aceptar una propuesta de intercambio. 4. El destinatario es invitado a efectuar una contraprestación [furnish consideration] en el intercambio y el ofertante posible está aparente­ mente listo para vincularse a un contrato de intercambio, sin hacer nada más (Gardner, 1987, p. 142). El programa verifica si los antecedentes de la regla son satisfechos en función de los hechos correspondientes a todos los eventos hasta entonces procesados, incluido el evento novedoso. Básicamente, AGP intenta vincular los artefactos del problema a las variables de la regla por medio de información muy limitada sobre el significado de los hechos y los antecedentes.

En cualquier momento, se presentan múltiples alternativas posibles para ligar los hechos y los antecedentes. El programa necesita investigar a través de todas las vinculaciones posibles, hasta arribar a un árbol de análisis detallado que contenga múltiples ramas. Como se ha notado, las preguntas “difíciles” también conducen a ramas que representan interpretaciones alternativas ra­ zonables. Para prevenir una “explosión exponencial” de canales alternativos, una función editora reduce el análisis ramificado por medio de un dispositivo heurístico que se focaliza en las ramas más prometedoras

Incidentalmente, trabajos reciente^ sobre los contratos inteligentes [“smart” contraéis] utilizan máquinas o autómatas de estados finitos relacio­ nados con la RTA del MCRJ de Gardner (Flood and Goodenough, 2015, p.

-57-

Kevin D. Ashley

42). Los investigadores también han aplicado reglas heurísticas para modelar la Convención de las Nacionas Unidas sobre la Venta Internacional de Bienes y para deducir los estados de cosas temporales como eventos que ocurren en la vida de un contrato (Yoshino, 1995,1998). La heurística de Gardner es el típico ejemplo de un enfoque de IA que permite que un programa informático maneje una tarea que es ardua incluso para los seres humanos. Los estudiantes de abogacía, a los fines de determinar si se ha materializado un contrato en cualquier etapa de sus análisis, deben resol­ ver en qué multitud de comunicaciones cruzadas y sus contenidos focalizarse.

El algoritmo de Gardner para distinguir entre preguntas jurídicas fáciles y difíciles Los estudiantes de abogacía (así como los operadores jurídicos y los jue­ ces) también necesitan aprender cómo distinguir preguntas jurídicas fáciles y difíciles, una determinación que toma en consideración una apreciación de los hechos y asuntos jurídicos sustantivos, así como cuestiones procedimentales relacionadas con quién tiene la responsabilidad de plantear la pregunta.

Este es un problema que tiene raíces profundamente arraigadas en la filosofía jurídica (véase, por ejemplo, la crítica de Fuller a la afirmación de Hart de que los significados de los términos jurídicos poseen un núcleo de certeza y una zona de penumbra (Hart, 1958; Fuller, 1958)). También tiene ramificaciones realmente prácticas. Un consejero legal, por ejemplo, para asesorar apropiadamente a un cliente, necesita una manera de distinguir entre sus preguntas fáciles y difíciles.

No obstante, desde el punto de vista del diseño informático, distinguir entre preguntas jurídicas fáciles y difíciles representa un dilema. Como lo advirtió Gardner, para que un programa informático pueda aplicar un método para distinguir entre preguntas fáciles y difíciles, la condición es que dicho método también sea “fácil”. AGP utilizó un método heurístico para distinguir preguntas jurídicas fáciles y difíciles (Gardner, 1987, pp. 160-1). La Figura 1.3 ilustra la recapi­ tulación algorítmica del método de AGP realizada por Edwina Rissland para distinguir preguntas fáciles y difíciles (Rissland, 1990). Para cada predicado en una regla, el método evalúa si una regla propia del conocimiento de sentido común proporciona una respuesta, o si el problema se corresponde con ejemplos positivos del predicado, con ejemplos negativos o con ambos. Por ejemplo, en caso de que ninguna regla de sentido común -58

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

proporcione una respuesta, pero se compruebe una correspondencia con una instancia positiva, entonces la pregunta es fácil. Si, en cambio, también se co­ rresponde con una instancia negativa, entonces la pregunta es difícil. A. Para cada predicado en regla, aplicar 3 evaluaciones:

1.

Una respuesta desde el sentido común: ¿proporciona el conocimiento de sentido común una respuesta?

2.

Ejemplos positivos: ¿se corresponde el problema con ejemplos positivos del predicado?

3.

Ejemplos negativos: ¿se corresponde el problema con ejemplos negativos del predicado?

B.

Si no hay una respuesta desde el sentido común Si no (ejemplos positivos o ejemplos negativos)

Pregunta difícil

Si (sólo uno de los ejemplos positivos/negativos) -> Pregunta fácil Si (ejemplos positivos y ejemplos negativos) -»Pregunta difícil

Si hay una respuesta desde el sentido común

Si no (ejemplos positivos y ejemplos negativos) -»Pregunta fácil Si (sólo uno de los ejemplos positivos/negativos) Si (acuerda sólo uno con la respuesta del conocimiento del sentido común) Pregunta fácil

De otro modo Pregunta difícil Si (ejemplos positivos y ejemplos negativos) —> Pregunta difícil

Figura 1.3. El método heurístico de Gardner para distinguir preguntas jurídicas fáciles y difíciles (Gardner, 1987; Rissland, 1990).

Considérese el requisito de que el ofertante posible debe manifestar su voluntad para acceder a una negociación. Tal como ha sido operacionalizado para AGP, el ofertante debe haber realizado un acto discursivo que invite a su destinatario posible a aceptar una propuesta de intercambio. El hecho de si se ha producido una manifestación de voluntad quizá no represente por lo general una pregunta jurídica difícil, pero cada tanto se presentan litigios así. En principio, AGP tiene una manera de resolver si semejante hecho representa una pregunta difícil en un caso particular. Si existe algo semejante a una regla de sentido común que defina manifestación (o un acto discursivo apropiado), así como algunas instancias con ejemplos de manifestaciones positivas y nega­ tivas, AGP podrá aplicarlas a los hechos del problema y seguir el procedimiento heurístico que describe la figura 1.3.

-59

Kevin D. Ashley

Para cuando AGP complete su análisis de todos los eventos en un pro­ blema de oferta y aceptación, habrá preparado un detallado árbol de análisis, cuyos recorridos efectivamente proporcionan un rastro de su razonamiento y una explicación de su respuesta. Por ejemplo, en el análisis que realiza AGP del evento 1 citado más arriba, concluye que hay una oferta pendiente, luego de hallar en el telegrama del comprador/ofertante la manifestación de cierta disposición aparente y razonable a vincularse con el intercambio (véase Gardner, 1987, Fig. 7.1, p. 165).

*** AGP ilustra algunas cuestiones que un programa como Watson debería tomar en cuenta si fuera a aplicarse para abordar preguntas ensayísticas en un examen concursal. Modelar computacionalmente razonamientos jurídicos sobre problemas contractuales requiere algún modelo de razonamiento que incorpore reglas y conceptos jurídicos. Necesita distinguir entre preguntas jurídicas fáciles y difíciles. También necesita una habilidad para explicar su razonamiento, y ese razonamiento tiene que ser inteligible para los operadores jurídicos.

El programa Watson que ganó el concurso de “Jeopardy!” no explicó sus respuestas. Si las hubiera explicado, probablemente lo habría hecho en términos de características sintácticas y pistas semánticas en el texto en relación con conceptos y relaciones que justificaran su confianza en su respuesta (Ferrucci et al., 2010, p. 73). Esa clase de explicación, sin embargo, difícilmente se co­ rresponde con las expectativas de los operadores jurídicos.

Incluso si Watson no pudiera poner en práctica la clase de razonamiento modelado por AGP, ¿podría reconocer las características de explicaciones y ar­ gumentos jurídicos anteriores, como aquellos que se plasman en los cuadernos azules de viejos exámenes académicos o ensayos concúrsales, y adaptarlos a un nuevo problema? ¿Podría reconocer cuándo estos argumentos son relevantes para las inquietudes de los usuarios? ¿Qué nivel de detalle podría reconocer en explicaciones y argumentos anteriores? ¿Podría reconocer no sólo las re­ glas jurídicas sino también la aplicación de las reglas jurídicas a los hechos de un problema? ¿Podría reconocer argumentos sobre si se han satisfecho o no reglas antecedentes? Estos son los tipos de preguntas que se discutirán en detalle en la Parte III de este libro, aunque aquí comenzaremos a explorarlas.

-60-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

1.4.3. El programa Debater de IBM

¿Watson puede ser entrenado para reconocer y extraer argumentos de los textos? ¡Parece que la respuesta es afirmativa! En la primavera de 2014, un ejecutivo de IBM probó un nuevo programa llamado “Debater”, un descendien­ te de Watson que emplea parte de la tecnología del propio Watson aplicada al procesamiento textual para realizar minería de argumentación (véase, por caso, Newman, 2014 y Dvorsky, 2014). Sea cual sea el tópico, la tarea de Debater consiste en “detectar alegatos relevantes” y arrojar “sus predicciones principales sobre alegatos a favor y alegatos en contra”. En un ejemplo de resolución, compruébese lo que hizo Debater luego de introducir como insumo el tópico “La venta de videojuegos violentos a menores debería estar prohibida”:

1.

Escaneó 4 millones de artículos de Wikipedia,

2. Devolvió los 10 artículos más relevantes,

3. Escaneó las 3.000 oraciones contenidas en esos 10 artículos, 4. Detectó aquellas oraciones que contenían “alegatos posibles”, 5.

“Identificó limitaciones para los alegatos posibles”,

6. “Evaluó la polaridad favorable y desfavorable de los alegatos posibles”, 7. “Construyó una maqueta [demo] discursiva con las principales pre­ dicciones sobre alegatos”, 8. ¡Entonces estuvo “listo para entregar”! (Dvorsky, 2014).

Mientras el resultado de Debater en el video fue auditivo, uno puede presentar el texto de este resultado en términos visuales. La Figura 1.4 muestra un diagrama argumentativo construido manualmente desde el video que grabó el resultado auditivo de Debater para el tópico ejemplificado (disponible en Dvorsky, 2014). El recuadro situado más arriba (i.e., el “nodo raíz”) contiene la proposición sobre el tópico. Los nodos vinculados con el nodo raíz a través de líneas continuas (i.e., “arcos”) sustentan esa proposición; los arcos en líneas discontinuas la atacan. El tiempo transcurrido que se reporta entre la intro­ ducción del tópico y la obtención de un argumento va de tres a cinco minutos. En presentaciones posteriores, los resultados de Debater fueron probados en relación con tópicos de diversa naturaleza. El argumento de Debater sobre la prohibición de videojuegos violentos que aparece en la Figura 1.4 invita a una comparación con un argumento jurí­ dico sobre un tópico similar, mostrado en la Figura 1.5. El mismo versa sobre la constitucionalidad de las secciones 1746-1746.5 del Código Civil de Califor­

-61-

Kevin D. Ashley

nia (el “Acta”), que restringía tanto la venta como el alquiler de “videojuegos violentos” a menores. En Video Software Dealers Assoc. vs. Schwarzenegger, 556 F. 3D 950 (9th Cir. 2009), la Corte abordó la cuestión de si el Acta era inconstitucional en función de la Primera y la Decimocuarta Enmienda de la Constitución de los Estados Unidos. Dado que presumiblemente se trataba de una restricción a la libertad de expresión basada en el contenido, la Corte sometió el Acta a un estándar de escrutinio estricto.

En contra: Finalmente, jugar a los videojuegos es parte del entorno social normal de un niño.

A favor: Finalmente, los videojuegos violentos pueden incrementar la agresión infantil.

Figura 1.4. Diagrama argumentativo correspondiente a la resolución de Debater de IBM sobre el tópico de videojuegos violentos (nodo raíz) (véase Dvorsky, 2014).

La Corte sostuvo que el Acta era inconstitucional en virtud de que el Estado no había demostrado un interés apremiante en “prohibir la venta de videojuegos violentos a menores”. La Figura 1.5 muestra extractos de la sección de la opinión en la que la Corte justifica su conclusión. Los nodos contienen proposiciones a partir de esa porción y los arcos reflejan las relaciones explícitas o implícitas entre esas proposiciones basándose en una lectura equilibrada del texto. Al igual que antes, los arcos de líneas continuas significan que la propo­ sición en el nodo situado en la base del arco sustenta la proposición del nodo a la que apunta el arco; los arcos de líneas discontinuas significan una relación de ataque o réplica. De este modo, los nodos a, b, c y d contienen algunas de las proposiciones en las que confió el Estado de California para sustentar el interés apremiante de su gobierno. Los nodos e, f y g contienen proposiciones que la Corte utiliza para atacar las proposiciones del Estado de California.

62-

Una introducción a Inteligencia Artificial y Derecho (IA& Derecho)

Los diagramas argumentativos que aparecen en las Figuras 1.4 y 1.5 ver­ san prácticamente sobre el mismo tópico y comparten proposiciones similares, reflejando el hecho de que el argumento de la Corte incorpora algunas de las mismas razones y evidencias aludidas en el argumento de Debater. En la Figura 1.5, no obstante, los recuadros destacados en color ilus­ tran algunas características clave del argumento jurídico que se refleja en el argumento de la Corte. En particular, (1) las reglas y los conceptos jurídicos gobiernan la decisión de la Corte sobre la materia. (2) Los estándares de prueba gobiernan su evaluación de la evidencia. (3) El argumento posee una estructura interna; relaciones de fundamentación y réplica conectan los distintos alegatos. (4) La Corte explícitamente cita autoridades (por ejemplo, casos y estatutos). (5) La atribución de información influye o afecta los juicios de la Corte sobre la creencia en un argumento (por ejemplo, “el Estado confía”). (6) Los alega­ tos posibles en un documento legal tienen diferentes grados de plausibilidad. Esto no busca criticar el argumento de Debater, que no es y no tiene la inten­ ción de ser un argumento jurídico.

Figura 1.5. El diagrama representa un argumento jurídico realista que involucra el tópico de los videojuegos violentos.

-63-

Kevin D. Ashley

Por otro lado, dada la intención de aplicar Watson y, presumiblemente, Debater, a aplicaciones y argumentaciones jurídicas, la comparación enfatiza la importancia de evaluar estas características de la argumentación jurídica en la medida en que Debater se aplique a un dominio jurídico. Para que el sistema sea capaz de reconocer e interpretar argumentos jurídicos, sería esencial que Debater pudiera identificar los tipos de conceptos, las relaciones y la infor­ mación de tipo argumentativa que se enumerara más arriba y que se ilustra en la Figura 1.5. Un programa así diseñado podría mejorar la recuperación de información jurídica, orientando a los usuarios en casos que involucran conceptos, relaciones conceptuales y argumentos similares al que el usuario humano apunta a construir. También podría iluminar y resumir los argumentos relevantes para beneficio del usuario (véase la Sección 11.3). Finalmente, si el sistema fuera a realizar cualquier tipo de razonamiento automático basándose en los textos recuperados para asistir a un usuario en la resolución de su problema, tal como comparar argumentos, predecir resultados o sugerir contraargumentos, necesitaría adquirir una habilidad para identificar conceptos, relaciones conceptuales y argumentos en los textos. Es en conexión con esto que los tipos de razonamiento jurídico representados en los modelos y esquemas arguméntales descriptos en la Parte I serán probablemente esen­ ciales. Este es el foco de la Sección 12.3.

1.4.4. Las herramientas de la analítica textual para responder preguntas legales

La tarea fundamental de Watson fue la de responder preguntas. En el con­ texto de “Jeopardy!”, eso fue suficiente para derrotar a los campeones reinantes.

Responder preguntas legales podría ser de gran ayuda para hacer más accesible el conocimiento jurídico. Imagínese la utilidad de un servicio que responde preguntas sobre el Derecho de propiedad en un área metropolitana extensa. Por supuesto, los abogados saben que responder preguntas legales puede ser realmente complejo. Una respuesta necesita estar dirigida a las circunstancias de quien pregunta. Importa, por caso, si el edificio de depar­ tamentos se localiza en la ciudad canadiense de Toronto o en la ciudad de Toronto situada en el Estado de Kansas. Para ello se necesitan tanto argumentos como explicaciones. Las suposiciones sobre las que descansa la pregunta y que a menudo limitan su aplicabilidad deben ser clarificadas. Muchas preguntas legales de tenor práctico, sin embargo, no requieren explicaciones o argumentos. En un workshop celebrado en noviembre de 2014

-64-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

en las oficinas de IBM de Chicago, Paul Lippe, de Legal OnRamp (LOR), probó una aplicación que contenía un cuerpo ciertamente extenso de contratos que involucraban a dos corporaciones que habían participado en un gran volumen de transacciones que se habían repetido a lo largo del tiempo (Legal OnRamp, 2015). Las firmas legales corporativas que se encargan del seguimiento y man­ tenimiento de los contratos quisieran poder responder fácilmente preguntas tales como: ¿qué contratos incluyen términos como la exoneración de respon­ sabilidad por pérdidas sobrevinientes? ¿Para qué contratos un tipo particular de término se halla integrado en el cuerpo del contrato, y no en cambio en su apéndice? Este tipo de preguntas pueden ser realmente útiles. Por ejemplo, algunos términos podrían tener que actualizarse con frecuencia, y podría ser más barato hacerlo si ellos estuvieran localizados en el apéndice de un contrato. Encontrar en un cuerpo realmente extenso de contratos aquellos contratos en cuyos cuerpos figuren términos semejantes podría ser de ayuda para que las firmas legales determinen cuáles de todos ellos deberían ser reestructurados. Tales preguntas no pueden ser respondidas de manera sencilla y eficaz apelando a las herramientas de recuperación de la información ordinarias. Por medio de palabras clave y búsquedas booleanas, uno simplemente no puede especificar los puntos específicos en una estructura contractual, como tampoco puede lidiar con la gran variedad lingüística en la que ciertas figuras legales suelen expresarse. Por ejemplo, considérese la variedad de formas en las que puede expresarse una exoneración de responsabilidad por pérdidas sobrevinientes. A la hora de responder una pregunta, Watson la analiza, busca respues­ tas posibles en el interior de un cuerpo textual y formula un ranking de las principales candidatas, de acuerdo a la confianza que tenga en el modo en que ellas abordan la pregunta.

Analizar una pregunta [Question anafysis] significa analizar el texto de la pregunta buscando pistas “que determinen sobre qué versa la pregunta y cuál es su objeto”. Esto incluye analizar sintácticamente el texto, lo que “conlleva un análisis gramatical de una oración, una identificación de sus diferentes elementos sintácticos, como sujeto, predicado y objeto, y una identificación del modo en que algunos segmentos de una oración se vinculan con otros segmentos”. Esto también implica descomponer preguntas idóneas en “sub­ partes útiles y relevantes”. El proceso de análisis de una pregunta no conduce a una sola interpretación de lo que la pregunta significa. A lo que conduce, en cambio, es a una “multiplicidad de interpretaciones de la pregunta y... a una variedad de diferentes preguntas” (Ferrucci, 2012, pp. 6, 9).

-65

Kevin D. Ashley

La recuperación y el ranking suponen buscar respuestas posibles para cada una de las interpretaciones aludidas. “Estas preguntas son dirigidas a di­ ferentes fuentes, para generar un conjunto amplio de posibles respuestas”. Esto conduce a la generación de múltiples hipótesis sobre lo que la pregunta significa y sobre cómo responderla. “Cada respuesta que se presente como candidata, en combinación con su pregunta, representa una hipótesis independiente”. “Cada (hipótesis) se transforma en la raíz de un proceso independiente que intenta descubrir y evaluar en la respuesta que se presente como candidata la evidencia que la sustente” (Ferrucci, 2012, p. 6). El sistema emplea un conjunto de programas calificadores de la eviden­ cia, con los cuales, además de establecer un ranking de las respuestas posibles teniendo en cuenta la probabilidad con que cada respuesta aborda una pre­ gunta, determina su nivel de confianza en la corrección de la respuesta. “Cada par de evidencia-respuesta puede ser calificado mediante 100 calificaciones diferentes. Cada algoritmo calificador produce un nivel de confianza. Por cada candidato, puede haber alrededor de 10.000 calificaciones de confianza —sobre un total de un millón aproximadamente para una sola pregunta” (Fe­ rrucci, 2012, p. 9). Juzgar la probabilidad con que cada respuesta representa un candidato posible es un asunto que requiere combinar los pesos asociados con las dife­ rentes calificaciones evidencíales. Watson aprende los pesos asociados con las calificaciones de evidencia “utilizando un marco de aprendizaje estadístico automático” (Ferrucci, 2012, p. 9).

Así, al momento de desarrollar un servicio para el análisis de preguntas contractuales, es probable que el equipo de LOR haya empleado un conjunto de conceptos y relaciones para diferenciar entre los distintos tipos de términos y provisiones contractuales y para identificar las características estructurales de los contratos. Tales conceptos probablemente incluyeron los siguientes: en el cuerpo del contrato, en el apéndice, exclusión de responsabilidad, daños sobrevinientes. El equipo probablemente haya anotado manualmente un subconjunto de contratos para identificar estas características. El sistema de Watson luego aprendió a asociar estadísticamente una variedad de información sintáctica y semántica con estas características y las aplicó para anotar los textos contrac­ tuales restantes. La Figura 1.6 muestra una arquitectura de alto nivel para analizar los textos de documentos legales, incluyendo documentos contractuales. Ante un desafío, el programa analiza la pregunta, la traduce a un conjunto de limitacio­ nes estructurales y conceptuales sobre el tipo de respuesta buscada, identifica

-66-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

aquellos documentos que se presenten como candidatos para responder la pregunta y luego establece un ranking entre ellos. En la aplicación contractual, puede que sólo haya unos pocos calificadores de evidencia, algunos más útiles a la hora de responder preguntas de tipo estructural, otros mejor acondiciona­ dos para responder preguntas sobre un tipo de disposición legal. Las utilidades ponderadas entre los marcadores de evidencia y los tipos de preguntas no serían programadas sino aprendidas a partir de instancias positivas y negativas de pares de pregunta/respuesta.

Para el análisis semántico de textos y la recuperación de información conceptual, dos herramientas adicionales, mostradas en los casilleros de lí­ neas discontinuas de la Figura 1.6, son útiles. La extracción de relaciones y la expansión conceptual ayudan a analizar preguntas y a recuperar las posibles respuestas de un cuerpo.

Figura 1.6. Arquitectura de un analizador textual para documentos legales, incluyendo docu­ mentos contractuales. Los casilleros en líneas discontinuas muestran los componentes para el análisis semántico y la recuperación de información conceptual.

La extracción de relación [relation extraction] intenta “encontrar rela­ ciones semánticas (por ejemplo, [una persona puede haber] protagonizado, pintado, inventado, [o haber sido] naturalizada en) entre conceptos, aunque ellos hayan sido expresados con otras palabras o mediante diferentes estruc­ turas gramaticales” (Ferrucci 2012, p. 7).

La habilidad de un sistema para identificar una relación conceptual, como por ejemplo a un particular de cierto tipo firmando un tipo especí­ fico de acuerdo, es esencial para especificar la limitación a los efectos de

67-

Kevin D. Ashiey

la recuperación de información conceptual y la predicción (véase Sección 4.5.2). En el ejemplo contractual antes citado, el concepto de exención de res­ ponsabilidad puede ser expresado de múltiples formas, como por ejemplo “rechaza responsabilidad por daños incidentales o sobrevinientes”, “no asume responsabilidad por ninguna pérdida” o “no asume responsabilidad por ninguna pérdida o daño sufrido como resultado de un mal uso del pro­ ducto”, todas las cuales deben ser aprendidas por el programa como instancias de aquel concepto.

Otro ejemplo involucra alegatos por daños causados por vacunas bajo una ley federal (véase Sección 10.5). Uno podría intentar recuperar todos los casos en los que estuvieran involucradas afirmaciones según las cuales:

cuna vacuna específica> cpuede causar>

Por ejemplo, un tribunal podría haber sostenido que “la vacuna DPT puede causar encefalopatía aguda y muerte”, un caso que sería un punto de referencia útil para un abogado que representara a un difunto que ha sido víc­ tima de una circunstancia similar. La habilidad de un sistema para identificar una relación causal entre una vacuna específica y un tipo de daño sería esencial si el sistema tuviera que situar preferencialmente ese caso en un ranking y destacar su descubrimiento para beneficio del usuario. En un contexto jurídico diferente, uno podría desear recuperar todos los casos de malversación de secretos comerciales en los que:

Algunos ejemplos extraídos de casos reales incluyen los siguientes:

1.

Newlin y Vafa han firmado acuerdos confidenciales que les impiden usar software y herramientas pertenecientes a ICM luego de aban­ donar ICM.

2. Ungar firmó un acuerdo de confidencialidad. 3. El demandado Hirsch fue empleado por el demandante, luego de haber ejecutado un acuerdo de confidencialidad (Ashley y Brüninghaus, 2009, p. 141).

La expansión conceptual [concept expansión] identifica “conceptos que están íntimamente relacionados con otros conceptos enunciados en la pregun­ ta”, lo que pueden ser claves para “identificar asociaciones ocultas y relaciones implícitas” (Chu-Carroll et al., 2012, p. 1).

-68-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

Por ejemplo, en los ejemplos jurídicos ofrecidos más arriba de recu­ peración de información jurídico-conceptual, son varios los conceptos que deberían ser expendidos: incluye: ‘cláusula de confiden­ cialidad’, ‘acuerdo para no divulgar’, ‘contrato laboral con un acuerdo de confidencialidad’ incluye: ‘acuerdo para no com­ petir’, ‘acuerdo para que no haya competencia’, ‘pacto de no competencia’ cvacuna contra la varicela> incluye: ‘vacuna para evitar la vari­ cela’, ‘vacuna contra la viruela de gallina’, ‘varivax’

Tal como se desprende de estos ejemplos de extracción de relación, resulta evidente que conceptos tales como “vacuna”, “firmar” o “acuerdo de confidencialidad” pueden expresarse de múltiples formas. La expansión con­ ceptual, en efecto, identifica conceptos semánticamente relacionados en un cuerpo, derivando un diccionario o tesauro, en lugar de comenzar con uno.

1.4.5. Fuentes para las herramientas de la analítica textual

Herramientas como las empleadas por Watson se volvieron disponibles comercialmente gracias a la web. Como ya se destacó, IBM está intentando capitalizar su inversión en el sistema de Watson haciendo que un conjunto selectivo de sus funcionalidades esté disponible de forma conveniente para los desarrolladores. IBM ofrece una variedad de servicios por medio de IBM Watson Developer Cloud (también conocido como Watson Services and BlueMix) para construir apps cognitivas (IBM Watson Developer Cloud Watson Services, 2015). Estos son servicios comerciales sujetos a licencia y a sus tarifas correlativas. Algunas versiones se encuentran disponibles para la investigación académica, como AlchemyLanguage, un conjunto de herramientas para el procesamiento del lenguaje analítico/natural (IBM Watson Developer Cloud Watson Services, 2016).

Más allá de que uno desee evitar el empleo de herramientas que son propiedad de IBM, los servicios de Watson ofrecen un ejemplo instructivo para cualquiera interesado en el futuro de la práctica jurídica. Incluso si no se dispone de la habilidad para acceder directamente a los servicios, el encuadre de las herramientas que se constata en el sitio web es instructivo. Representa un esfuerzo creativo por parte de IBM en pos de demostrar cómo las próximas tecnologías de análisis textual pueden ser presentadas en un formato accesible. -69-

Kevin D. Ashley

Los esfuerzos de IBM proporcionan al menos un ejemplo de los tipos de servi­ cios de extracción de información (El) que se necesitan, de cómo agruparlos y de cómo deben ser presentados a programadores no informáticos (IBM Developer Cloud Watson Services, 2015). Es posible que IBM no sea en el futuro la única fuente de la que surjan este tipo de herramientas. Otras alternativas de código abierto están actualmente disponibles en un formato más tosco, que exige cierto tipo de adaptaciones por parte de los desarrolladores. Como se notó, el programa Watson de IBM está construido sobre la base de una plataforma UIMA, un marco Apache de código abierto que ha sido desplegado en numerosas aplicaciones para el pro­ cesamiento de textos a gran escala, patrocinadas por el gobierno y disponibles comercialmente (Epstein et al., 2012). En relación con esas herramientas, los investigadores académicos de la comunidad UIMA están desarrollando algunas versiones de código abierto como las descriptas. Por ejemplo, Grabmair et al. (2015), a quienes discutiremos en las Secciones 6.8,10.5,11.3 y 11.4, demues­ tran la utilidad de las herramientas de código abierto para extraer información argumentativa de los textos legales (incluyendo el cuerpo de casos federales sobre la compensación por vacunas mencionado más arriba) y utilizándola a fin de mejorar el ranking de documentos recuperados establecido por un sistema aplicado a la totalidad de un texto jurídico.

Quienes deseen crear aplicaciones jurídicas basándose en los servicios de Watson Developer Cloud o en las herramientas de UIMA todavía tienen que solucionar algunos problemas desafiantes. Aquí hemos ilustrado unos pocos de estos problemas, al contrastar los resultados de Watson y Debater con lo que demanda resolver un problema legal. Constituye el objetivo de este libro enmarcar estos problemas, de modo tal que los estudiantes y otros desarrolladores puedan analizarlos con las técnicas y herramientas que ofrece el campo de IA & Derecho.

1.5.

UNA GUÍA A ESTE LIBRO

Resulta intrigante imaginar cómo un programa de análisis de texto para responder preguntas podría ser capaz de resolver cuestiones jurídicas y, al mismo tiempo, de proporcionar explicaciones y argumentos que sean confiables para un operador jurídico. ¿Habrá un servicio de software para la generación de explicaciones y argumentos en el Derecho, que asista en la estructuración de explicaciones de respuestas y de argumentos jurídicos que las fundamenten? -70-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

En cualquier caso, eso no ha sucedido hasta ahora, y, antes de que su­ ceda, los investigadores deberán responder dos preguntas: ¿cómo pueden las herramientas y técnicas de análisis textual extraer la información semántica necesaria para la recuperación de argumentos (RA) y cómo puede esa infor­ mación ser aplicada para alcanzar la computación cognitiva?

Los lectores encontrarán respuestas a esas preguntas en las tres partes de este libro.

La Parte I introduce los modelos computacionales de razonamiento ju­ rídico (MCRJ) desarrollados en el campo de IA & Derecho. Ilustra programas de investigación que modelan diversos procesos jurídicos: la argumentación a partir de casos y leyes, la predicción de resultados para disputas legales, la integración de argumentos con normas, casos y sus valores subyacentes, y la producción de argumentos jurídicos. Estos modelos no lidian de manera directa con los textos jurídicos, pero la analítica textual podría cambiar todo eso en un futuro cercano. La Parte II examina algunas técnicas recientemente desarrolladas para extraer automáticamente información conceptual de los textos jurídicos. Ex­ plica ciertas herramientas para procesar algunos aspectos de la semántica o significado de los textos jurídicos, incluyendo la representación de conceptos jurídicos en ontologías y sistemas tipo, la ayuda que puede prestar para que los sistemas de recuperación de información jurídica tomen en cuenta los sig­ nificados, la aplicación del aprendizaje automático (AA) a los textos jurídicos y la extracción automática de información semántica de las leyes y decisiones judiciales.

La Parte III explora de qué modo las nuevas herramientas para el pro­ cesamiento de textos pueden conectar directamente tanto los MCRJ, como así también sus técnicas para representar conocimiento jurídico, con los mismos textos jurídicos, a fin de crear una nueva generación de aplicaciones jurídicas. Presenta los medios para alcanzar una recuperación de información jurídico-conceptual más robusta, que tome en cuenta la información de tipo argumentativa que se extraiga de los textos jurídicos. Estas técnicas permitirán que algunos de los modelos computacionales de razonamiento planteados en la Parte I puedan lidiar directamente con las tecnologías de documentación digital del ámbito jurídico y puedan razonar de manera directa a partir de los textos jurídicos para asistir a los seres humanos a la hora de predecir y justi­ ficar resultados legales. Tomadas conjuntamente, las tres partes de este libro ofrecen un manual sobre la ciencia de integrar lo que sabemos a propósito de la representación y -71-

Kevin D. Ashley

la utilización de conocimiento jurídico-semántico, propiciado por el enfoque de arriba hacia abajo proporcionado por el campo de IA & Derecho, y la evolu­ ción más de tipo espontánea, de abajo hacia arriba e impulsada por datos que ofrecen la tecnología computacional y la tecnología de la información (TI).

El carácter reciente del boom experimentado por la tecnología jurídica desmiente el hecho de que los investigadores en el campo de IA & Derecho ya hayan invertido una gran energía intelectual en pensar sobre cómo debería modelarse el razonamiento jurídico. Este libro no busca proporcionar una his­ toria completa de esa investigación. En su lugar, simplemente ilumina algunas tendencias en el desarrollo de MCRJ y MCAJ y explica sus implicaciones para el futuro, tomando en cuenta las oportunidades para integrar la analítica textual. Tampoco este libro cubre todas las formas en las que las start-ups de tecnología jurídica están manejando los datos para predecir resultados jurídi­ camente relevantes. En su lugar, el foco está puesto en cómo emplear e integrar el conocimiento de la semántica jurídica para predecir resultados y explicar predicciones. Tras años de perseguir una metodología de rigor empírico y científico, los investigadores de IA & Derecho han descubierto qué funciona y qué no funciona a la hora de modelar computacionalmente una argumentación jurídica. Si prestan atención a las lecciones, barreras y limitaciones, aquellos desarrolladores que hoy forman parte del actual boom de la tecnología jurídica y se interesen en incorporar el conocimiento de la semántica jurídica podrían alcanzar la recuperación de argumentos (RA) y crear un nuevo tipo de servicio de software, una app jurídica de computación cognitiva (AJCC). El resto de esta sección resume la narrativa del libro con mayores detalles, sirviendo como un bosquejo de sus capítulos.

1.5.1. Parte I: Los modelos computacionales de razonamiento jurídico Todos los ejemplos formulados en la Parte I, referidos a programas ba­ sados en reglas o casos con la capacidad de realizar operaciones inteligentes como razonar, dar una explicación, argumentar y predecir resultados jurídicos, comparten algo en común: dar razones.

Razonar significa “formular inferencias o conclusiones con el uso de la razón”. La explicación es “el acto o proceso de explicar”, es decir, de ofrecer “la razón de o la causa por la que”, así como de mostrar “el desarrollo lógico o las relaciones de”. Un argumento implica “una razón dada a modo de prueba o refutación” o un “discurso con la intención de persuadir”. La predicción hace referencia a “un acto de predecir”, en donde predecir significa “declarar o in­ 72

Una introducción a inteligencia Artificial y Derecho (IA & Derecho)

dicar por adelantado, en especial: pronosticar sobre la base de la observación, la experiencia o la razón científica” (Merriam-Webster’s Collegiate Dictionary, 2015). En el Derecho, una razón dada como fundamento de una inferencia o conclusión por lo general involucra aseverar que una norma jurídica garantiza la conclusión, citando a favor de la regla una fuente autorizada, como una ley o un caso aplicable, y explicando o argumentando por qué la regla ha de apli­ carse. (En cuanto a la definición de estas tareas inferenciales fundamentales, ¡difícilmente podrá evitarse la circularidad!). A fin de procesar las razones, los modelos emplean estructuras cog­ noscitivas para representar tanto la información proveniente de las reglas jurídicas o fijadas por los tribunales, como así también la proveniente de los hechos propios de cada caso y los esquemas de inferencia y argumentación. Hasta ahora, las estructuras de representación cognoscitiva tuvieron que ser introducidas manualmente, lo que constituye la fuente de lo que antes aquí se definiera como el cuello de botella en la adquisición de conocimiento.

Gran parte del trabajo, discutido en el Capítulo 2, se ha orientado a cons­ truir modelos lógicos formales de razonamiento jurídico, un tipo de modelo que probablemente todavía no esté preparado para conectarnos de manera directa y automática con los textos jurídicos. El capítulo contrasta los modelos lógicos de razonamiento con las reglas jurídicas y las interpretaciones realistas de las leyes. Considera algunas aproximaciones computacionales para asistir a los seres humanos en el proceso de hallar e interpretar reglas jurídicas que constituyan alternativas a los modelos lógicos y que puedan conectarnos con los textos jurídicos. Los modelos de razonamiento basados en casos judiciales, discutidos en el Capítulo 3, están orientados a analizar el razonamiento analógico basado en los precedentes judiciales, un fenómeno importante en las jurisdicciones donde rige la tradición jurídica del common law y en donde las aplicaciones de la analítica textual probablemente resulten más exitosas. El capítulo compara un número de modelos basados en casos en los siguientes términos: cómo el MCRJ representa la información jurídica derivada de los casos, aquellos aspec­ tos característicos del razonar jurídicamente con casos o precedentes que el MCRJ captura o ignora, el grado en el que el MCRJ integra las reglas, los casos y los valores subyacentes, y la compatibilidad de las técnicas representativas del MCRJ con las nuevas técnicas para extraer información de los textos.

Algunos modelos computacionales para predecir resultados legales, descriptos en el Capítulo 4, también se encuentran maduros para la aplicación de la analítica textual. El capítulo inspecciona las técnicas del aprendizaje auto­

-73-

Kevin D. Ashley

mático para predecir resultados de casos judiciales y analiza su compatibilidad con la analítica de textos.

La culminación de todo este trabajo en IA y Derecho ha sido el desa­ rrollo de modelos computacionales de argumentación jurídica y de esquemas de argumentación jurídica, descriptos en el Capítulo 5 con el que finaliza la Parte I. El capítulo se focaliza en los MCAJ que unifican el razonamiento lógi­ camente con reglas jurídicas y analógicamente con los precedentes judiciales. Los modelos generan argumentos jurídicos, a veces representados en forma diagramada, con el propósito de planificar argumentos escritos, una instrucción o la discusión pública de asuntos jurídicos. Algunos aspectos de estos modelos también están listos para aplicar la analítica textual.

1.5.2. Parte II: La analítica de textos jurídicos Mientras tanto, otros campos de investigación y desarrollo, como el de la recuperación de información, BR, El y minería de la argumentación, han estado perfeccionando sus técnicas para representar conceptos y relaciones jurídicas. Los programas pueden entonces procesar semánticamente los conceptos y las relaciones y los modelos computacionales de razonamiento jurídico los pueden usar inteligentemente. Como lo explica el Capítulo 6, esto incluye el desarrollo de ontologías jurídicas y, como lo ilustran más recientemente, los desarrollos de sistemas tipo UIMA como el empleado en Watson y Debater, o tipo LUIMA, un sistema tipo extendido que cubre los dominios jurídicos. Esta parte analiza cómo adaptar estas herramientas de la analítica de textos para alcanzar la recuperación de información conceptual de naturaleza jurídica.

Algunas de las nuevas técnicas de la analítica textual ya están siendo integradas con herramientas para la recuperación de información jurídica de tipo comercial (RIIC). El Capítulo 7 introduce la tecnología actual para la recu­ peración de información jurídica, explica estas aplicaciones iniciales y ofrece algunas nuevas. El Capítulo 8 analiza cómo aplicar machine learning (ML) o aprendizaje automático (AA) a los datos textuales en contextos de descubri­ miento electrónico (el descubrimiento de evidencia relevante para litigar a partir de información electrónica) y de recuperación de información jurídica. Las técnicas de la analítica de textos están extrayendo información fun­ cional de leyes y regulaciones, así como información de tipo argumentativa de los casos judiciales. Como se explica en los Capítulos 9 y 10, las técnicas incluyen la extracción basada en reglas mediante sistemas tipo LUIMA y AA adaptados a cuerpos de decisiones judiciales.

-74-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

La información conceptual de tipo legal que reviste interés no sólo incluye los tópicos y los tipos de leyes o estatutos (por ejemplo, el dominio regulatorio y si una disposición constituye una definición o una prescrip­ ción), sino también información funcional tal como los agentes a los que una ley o estatuto se dirige para que se comuniquen entre ellos. La información conceptual de los casos incluye información de naturaleza argumentativa tal como si un enunciado invoca una norma jurídica para resolver una disputa, si constituye una declaración probatoria de un hecho sobre el caso o si indica una aplicación de la regla o de elementos de la regla a los hechos de un caso.

1.5.3. Parte III: Conectando los modelos computacionales de razo­ namiento y los textos jurídicos

Mediante la integración de los modelos y herramientas aludidos en las partes I y II, los programas pueden usar la información conceptual extraída di­ rectamente de los textos jurídicos para formular razonamientos, explicaciones, argumentaciones y predicciones de naturaleza jurídica. Básicamente, el objetivo para la analítica de textos es el de llenar automáticamente las estructuras de representación cognoscitiva de los modelos computacionales. En este sentido, los servicios de Watson y las herramientas UIMA pueden reducir el cuello de botella en la adquisición de conocimiento, alcanzar la recuperación de información conceptual de naturaleza jurídica y dar respuesta a los desafíos arriba aludidos que supone la búsqueda de respuestas (BA), incluyendo la necesidad de explicar las respuestas. La Parte III explica cómo realizar estas conexiones y lograr AJCCs. El Capítulo 11 da cuenta de cómo integrar la BR, la El y las técnicas de minería argumentativa con ciertos MCRJ, con el fin de producir nuevas herramientas para la recuperación de información conceptual de naturaleza jurídica, incluyendo RA. Afortunadamente, estas herramientas no dependen de procesar todos los documentos que estén disponibles en un repositorio. Al momento de diseñar una app jurídica determinada, no es necesario que un cuerpo esté disponible en su totalidad para que el procesamiento textual identifique conceptos, roles conceptuales y relaciones, así como otra clase de información de naturaleza argumentativa. En su lugar, las nuevas técnicas de procesamiento textual pueden ser aplicadas como un tipo de filtro entre un sistema de recuperación para la totalidad de un texto y los usuarios. El filtro es aplicado sólo a los documentos recuperados como relevantes por medio de búsquedas tradicionales, destacando aquellos que, si se toman en consideración los conceptos, las relaciones conceptuales y otra información argumentativa,

-75-

Kevin D. Ashley

respondan a la necesidad del usuario. El Capítulo 11 prueba este enfoque de filtrado; la información de naturaleza argumentativa extraída de los textos ju­ rídicos mejora el modo como un sistema informativo ordena los documentos recuperados de la totalidad de un texto jurídico.

Como se explica en el Capítulo 12, estas herramientas, a su vez, pueden ser integradas incluso en mayor medida con algunos de los modelos computacionales de razonamiento y argumentación jurídica analizados en la Parte I, para crear una nueva raza de apps jurídicas en las que colaboren la máquina y el hombre, cada uno realizando aquellas tareas inteligentes en la que se desempeñe mejor. De manera complementaria, los modelos computacionales de razonamiento, explicación, argumento y predicción desempeñarán roles significativos a la hora de personalizar servicios legales mercantilizados. Ellos proporcionan ejemplos de los procesos y tareas que pueden ser adaptadas para las nuevas apps y de los conceptos, roles y relaciones que deberían ser implementados. Las nuevas herramientas de la práctica jurídica, sobre la base de información extraída mediante UIMA u otra tecnología de análisis textual, pueden razonar con textos jurídicos, permitiendo que los sistemas de práctica adapten sus resultados al problema particular de un usuario. En efecto, ellos son medios por los cuales un servicio jurídico mercantilizado, en los términos de Susskind, pueden ser personalizados. El Capítulo 12 presenta la idea de que las consultas de información jurídica y la búsqueda de respuestas deben ser pensadas como medios para evaluar las hipótesis sobre el Derecho y sobre cómo este se aplica. Introduce la posibilidad de que una app jurídica pueda atraer a los usuarios para trabajar colaborativamente, planteando, evaluando y revisando hipótesis sobre cómo debería resolverse un asunto. La Sección 12.7 ilustra algunos casos prácticos y los diferentes tipos de hipótesis jurídicas implicados en ellos. Los lectores interesados en obtener una perspectiva de alto nivel sobre cómo las apps ju­ rídicas pueden encarar estos casos prácticos podrían comenzar con el último capítulo y luego volver a retomar el inicio de este libro.

Las nuevas apps estarán sujetas a algunas limitaciones. Mientras las técni­ cas actuales de la analítica textual pueden extraer gran información conceptual, ellas no pueden extraer toda la información. Muchas inferencias conceptuales simplemente son demasiado indirectas, por lo que su identificación demanda un conocimiento del sentido común de cierta profundidad. Por eso constitu­ ye una importante pregunta empírica la de cuánto puede lograrse apelando a las técnicas actuales de la analítica textual. Antes de concluir, el Capítulo 12 explora estos desafíos pendientes.

-76-

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

1.6.

LAS IMPLICANCIAS DE LA ANALÍTICA TEXTUAL PARA LOS ESTUDIANTES

Los instructores jurídicos, las facultades de abogacía y diversos autores han estado alentando a los educadores para que pongan cada vez más atención en las tecnologías de la práctica jurídica actualmente en desarrollo. Por ejemplo,



Granat y Lauritsen (2014) identificaron 10 programas de Derecho que dirigen la atención de los estudiantes hacia la tecnología de la práctica jurídica. Estos programas cubren tópicos tales como siste­ mas de práctica que automatizan la recopilación de datos, la toma de decisiones y la redacción de documentos, el desarrollo de sistemas jurídicos expertos para servicios jurídicos y clínicas legales de interés público, el rediseño de procesos jurídicos, la aplicación del AA a los datos y la informática jurídicos.



El Law Center de la Universidad de Georgetown promociona la Iron Tech Lawyer Competition. Los estudiantes de abogacía están construyendo sistemas jurídicos expertos y los están poniendo en competencia (Iron Tech Lawyer, 2015). Información adicional sobre estas actividades puede consultarse en Staudt y Lauritsen (2013).



Dos autores clarividentes, Lippe y Katz (2014), han instado al cam­ po legal a considerar específicamente el impacto que la tecnología Watson tendrá en la práctica jurídica del futuro.

Este libro pretende ser de ayuda para que los estudiantes de abogacía, los graduados en ciencias de la computación, los operadores jurídicos y los tecnólogos acepten ese desafío y se animen a diseñar e implementar aplicacio­ nes legales de un tipo que no haya sido técnicamente posible con anterioridad. Como ya se ha argumentado, la combinación de las nuevas herramientas de la analítica de textos y los modelos computacionales de razonamiento jurídico proporciona una oportunidad para aquellos que son conscientes del potencial de implementar computacionalmente procesos de práctica jurídica.

Los estudiantes de abogacía y los operadores jurídicos no tienen familia­ ridad con la programación informática. El foco no está puesto en la codificación computacional sino, de manera más general, en descripciones sistemáticas de los procesos jurídicos y computacionales. Por ejemplo, en cada uno de los ejemplos sobre MCRJ de la Parte I, examinamos las siguientes cuestiones: el proceso jurídico, los modelos de programas y los supuestos al respecto, los insumos y los resultados del programa y el modo como son representados, los procesos computacionales (en un nivel de descripción elevado, por vía

-77

Kevin D. Ashley

de diagramas arquitectónicos, diagramas de flujo y algoritmos) con los que el programa transforma los insumos en resultados, ejemplos concretos de los pasos algorítmicos requeridos para transformar insumos específicos en resul­ tados específicos, el modo en que los investigadores evaluaron los programas, las fuerzas y debilidades del enfoque y su relevancia a la luz de los recientes desarrollos en el procesamiento de textos jurídicos.

La codificación informática es, en realidad, el último paso en el proce­ so de diseñar aplicaciones computarizadas exitosas. Algunos pasos clave son inevitablemente anteriores a la codificación, como la especificación de los requisitos para el programa definitivo y el diseño de una arquitectura de sof­ tware de alto nivel que lo lleve a cabo. Sólo entonces llega el momento para que los programadores intenten implementar el software. Los modelos recientes de desarrollo de software pueden poner el foco en un proceso modular que involucra instancias múltiples y anidadas de estos pasos, pero incluso entonces la especificación de los requisitos demandados para diseñar un módulo de alto nivel siempre resulta anterior a la codificación necesaria para implementarlo (Gordon, 2014). El objetivo pedagógico, pues, no es enseñarle al lector a programar, sino cómo proponer y diseñar apps que asistan a los usuarios a la hora de involu­ crarse en procesos jurídicos. Si los diseños de alto nivel son atractivos, siempre habrá programadores informáticos para implementarlos.

Los estudiantes de abogacía idealmente están preparados para compro­ meterse en la identificación de aquellos procesos jurídicos que sean modelables, así como en la especificación de los requisitos que eso demandaría y en el diseño de las arquitecturas de alto nivel implicadas en esta tarea. Los estu­ diantes de abogacía son continuamente introducidos en procesos jurídicos que les resultan novedosos y son instruidos en cómo desarrollar cada uno de los procesos, paso a paso. Esto ocurre repetidamente durante el primer año de carrera, en competiciones judiciales simuladas, en clínicas legales, en pasantías y en trabajos a tiempo parcial en estudios jurídicos, departamentos corporativos y dependencias universitarias de transferencia tecnológica, así como en actividades pro bono. Hoy, también es probable que los estudiantes de abogacía ya se hayan acostumbrado a las apps informáticas desde una edad temprana. Ellos están íntimamente familiarizados con los nuevos modos de comunicación, con las actuales convenciones de interfaz y con el acceso a los recursos que ofrece la web. Mientras tanto, las descripciones de los modelos computacionales expo­ nen a los lectores a una diversidad de supuestos e incertidumbres inherentes

-78

Una introducción a Inteligencia Artificial y Derecho (IA & Derecho)

al razonamiento jurídico que afectan el razonamiento humano. De hecho, los estudiantes de abogacía estudian las fuentes de estas incertidumbres a lo largo de toda su carrera académica. Estos supuestos e incertidumbres presentan algunas limitaciones de diseño que los investigadores en IA & Derecho han aprendido a evitar, minimizar o adaptar en sus MCRJ, y que necesariamente afectarán los esfuerzos para aplicar herramientas de procesamiento como las representadas en Watson y Debater. Los estudiantes también aprenderán cómo y en qué medida se evaluarán experimentalmente estas tecnologías, así como lo que esta evaluación significa. En cuanto al desarrollo de herramientas de computación cognitiva para la práctica jurídica, es un tiempo de exploración, incluso para IBM. La Watson Developer Cloud es indicativa de una tendencia a hacer que las herramientas analíticas sean más convenientes para su uso, incluso sin poseer experiencia en programación informática. Una propuesta bien fundamentada de un estudiante de abogacía, de un jurista o de un abogado litigante bien podría corresponderse con el interés material de IBM. Esto no resulta tan impensado como podría pa­ recer. De hecho, ya ha sucedido. Los estudiantes de abogacía de la Universidad de Toronto (en caso de que usted haya leído este capítulo, esto se localiza en Canadá, Watson) ya están participando de la construcción de apps jurídicas en colaboración con IBM y empleando los servicios de Watson (Gray, 2014). Ellos crearon la start-up de Sillicon Valley llamada Ross, que se discutirá en el Capítulo 12. Como un incentivo adicional, IBM anunció “una competencia que reparte 5 millones de dólares en premios para desarrollar y demostrar cómo los seres humanos pueden colaborar con tecnologías cognitivas poderosas para enfrentar algunos de los más grandes desafíos mundiales” (Desatnik, 2016).

¿Por qué un estudiante de abogacía no podría ganar con una app jurídica de computación cognitiva que resuelva problemas interjurisdiccionales en materia de seguridad y delitos informáticos? Abrir la imaginación de los estu­ diantes sobre lo que es posible podría ser todo lo que se necesite a los efectos de permitirles diseñar y proponer una app semejante. Este libro apunta a eso. ¡La computación cognitiva en el mundo jurídico se dará muy pronto!

79-

2 El modelaje del razonamiento legislativo

2.1. INTRODUCCIÓN l Derecho es un campo regido por reglas y muchas de esas reglas se plasman en leyes y regulaciones. Puesto que las reglas pueden ser ex­ presadas lógicamente y puesto que las computadoras pueden razonar deductivamente, el modelaje computacional del razonamiento jurídico debería ser algo sencillo. Uno simplemente introduce una situación fáctica al programa de la computadora; el programa identifica las reglas relevantes, determina si las condiciones previstas en las reglas se satisfacen y explica la respuesta en términos de las reglas aplicables al caso.

E

Construir un modelo computacional de razonamiento jurídico, no obs­ tante, presenta desafíos. Como se explica más abajo, las leyes a menudo son vagas, sintáctica y semánticamente ambiguas y están sujetas a una indetermi­ nación estructural. A los efectos de que un programa computacional aplique satisfactoriamente una norma jurídica, ¿qué interpretación lógica debería adjudicarle? ¿Cómo se supone que afronte la vaguedad y textura abierta de los términos contenidos en la ley? ¿O cómo se supone que determine si se halla frente a una excepción? El capítulo traza un contraste entre la aplicación deductiva de una ley y el proceso complejo involucrado en la interpretación jurídica, en la que frecuentemente se ponen en juego argumentos razonables en conflicto. Los modelos lógicos clásicos pueden fallar a la hora de afrontar la indeterminación jurídica, una característica común del razonamiento jurídico: incluso cuando los abogados están de acuerdo sobre los hechos que motivan una disputa y 81

Kevin D. Ashley

sobre las reglas aplicables, todavía pueden formular argumentos jurídicamente razonables tanto a favor como en contra de una proposición.

Razonar con leyes, sin embargo, continúa siendo una necesidad apre­ miante. El capítulo examina diversos enfoques de IA & Derecho orientados a tratar o refinar estas cuestiones: un proceso de normalización para elaborar sistemáticamente las múltiples versiones lógicas de una ley, una implementación lógica para aplicar deductivamente una ley y modelos más recientes de cumplimiento de procesos de negocio y modelaje legal basados en la red, ambos potencialmente útiles para la computación cognitiva. Las preguntas tratadas en este capítulo incluyen las siguientes: ¿De qué modo las reglas jurídicas pueden ser ambiguas, tanto desde el punto de vista semántico como sintáctico? ¿Cómo hacen los abogados para afrontar estas ambigüedades y cómo podrían hacerlo los programas computacionales? ¿Qué son la redacción jurídica normalizada, un Prolog y un programa Prolog? ¿Qué es una búsqueda en profundidad y en qué difiere de una búsqueda en amplitud? ¿Qué es la indeterminación jurídica y por qué representa un problema para los modelos lógicos de razonamiento jurídico? ¿Cómo los programas lógicos pueden analizar cuando un proceso de negocio cumple con las regulaciones? ¿Qué problemas abordan las representaciones cognoscitivas isomórficas de las leyes? ¿Qué son las redes de citas y los diagramas de red legales, y cómo ellos pueden respaldar la computación cognitiva?

2.2. LAS COMPLEJIDADES DE MODELAR EL RAZONAMIENTO LEGISLATIVO

Las leyes y las regulaciones son textos jurídicos complejos. Un laberinto frecuentemente intrincado de disposiciones escritas en una jerga técnica define lo que es legal e ilegal. Con sus redes de referencias cruzadas y excepciones, las leyes y las regulaciones son a menudo demasiado complicadas para que pue­ dan ser comprendidas por un simple ciudadano de a pie. Incluso los expertos jurídicos pueden verse en dificultades simplemente al momento de identificar tan sólo aquellas disposiciones que son relevantes para analizar una pregunta dada, un problema o un tópico. El campo de IA & Derecho ha estudiado durante mucho tiempo el problema de cómo diseñar programas de computación que puedan razonar lógicamente con reglas jurídicas a partir de las leyes y las regulaciones. Ha dado grandes pasos y ha demostrado algunos éxitos, pero también ha desarrollado una apreciación justa de cuán dificultoso es el problema. En el proceso, el -82-

El modelajedel razonamiento legislativo

campo ha identificado un número de limitaciones que necesitan ser tratadas o refinadas, en especial si el propósito consiste en diseñar un programa computacional con la capacidad de aplicar reglas jurídicas. Como ya se dijo, estas limitaciones incluyen la vaguedad y dos tipos de ambigüedad, la complejidad de la interpretación jurídica, la necesidad de respaldar argumentos razonables y aun así conflictivos sobre lo que significa una norma jurídica y problemas prácticos a la hora de mantener las representaciones lógicas de las leyes a la par de las representaciones textuales.

De los dos tipos de ambigüedad que complican el modelaje computacional del razonamiento jurídico, la ambigüedad semántica y su prima, la vaguedad, son familiares. Los conceptos regulatorios y los términos que la legislatura selecciona pueden no estar lo suficientemente bien definidos como para de­ terminar si, y de qué modo, ellos se aplican. La segunda clase de ambigüedad, la ambigüedad sintáctica, puede ser menos familiar: los términos lógicos que las legislaturas emplean, como “si”, “y”, y “a menos que”, introducen interpre­ taciones múltiples de leyes por lo demás bastante simples.

2.2.1. La ambigüedad semántica y la vaguedad La ambigüedad semántica “es la incertidumbre entre las relativamente pocas alternativas diferentes” acerca del significado de un término (Alien y Engholm, 1978, p. 383). “La vaguedad es una incertidumbre semántica que versa precisamente sobre dónde establecer el límite con respecto a lo que un término refiere y no refiere” (Alien y Engholm, 1978, p. 382). Ambas se deben al hecho de que las legislaturas pueden emplear térmi­ nos que son vagos o que no se hallan bien definidos. Waterman enfrentó el problema que los términos jurídicos mal definidos presentan para construir sistemas jurídicos expertos (Sección 1.3.1) y Gardner intentó solucionarlo con su algoritmo para diferenciar entre preguntas jurídicas fáciles y difíciles (Sección 1.4.2).

La ambigüedad semántica y la vaguedad son concesiones a la realidad humana, social y política. La legislatura no puede confeccionar el lenguaje con un detalle tal que resulte suficiente para anticipar todas las situaciones que podría aspirar a regular. En su lugar, emplea una terminología más general cuando formula reglas jurídicas y confía en los tribunales para que interpre­ ten y apliquen los términos y conceptos abstractos a las nuevas situaciones de hecho. Redactar intencionalmente las disposiciones clave de una manera semánticamente ambigua también puede facilitar el acuerdo legislativo. Si la

83-

Kevin D. Ashley

legislatura intentara emplear un lenguaje sumamente específico o detallado, podría profundizar todavía más la dificultad de alcanzar el consenso político (Alien y Engholm, 1978, p. 384).

La ambigüedad semántica y la vaguedad, no obstante, también son fuente de indeterminación jurídica: dos partes pueden estar de acuerdo acerca de qué reglas jurídicas se aplican y acerca de los hechos del caso, pero aun así esgri­ mir argumentos jurídicos razonables que fundamenten resultados opuestos (Berman y Hafner, 1988). Incluso cuando la intención legislativa es clara y el lenguaje de la ley transparente, los adversarios jurídicos habitualmente esgrimen argumentos tan razonables como conflictivos sobre lo que significan los términos de una regla. En su ejemplo, el caso Johnson vs. Southern Pacific Co., 117, Fed. 462 (8vo Cir. 1902) rev’d 196 U. S. 1 (1904), una ley federal declaró “ilegal que los ferrocarriles utilizaran para el tráfico interestatal cualquier vagón que no esté equipado con acopladores que se acoplen automáticamente por impacto”. De acuerdo al preámbulo de la ley, el propósito del acto consistía en “promover la seguridad de los empleados... obligando a los transportistas... a equipar sus vagones con acopladores automáticos y a sus locomotoras con frenos en las ruedas motrices” (Berman y Hafner, 1988, p. 196).

No hubo desacuerdo sobre los hechos. “El demandante, el guardafrenos de un ferrocarril, fue herido cuando intentó acoplar la locomotora al vagón restaurante, con el propósito de moverlo de la vía”. La causa del hecho no fue un problema: la herida del demandante fue causada por el hecho de que, si bien la locomotora estaba equipada con un acoplador semejante, no era uno que pudiera acoplarse automáticamente a ese vagón restaurante.

No obstante, los tribunales no estuvieron de acuerdo sobre si se satis­ ficieron las condiciones incorporadas en las reglas, y en particular sobre “el significado de los tres predicados incluidos en esta regla: el significado de ‘vagón’, el significado de ‘utilizado en el tráfico interestatal’ y el significado de ‘equipado’” (Berman y Hafner, 1988, p. 198). ¿Las locomotoras están o no incluidas entre los “vagones” que deben contar con acopladores automáticos? ¿Abarca el “comercio interestatal” ese preciso momento en el que un vagón está a la espera de su siguiente carga? ¿El vagón y la locomotora estaban o no “equipados” con acopladores automáticos? Tanto el tribunal de primera instancia como los tribunales de apelación disintieron sobre las respuestas a estas preguntas y ciertamente no trataron esas respuestas como determinadas por los significados literales de los términos.

84-

El modelaje del razonamiento legislativo

2.2.2. Ambigüedad sintáctica

La otra clase de ambigüedad, la ambigüedad sintáctica, surge de una rea­ lidad diferente: el lenguaje legal no siempre sigue una única estructura lógica coherente. Este es un resultado que en parte se desprende de las propiedades de los textos escritos en lenguaje natural. A diferencia de los formalismos matemáticos y lógicos y de la codificación informática, los textos escritos en lenguaje natural no nos permiten especificar explícitamente los alcances de los conectores lógicos, como “si”, “y”, y “a menos que”. La sintaxis de una ley también puede ser poco clara debido al lenguaje utilizado al implementar las excepciones y las referencias cruzadas. Las excepciones a una disposición pueden expresarse tanto de manera explícita como implícita, y ellas pueden aparecer no sólo dentro de una disposición sino también en otras disposiciones o incluso en otras leyes (Alien y Engholm, 1978). Layman Alien demostró que la ambigüedad sintáctica conduce a múl­ tiples interpretaciones lógicas posibles incluso para disposiciones jurídicas relativamente simples, con consecuencias potencialmente profundas para quienes son alcanzados por la regulación. Él proporcionó un ejemplo de una ley de Louisiana que definía un tipo penal:

Ninguna persona puede participar de una llamada telefónica, conversación o conferencia local de naturaleza anónima y emplear lenguaje obsceno, profano, vulgar, lascivo o indecente, como así tampoco formular sugerencias o proposiciones de naturaleza obsce­ na y realizar amenazas de ningún tipo (Alien y Engholm, 1978). Quizá la legislatura seleccionó intencionalmente términos como ‘obsce­ no’ e ‘indecente’ con pleno conocimiento de su textura abierta. Es mucho menos probable que ella haya promulgado un estándar penal con una ambigüedad sintáctica inherente: para estar en violación de la ley, ¿resulta suficiente que una llamada incluya lenguaje obsceno o amenazas?; o, como exitosamente argumentó el acusado ante el tribunal distrital en State vs. Hill, 245 LA 119 (1963), ¿debe incluir lenguaje obsceno y amenazas? El Tribunal Superior de Louisiana discrepó; interpretó que “y” significaba “o”, aparentemente violando una máxima del common law según la cual las leyes penales deben ser formuladas estrictamente. Con seguridad, hubiera sido una mejor política legislativa promulgar un estándar que desde el punto de vista sintáctico fuera carente de ambigüedades (Alien y Engholm, 1978).

Alien describió un proceso de normalización sistemática para identificar ese tipo de ambigüedades. Dada una ley, corresponde:

-85-

Kevin D. Ashley

1. Identificar las proposiciones sustantivas “atómicas” de la ley y re­ emplazarlas con etiquetas (SI, S2,...). 2.

Apelar a la lógica proposicional para clarificar la sintaxis de la ley.

3.

Restaurar el texto en función de las proposiciones sustantivas.

En lógica proposicional, los símbolos reemplazan a proposiciones ente­ ras. Por medio de operadores y conectores lógicos, las proposiciones pueden ensamblarse en enunciados complejos cuyos valores de verdad solamente dependan de si las proposiciones que los componen son verdaderas o falsas. A diferencia de la lógica de predicados, definida más abajo, la lógica proposicional no considera los componentes o la estructura de las proposiciones individuales (véase Clement, 2016).

La aplicación del proceso de normalización a la ley de Louisiana produce un número determinado de versiones, incluyendo las dos que exhibe la Figura 2.1. Cada versión constituye una expresión en lógica proposicional, la cual reproduce su estructura lógica de manera más clara. Si

Si

SI. Una persona participa de una llamada telefónica, conversación o conferencia local de naturaleza anónima, Y

SI. Una persona participa de una llamada telefónica, conversación o conferencia local de naturaleza anónima, Y

S2. Esa persona emplea lenguaje obsceno, profano, vulgar, lascivo o indecente,

O

S2. Esa persona emplea lenguaje obsceno, profano, vulgar, lascivo o indecente, O

S3. Esa persona realiza amenazas de cualquier tipo,

S3. Esa persona realiza amenazas de cualquier tipo, Entonces

Entonces

S4. Esa persona ha incurrido en una conducta ilegal.

S4: -SI, S2.

S4. Esa persona ha incurrido en una conducta ilegal. S4 : -SI, S2, S3.

S4 : -SI, S3.

Figura 2.1. Las versiones normalizadas de dos interpretaciones alternativas de la ley de 'Louisiana y las reglas Prolog correspondientes (abajo) (Alien y Engholm, 1978).

-86

El modelaje del razonamiento legislativo

2.3.

LA APLICACIÓN DEDUCTIVA DE LAS REGLAS JURÍDICAS

Una ley formalizada en el formato de la lógica proposicional ofrece numerosas ventajas.

En primer lugar, el empleo de la lógica proposicional para clarificar la sintaxis de una ley puede lograr que un enunciado complejo sea mucho más fácil de comprender. Por ejemplo, Alien contrasta una disposición compleja del Interna! Revenue Cade (IRC, sección 354), que versa sobre el tratamiento fiscal de canjes de valores en ciertas reorganizaciones societarias, con una versión normalizada como la que exhibe la Figura 2.2 en su columna derecha. La versión normalizada identifica las proposiciones sustantivas “atómicas” y emplea la sangría para dar cuenta de la estructura lógica simplificada. Alien también emplea una especie de diagrama de flujo acudiendo a la lógica de la versión “proposicionalizada” de la ley, donde cada uno de los nodos del gráfico representa uno de los requisitos legales (Figura 2.3). Los nodos etiquetados, del nodo SI al nodo S9, representan las proposiciones etiquetadas en la versión normalizada de la Figura 2.2 (derecha).

El diagrama de flujo puede ser mucho más fácil de comprender que la versión textual o incluso que la versión normalizada de la ley. Demuestra tres recorridos alternativos a través de la ley, comenzando por un intercambio de valores en una reorganización societaria (S2) hasta llegar a la conclusión desea­ da, un reconocimiento de que “no hay lugar para el reconocimiento de pérdidas o ganancias” (SI). Estos recorridos permanecen más o menos implícitos en las versiones textual y normalizada (aunque Alien combinó el diagrama de flujo y la versión normalizada para hacer explícitos los recorridos).

A propósito del cumplimiento societario, por caso, esos diagramas de flujo pueden ser útiles para clarificar las obligaciones relativas a los diversos miembros de la sociedad. El cumplimiento societario supone detectar y preve­ nir las violaciones legales de los agentes, empleados, funcionarios y directores de una corporación, de una firma o de cualquier otro negocio. Presentar las obligaciones regulatorias de un empleado en la forma de un diagrama de flujo podría ser útil para que el empleado entienda qué es legal y qué no lo es.

2.3.1. Ejecutando una versión normalizada en una computadora En segundo lugar, ¡una disposición legal formulada en lógica proposicio­ nal puede ejecutarse en una computadora! En la parte inferior de la Figura 2.1 están situadas las dos versiones normalizadas de la ley de Louisiana expresadas

-87-

Kevin D. Ashley

en Prolog, un lenguaje de programación basado en la “lógica de la cláusula de Horn”, asociada a la inteligencia artificial y a la lingüística computacional. Las versiones normalizadas de esta ley son ejemplos de la simple lógica proposicional. La versión situada a la derecha, S4:- SI, S2, S3 significa “Si SI A S2 A S3 => S4”, en donde A significa “y”. La versión situada a la derecha emplea dos fórmulas, S4 :-Sl, S2 y S4 :-Sl, S3, para implementar la disyunción (i.e., la “o”) en la versión. (a) Regla general

Si

(1) En general. No hay lugar para el reconocimiento de pérdidas o ganan­ cias si... en una sociedad que forma parte de un proceso de reorganiza­ ción, y en cumplimiento del plan de reorganización, las acciones son intercambiadas solamente por accio­ nes... que son parte del proceso de reorganización.

[S2] 1. en cumplimiento del plan de re­ organización, se intercambian acciones o valores de una sociedad que forma parte de un proceso de reorganización única­ mente por acciones o valores de dicha corporación o de otra corporación, que forma parte de un proceso de reorgani­ zación, y

(2) Limitación. El párrafo (1) no debe aplicarse si (A) el monto principal de cuales­ quiera de los valores recibidos..., o

(B) cualesquiera de tales valores son recibidos y ninguno de tales valores es entregado. (3) Referencia cruzada. Para el tra­ tamiento de un intercambio, si cual­ quier propiedad cuya recepción no está permitida es recibida bajo este... véase §356. (b) Excepción.

(1) En general. La subsección (a) no debe aplicarse a un intercambio en cumplimiento de un plan de reorga­ nización con el significado de § 368 (a) (1) (D), a menos que

(A) la sociedad a la que son trans­ feridos los activos adquiera sus­ tancialmente todos los activos del cedente...; y,

(B) la acción,... recibida de dicho cedente,..., es distribuida en cumpli­ miento del plan de reorganización. -88

[S3] 2. (a) 1. el monto principal de cualquiera de esos valores recibidos no excede el monto de ninguno de esos va­ lores entregados, y [S4] 2. (a) 2. no es el caso que tanto (a) algunos de esos valores son recibidos como que (b) ninguno de esos valores es entregado, y [S5] 2. (a) 3. (a) el plan de la reor­ ganización no se corresponde con los previstos por el significado de la sec­ ción 368 (a) (I) (D), o

[S6] 2. (a) 3. (b) 1. la sociedad a la que se transfieren los activos adqui­ ere sustancialmente todos los acti­ vos del cedente de esos activos, y [S7] 2. (a) 3. (b) 2. la acción, los va­ lores y otras propiedades recibidas por ese cedente, así como también otras propiedades de ese cedente, son distribuidas en cumplimiento del plan de reorganización, o [S8] 2. (b) 1. si el plan de reorganización está o no está previsto en el significado de la sección 368 (a), y

El modelaje del razonamiento legislativo

(2) Referencia cruzada. Para reglas especiales por ciertos intercambios en cumplimiento de planes de reor­ ganización dentro del significado de § 368 (a) (1) (D), véase § 355. (c) Ciertas reorganizaciones ferro­ viarias.

[S9] 2. (b) 2. el plan de reorganización es para una sociedad ferroviaria y es aprobado por la Interstate Commerce Commission bajo la sección 77 de la Bankruptcy Act, o bajo la sección 20 b de la Interstate Commerce Act, en función del interés público.

Más allá de cualquier otra disposición en este subcapítulo, la subsección (a) entonces (1) (y gran parte de la sección §356, rel­ [SI] 3. no hay lugar para el reconocimien­ ativa a esta sección) debería aplicarse con to de pérdidas o ganancias. respecto a un plan de reorganización... ferroviaria aprobado... bajo la sección § 77 de la Bankruptcy Act, o bajo la sección § 20b de la Interestate Commerce Act, en función del interés público.

Figura 2.2. La sección 354 del Internal Revenue Codey una versión normalizada (derecha) (véase Alien y Engholm, 1978).

Prolog interpreta las cláusulas de Horn, tratándolas como un programa. Por ejemplo, trata la cláusula de Horn situada a la derecha como si en efecto dijera “Para mostrar S4, mostrar SI, mostrar S2 y mostrar S3”. Consultando al usuario sobre la verdad o falsedad de cada proposición sustantiva, SI, S2 y S3, una computadora puede probar la verdad o falsedad de S4. De esta manera, la lógica de la ley se automatiza. La lógica de estas versiones normalizadas de la ley es lo suficientemente simple como para que se maneje manualmente con tablas de verdad. Sin embargo, una computadora también puede procesar la lógica proposicional de leyes más complejas, como las que aparecen en la Figura 2.2.

Figura 2.3. Diagrama de flujo para la sección 354 proposicionalizada del Internal Revenue Code (véase Alien y Engholm, 1978). 89-

Kevin D. Ashley

2.3.2. La lógica de predicados

Uno también desearía expresar el contenido de las proposiciones sus­ tantivas de una disposición legal, más allá de su sintaxis lógica general. Esto puede hacerse mediante la lógica clásica (también conocida como lógica de predicados, cálculo de predicados o lógica de primer orden). La lógica clásica es la lógica formal, también conocida por cual­ quier estudiante de introducción a la lógica como “lógica de predicados”, en la cual, entre otras cosas, (i) todas las oraciones del lenguaje formal tienen exactamente uno de dos posibles valores de verdad (verdaero, falso), (ii) las reglas de inferencia permiten que uno deduzca cualquier oración de un conjunto inconsistente de suposiciones, (iii) todos los predicados están totalmente definidos en relación con el rango de las variables y (iv) la semántica formal es aquella inventada por Tarski, la cual proporcionó por medio de su metalenguaje la primera definición precisa de lo que es la verdad para un lenguaje formal (Dowden, 2016).

La lógica clásica emplea símbolos para reemplazar a los predicados, a los sujetos y a los cuantificadores. En lógica preposicional, la proposición “Todos los hombres son mortales” se representa sólo por medio de un símbolo y ca­ rece de estructura interna. En contraposición, en la lógica clásica uno puede definir un predicado M(x) para expresar que x es mortal o puede emplear el cuantificador universal (“Para todos”): Todos los x. M(x) para expresar que todos los x son mortales. La lógica de la cláusula de Horn que conforma la base de Prolog implementa en gran parte (aunque no en su totalidad) la lógica de predicados, permitiendo expresar tanto el contenido de proposiciones sustantivas como la sintaxis lógica de una versión normalizada de una disposición legal. Por caso, si tomamos el famoso ejemplo de H.L.A. Hart, “Los vehículos no están permitidos en el parque”,1 dicha disposición legal podría expresarse en Prolog (es decir, mediante el empleo de una cláusula de Horn, propia de la lógica de predicados) de la siguiente manera:

Infracción (X, S) :-vehículo (X), parque (S), en (X, S).

En realidad, el ejemplo de Hart era el de “Una norma jurídica que le prohíbe introducir un vehículo en el parque público” (Hart, 1958, p. 607). -90

El modelaje del razonamiento legislativo

Es decir, “Si X es un vehículo A S es un parque A X está en el parque => X en S constituye una infracción”. En Prolog, las comas entre los predicados indican “y”; el cuantificador universal está implícito.

Si uno introduce en el programa Prolog información semejante a: Vehículo (X) :-motocicleta (X) Vehículo (X) ¡-automóvil (X),

el programa puede deducir que nadie debería introducir una motocicleta o un automóvil al parque, así como cualquier cosa que califique como un vehículo, conectando la conclusión de una regla con la premisa de la otra.

2.3.3. La ambigüedad sintáctica como una limitación de diseño

Antes de detenernos en un ejemplo de un programa lógico-jurídico de largo alcance, intentemos resumir las implicaciones de la ambigüedad sintáctica.

La ambigüedad sintáctica hace que la tarea de traducir los textos legales en reglas lógicas computacionalmente formalizadas sea problemática (Alien y Saxon, 1987). En reglas que se expresen computacionalmente, la ambigüe­ dad sintáctica puede ser eliminada. El problema surge cuando la versión de la norma jurídica que es seleccionada para su formalización en un lenguaje lógico de programación como Prolog no necesariamente coincide con aquella que la legislatura intentó promulgar. Como resultado de la ambigüedad sintáctica, un ingeniero cognos­ citivo no puede estar seguro de lo que la legislatura intentó. El número de interpretaciones sintácticamente posibles que resultan de aplicar el proceso de normalización a disposiciones jurídicas relativamente simples puede ser inimaginablemente extenso. La Sección 3505, un intento de limitar la regla excluyente de la cuarta enmienda, decía: Excepto que una ley lo prevea, aquella evidencia que se obtenga como resultado de una búsqueda o incautación y que, por lo demás, sea admisible, no debería ser excluida del procedimiento judicial en ningún tribunal de los Estados Unidos si la búsqueda o incautación fue emprendida con la creencia razonable y de buena fe de que se hallaba en conformidad con la cuarta enmienda de la Constitución de los Estados Unidos. Una demostración de que la evidencia se obtuvo en cumplimiento y dentro del alcance de una orden judicial constituye evidencia prima facie de una creencia semejante, a menos que la orden sea obtenida por medio de una tergiversación intencionada y material. -91-

Kevin D. Ashley

Aunque la sección 3505 sea un poco extensa, una vez normalizada ella admite 48 interpretaciones de diversa solidez, medidas por su mayor o menor inclusividad, simplemente tomando en cuenta las ambigüedades sintácticas de la disposición (Alien y Saxon, 1987).

Como una cuestión práctica, sólo unas pocas versiones parecen clara­ mente razonables, mientras que otras parecen francamente irrazonables. La pregunta, pues, es quién las elige. Si un ingeniero cognoscitivo decide qué versión normalizada implementar, no se tratará de una decisión autorizada. Tanto los juristas como otros expertos en el campo jurídico podrían formular opiniones sobre cuál es la versión que la legislatura tuvo o debió tener en men­ te. Sin embargo, el único cuerpo en condiciones de seleccionar la respuesta correcta es la legislatura. Desafortunadamente, es muy probable que los legisladores no hayan sido conscientes de la ambigüedad (Alien y Saxon, 1987). Mientras la ambigüedad semántica puede simplificar el consenso legislativo y es a menudo buscada, la ambigüedad sintáctica no desempeña ninguna función legítima en el proceso político y tampoco simplifica la obtención de consensos. De hecho, a la hora de formular un procedimiento sistemático para la generación de versiones normalizadas de disposiciones jurídicas, uno de los objetivos de Layman Alien fue el de sensibilizar a los legisladores y estudiantes de Derecho sobre el fenó­ meno (Alien y Engholm, 1978; Alien y Saxon, 1987).

Un profesor de Derecho de Tennessee, Grayfred Gray, alcanzó algún éxito cuando convenció a una comisión de redacción de una legislatura estatal de adoptar la normalización como un medio para eliminar la ambigüedad sintáctica no buscada en disposiciones jurídicas sobre la salud mental relacionadas tanto con la internación como con el alta de pacientes psiquiátricos. El Comité estaba preocupado por “la claridad de la ley para las personas que deben trabajar con la misma, la mayoría de las cuales no poseen el título de abogado” (Gray, 1985, pp. 479-80). La legislatura no pareció tener problema alguno con la normali­ zación. El editor del código jurídico del Estado, en cambio, temía que el uso liberal de la normalización de la sangría para comunicar la estructura lógica simplificada de las leyes pudiera demandar demasiado espacio, incrementando el costo de las publicaciones impresas. En última instancia, sólo unas pocas leyes fueron publicadas en el formato normalizado. Hoy, en el ancho mundo de la web [World Wide Web], el espacio ya no es un problema. Las versiones normalizadas de las leyes y los diagramas de flujo que las acompañan pueden ser publicados en la web a un costo muy bajo, facilitando en gran medida que quienes no son abogados puedan leer y enten­

92-

El modelaje del razonamiento legislativo

der los requisitos legales. En una publicación online, links de ayuda y menús desplegables son capaces de asistir a los legos en el uso e interpretación de las disposiciones normalizadas.

Mientras tanto, por supuesto, la multiplicidad de interpretaciones lógicas de las leyes no ha logrado poner de rodillas a los profesionales del Derecho. Por el contrario, ha generado empleo. Tanto los abogados como los expertos que representan a los contribuyentes o a las compañías de seguros siguen siendo consultados para que generen y exploten interpretaciones sintácticas alternativas de las complejas disposiciones jurídicas existentes. En un sistema acusatorio, identificar las interpretaciones lógicas alternativas de una ley o cláusula compleja en materia de seguros abre la oportunidad de argumentar a favor de una interpretación que redunde en el interés de un cliente, como sucede por ejemplo en el caso State vs. HUI citado más arriba. En un contexto diferente, como el del cumplimiento societario, los abogados con aversión al riesgo podrían recomendar la adopción de una in­ terpretación lógica más expansiva de una ley, con el fin de formalizarla en un sistema de reglas de negocio. Seleccionar una interpretación cuidadosamente ex­ pansiva ayudaría a reducir las subsiguientes infracciones de las normas jurídicas.

Desde el punto de vista de la computación cognitiva, un sistema que pue­ da detectar las ambigüedades sintácticas latentes sería una buena herramienta para los redactores legislativos. Con el insumo que ofrece una disposición legal redactada en lenguaje natural, ¿podría un sistema generar automáticamente una lista que abarque las versiones normalizadas o sea capaz de ordenarlas parcialmente en función de su solidez? En otras palabras, ¿se puede automatizar un proceso de normalización? (Alien y Engholm, 1978) Personalmente no soy consciente de ningún intento semejante, aunque valdría la pena explorarlo.

2.3.4. El programa BNA

Marek Sergot y sus colegas implementaron exitosamente una porción considerable de la British Nationality Act (BNA) como un programa lógico escrito en Prolog (Sergot et al., 1986). El sistema ejecutó aproximadamente 150 normas relacionadas con la adquisición de la ciudadanía británica. Las normas fueron implementadas como cláusulas de Horn escritas en Prolog; la Figura 2.4 muestra una traducción de tres de estas reglas en una especie de inglés (o pseudo-inglés). Los insumos de BNA consistieron en descripciones de problemas que involucraban una pregunta sobre la ciudadanía. Como resultado, el programa -93-

Kevin D. Ashley

devolvía una respuesta y una explicación. Formular una pregunta equivalía a enunciar una proposición y pedirle a Prolog que la demostrara. Por ejemplo, una de esas proposiciones era la siguiente:

A: Peter es un ciudadano británico desde el 16 de enero de 1984 de acuerdo a la sec. z. Aquí, z es una variable que reemplaza al número de una sección de la ley que respaldaría la conclusión. 1 .(1) Una persona nacida en el Reino Unido luego de la entrada en vigor de la ley debe ser un ciudadano británico si, al momento de nacer, su padre o madre:

(a) es un/a ciudadano/a británico/a, o

(b) se ha radicado en el Reino Unido. Esto se representa en computación como: Regla 1: X adquiere la ciudadanía británica en la fecha Y, de acuerdo a la sec. 1.1 SI X nació en el Reino Unido

Y X nació en la fecha Y Y Y ocurre luego o durante la entrada en vigor del acta Y X tiene un padre que cae bajo la categorización de la sec. 1.1

Regla 2: X tiene un padre que cae bajo la categorización de la sec. 1.1 en la fecha Y SI X tiene un padre Z

Y Z era un ciudadano británico en la fecha Y Regla 3: X tiene un padre que cae bajo la categorización de la sec. 1.1 en la fecha Y

SI X tiene un padre Y Z se radicó en el Reino Unido en la fecha Y.

Figura 2.4. Las disposiciones de BNA representadas en reglas (Sergot et al., 1986).

Prolog es tanto un lenguaje de programación como un solucionador de teoremas. Dada A, Prolog intenta construir una prueba que demuestre A ra­ zonando hacia atrás desde dicha conclusión, hasta identificar las condiciones que necesitan satisfacerse (el encadenamiento hacia atrás fue introducido en la Sección 1.3.1). Durante el proceso, identifica todas las reglas que son compatibles con la conclusión representada por A. Puede haber un número

-94-

El modelaje del razonamiento legislativo

de reglas diferentes que establezcan la misma conclusión. Prolog trabajará con todas ellas en el mismo orden en el que están escritas.

Supóngase que se presenta una lista de reglas n, de las que se desprende la conclusión A. Si Prolog está considerando una regla r. dentro de esa lista, la siguiente regla en la lista bien podría llamarse r.+1. Finalmente, cuando Prolog considere la regla r., en caso de que encuentre una nueva regla cuya conclusión sea el antecedente de la regla r, la nueva regla encontrada, o r , bien podrá tomarse como una regla “descendiente” de la regla r. en el recorrido condu­ cente a demostrar A.

Prolog probará las reglas de la lista en un orden de búsqueda primaria en profundidad. En la búsqueda primaria en profundidad [depth-first search], el programa sigue un recorrido que va de una de las r. en dicha lista hasta llegar a su término, sea o no exitoso, antes de iniciar un nuevo recorrido desde r. En otras palabras, si Prolog está considerando la regla r, el programa siempre buscará una regla descendiente ra, antes de pasar a la siguiente regla de la lista, r.+1. Si y sólo si el recorrido desde la regla ri termina sin demostrar A, se iniciará un nuevo recorrido desde r.+1. En contraposición, en una búsqueda primaria en amplitud [breadth-first search], el programa intenta abrir una vía para cada una de las reglas n antes de buscar otras reglas que desciendan de una regla descendiente. Es decir, incluso si un programa de búsqueda ha encontrado una regla que descienda de la regla r. (i.e., r.f), opta por hallar una regla descendiente para cada una de las siguientes reglas de la lista, r.+1, ri+2, ..., rn, antes de buscar una regla que descienda de r r

Cada regla presenta una serie de condiciones Bl...Bn que deben satisfa­ cerse para poder llegar a la conclusión C. Recuérdese que Prolog trata dicha regla como un programa: mostrar C, mostrar Bl, mostrar B2, ..., y mostrar Bn. Para cada uno de estos subproblemas Bn, Prolog lo resuelve en una de las siguientes formas: 1.

Puede haber otra regla cuya conclusión tenga el formato de Bn.

2.

Puede haber un hecho que satisfaga Bn.

3.

El sistema puede preguntarle al usuario si Bn es verdadero.

4.

El sistema puede preguntarle a un experto si Bn es verdadero.

La Figura 2.5 muestra extractos del resultado del programa BNA en relación con la proposición A. La negrita indica los insumos del usuario. Nó­ tese que el programa pudo responder preguntas sobre “por qué” y “cómo”, además de explicar sus respuestas. Básicamente, luego de haber construido 95-

Kevin D. Ashley

una demostración de A o de una conclusión intermedia, pudo modelar una explicación mediante una reiteración de los pasos inferenciales empleados en su demostración.

2. 3.5. Algunos problemas de traducir las leyes a programas Al momento de diseñar e implementar el modelo computacional de BNA, los diseñadores se encontraron con cuatro problemas o limitaciones: algunas veces, una regla o predicado previamente formulado necesitaba ser reformulado. Adicionalmente, el uso que hacía la ley de la negación, del razonamiento por default, de los condicionales contrafácticos y de los términos de textura abierta debía ser reconocido. ¿ES Peter un ciudadano británico en la fecha indicada (16 de enero de 1984) de acuerdo a la sec. Z?

Qué X: ¿Peter nació el día X? (3 de mayo de 1983) ¿Es verdad que Peter nació en el Reino Unido? Sí

Qué X: ¿X es el padre de Peter? Por qué Si X es el padre de Peter, entonces X es uno de los padres de Peter Si X es uno de los padres de Peter y X es un ciudadano británico en la fecha indicada (3 de mayo de 1983),

entonces Peter tiene un padre que califica bajo la sección 1.1 en la fecha indicada (3 de mayo de 1983) Peter nació en el Reino Unido Peter nació en la fecha indicada (3 de mayo de 1983) La fecha indicada (3 de mayo de 1983) ocurre luego de la entrada en vigor de la ley, por lo que Si Peter tiene un padre que califica bajo la sección 1.1 en la fecha indicada (3 de mayo de 1983)

Entonces Peter obtiene la ciudadanía británica en la fecha indicada (3 de mayo de 1983) de acuerdo a la sec. 1.1

Peter está vivo en la fecha indicada (16 de enero de 1984), por lo que Si Peter obtiene la ciudadanía británica en la fecha indicada (3 de mayo de 1983) de acuerdo a la sec. 1.1

Y la fecha indicada (16 de enero de 1984) ocurre luego o durante la siguiente fecha (3 de mayo de 1983) Y no es el caso que [Peter deja de ser un ciudadano británico en la fecha Y E Y ocurre entre (el 3 de mayo de 1983) y (el 16 de enero de 1984)]

96-

El modelaje del razonamiento legislativo

Entonces Peter es un ciudadano británico en la fecha indicada (16 de enero de 1984) de acuerdo a la sec. 1.1 Qué X: ¿X es el padre de Peter? William Qué X: ¿William nació en la fecha X? (1 de marzo de 1952)

¿Es verdad que William nació en el Reino Unido? Sí ¿Es verdad que William era un ciudadano del Reino Unido y las Colonia en la fecha indicada (31 de diciembre de 1982) Sí

¿ES verdad que en la fecha indicada (31 de diciembre de 1982) William tuvo el derecho de residir en el Reino Unido de acuerdo al Acta de Inmigración de 1971 que estaba entonces en vigor? Sí

Sí, puedo confirmar eso Peter es un ciudadano británico en la fecha indicada (16 de enero de 1984) de acuerdo a la sec. 1.1. cómo

Deduzco de la regla que Peter es un ciudadano británico en la fecha in­ dicada (16 de enero de 1984) de acuerdo a la sec. 1.1

Figura 2.5. El resultado del programa BNA (extractos) (Sergot et al., 1986, p. 376f).

Reformulación

Formalizar una ley de cierta extensión conlleva un proceso de ensayo y error. Uno halla con frecuencia un contexto novedoso en el cual la formulación preexistente de un concepto normativo resulta inadecuada o debe ser refor­ mulada para que se adapte a los límites adicionales impuestos por las reglas sucesivas contenidas en el acta. Por caso, los investigadores descubrieron que es “insuficiente concluir tan sólo que un individuo es un ciudadano británico; también es necesario determinar la sección bajo la cual la ciudadanía es adquiri­ da”. Además de esto, una sección recién encontrada hizo evidente la necesidad de “un tratamiento más explícito del tiempo” para computar las limitaciones que le permitían a alguien que todavía no hubiera obtenido la ciudadanía ser registrado como ciudadano bajo ciertas circunstancias (Sergot et al., 1986, p. 374). Para poder enfrentar las nuevas limitaciones, los investigadores tuvieron que cambiar algunas reglas, condiciones o parámetros existentes, así como añadir algunos nuevos.

-97

Kevin D. Ashley

La negación A fin de implementar algunas reglas de BNA y de otras leyes, sería de­ seable emplear reglas que enuncien una conclusión negativa (i.e., no A), tal como “x no era un ciudadano británico cuando y nació” o “x no estaba radicado en el Reino Unido cuando y nació”.

Esas conclusiones negativas demandan una habilidad para manejarse con la negación clásica o tradicional, algo que Prolog no admite. Prolog tan sólo puede emplear “la negación por falla”. El solucionador de problemas usa una regla: “inferir no P si falla en demostrar que P”. En otras palabras, si la lista de alternativas para demostrar A es finita, el solucionador de teoremas la analizará en su totalidad. Si todas las alternativas fallan, entonces concluirá que no A. La negación por falla es adecuada cuando uno puede adoptar la “suposición del mundo cerrado” (es decir, la suposición de que cualquier cosa que no sea conocida resulta por eso mismo falsa). A menudo, no obstante, la suposición del mundo cerrado no es razona­ ble. “Resulta notoriamente difícil en el ámbito jurídico determinar todas las disposiciones normativas que podrían ser relevantes para resolver un caso determinado” (Sergot et al., 1986, p. 379). Los investigadores pusieron en evidencia algunas formulaciones de BNA, en las que utilizar la negación por falla sería prohibitivamente complejo, o que podrían conducir al programa a formular conclusiones que se ubicaran en las antípodas de la intención legis­ lativa. Por ejemplo, considérese la dificultad ínsita en la tarea de confeccionar una lista con todas las formas en las que x podría considerarse un ciudadano británico cuando se produce el nacimiento de y.

Un solucionador de teoremas que puede manejar la negación clásica podría lidiar con este problema automáticamente, pero el solucionador de teoremas de Prolog necesitaría una lógica más extensa, que contemplara otras dificultades. Como resultado, los investigadores simplemente optaron por hacer que el programa BNA le pidiera al usuario que confirmara cierta información negativa, tal como “x no era un ciudadano británico cuando y nació” (Sergot et al., 1986, p. 381).

El razonamiento por default Los autores señalaron que BNA emplea el razonamiento por default. “Las conclusiones obtenidas por default, ante la ausencia de información en contrario, deberían ser descartadas si nueva información saliera posteriormente a la luz” (Sergot et al., 1986, p. 381). -98-

El modelaje del razonamiento legislativo

Un ejemplo lo ofrece la sección l-(2) de la BNA, la disposición que alude a los niños abandonados. ¿Qué pasaría, se preguntan los autores, si los padres del niño abandonado, a quienes se les ha concedido la ciudadanía por default, de repente reaparecen, mas no son ciudadanos británicos? (Sergot et al., 1986, p. 381) La BNA no parece tener una disposición para dicha eventualidad, pero incluso si la tuviera, habría un problema. El razonamiento por default es no monotónico: las proposiciones, una vez demostradas, podrían tener que ser descartadas a la luz de nuevos hechos. La lógica de predicados (i.e., la lógica clásica de primer orden, tal como se im­ plemento en Prolog) es monotónica, por lo que no admite descartar aquellas proposiciones que ya han sido demostradas2. Como se discute más abajo, lo que se necesita es una lógica más expresiva.

Los condicionales contrafácticos

Comúnmente, las leyes también hacen uso de condicionales contrafác­ ticos tales como “se habría [transformado en un ciudadano británico] si no hubiera muerto o renunciado a la ciudadanía”. La legislatura podría emplear una formulación semejante como un atajo para fijar la referencia. “Los redac­ tores evitan confeccionar explícitamente listados de conjuntos complicados de condiciones [refiriéndose] a otra parte de la legislación”, de la cual pueden inferir las condiciones (Sergot et al., 1986, p. 382). Los investigadores crearon reglas especiales para lidiar con tales con­ dicionales contrafácticos. Ellos escribieron “reglas adicionales alternativas; un conjunto que hace referencia, por ejemplo, a las condiciones de obtención de la ciudadanía desde la entrada en vigor de la ley para individuos que estén vivos en esa fecha, y otro conjunto de reglas para individuos que hayan muerto antes de esa fecha, pero que de otra manera reúnan todas las condiciones que se requieran antes de su muerte” (Sergot et al., 1986, p. 382).

Los investigadores analizaron cuidadosamente la ley a los efectos de formular hipótesis sobre los requisitos que razonablemente podrían aplicar­ se en el condicional contrafáctico, lo cual incrementó el número de reglas a ser formalizadas. Presumiblemente, los redactores legislativos emplearon el condicional contrafáctico para evitar el engorroso trabajo de* detallar estas

2

De hecho, Prolog no es monótono, pero la implementación utilizada para el programa BNA asumía que un usuario tenía información perfecta y siempre podía responder las preguntas que planteaba. (Gordon, 1987, p. 58). -99-

Kevin D. Ashley

condiciones. Por otro lado, siempre es posible que los redactores quieran dejar el asunto como una cuestión abierta.

En cualquier caso, se trata de otro ejemplo en donde los ingenieros cognoscitivos deben tomar decisiones interpretativas difíciles sin contar con autoridad legislativa alguna para ello.

Los términos de textura abierta Finalmente, la legislatura empleó en la ley predicados de textura abierta que quedaron sin definir. El acta contiene frases de una vaguedad semejante a “tener un buen carácter”, “tener una excusa razonable” y “tener un dominio suficiente de la lengua inglesa” (Sergot et al., 1986, p. 371). Los investigadores adoptaron un enfoque directo para lidiar con los tér­ minos vagos. El sistema simplemente le pregunta al usuario si el término de la indagación en curso es verdadero o no. De manera alternativa, ellos podrían programarlo para suponer que un determinado concepto vago siempre se aplica (o nunca se aplica) y para calificar su respuesta a la luz de esta suposición, tal como sucede en el siguiente ejemplo: “Peter es un ciudadano, si tiene un buen carácter” (Sergot et al., 1986, p. 371). Con el propósito de reducir la vaguedad terminológica, los investigadores advierten que uno también podría aplicar reglas empíricas, derivadas de un análisis de casos pasados en los que los tribunales hayan apli­ cado los términos. Estas reglas heurísticas, sin embargo, no garantizarían una cobertura general, ni tampoco detentarían autoridad suficiente. Los problemas ligados a la resolución de la ambigüedad sintáctica, la reformulación, la negación, los condicionales contrafácticos y la ambigüedad semántica son los problemas que surgen del intento de interpretar cualquier texto que esté escrito en lenguaje natural. Potencialmente, ellos afectan a cual­ quier intento de traducir la legislación a un código computacional ejecutable, con independencia de si son seres humanos quienes realizan manualmente la traducción, como ocurre en el programa de investigación BNA, o de si son los programas los que extraen las reglas de manera automática de los textos legales, tal como se discute en el Capítulo 9.

2.4.

LA COMPLEJIDAD DE LA INTERPRETACIÓN JURÍDICA Y LA IMPORTANCIA DE LOS ARGUMENTOS

El proyecto BNA se enfocó en “el objetivo limitado de implementar reglas y regulaciones con el propósito de aplicarlas mecánicamente a casos 100-

El modelaje del razonamiento legislativo

individuales” (Sergot et al., 1986, p. 372). El programa BNA nunca pretendió simular el veredicto al que arriba un tribunal luego de razonar sobre una ley, pero es interesante comparar el modo en que arriba a una respuesta a través de la deducción lógica con lo que un tribunal podría hacer, tal como lo ilustra la Figura 2.5.

En una pieza histórica, el filósofo del derecho Lon Fuller demostró las limitaciones de un enfoque mecánico para la aplicación de reglas jurídicas. ¿“Un camión utilizado en la Segunda Guerra Mundial” que va a ser “erigido sobre un pedestal en el parque” y “en perfectas condiciones mecánicas” contradice la regulación que prohíbe la presencia de vehículos en el parque? (Fuller, 1958, p. 663) O supóngase que una regulación municipal establece que “Dormir en la estación de tren constituye una falta, sancionable con una multa de cinco dólares”. Un oficial de policía encuentra a dos personas en la estación: La primera es un pasajero que estaba esperando un tren demo­ rado a las 3 AM. Cuando fue arrestado, estaba sentado de manera regular, pero el oficial interviniente lo escuchó roncar suavemente. La segunda persona es un hombre que ha traído una frazada y una almohada a la estación y que obviamente se ha acomodado para pasar la noche en la estación. Sin embargo, él fue arrestado antes de que tuviera la oportunidad de dormirse (Fuller, 1958, p. 664).

De acuerdo con la aplicación mecánica de la regla, mientras la primera persona quebranta la regla, la segunda no lo hace; la primera es sorprendida durmiendo en la estación de tren, aunque no la segunda. No obstante, dado el propósito probable de la regulación municipal, este resultado no parece para nada justo. Como pregunta Fuller, “¿realmente es posible interpretar una palabra en la ley sin conocer cuál es su propósito?” (Fuller, 1958, p. 664) El proceso de establecer el significado de una disposición legal y aplicarla en una situación fáctica concreta es comúnmente conocido con el nombre de interpretación jurídica. Un tribunal incurre en la interpretación jurídica cuando aplica “leyes a casos particulares teniendo en vista formular decisiones auto­ rizadas y vinculantes sobre los asuntos en disputa o bajo juicio”, “formula un punto de vista en relación con el significado adecuado de las leyes que parecen aplicables en un caso” y articula “un punto de vista sobre el modo correcto de entender una ley” (MacCormick y Summers, 1991, p. llf).

El proceso de interpretación jurídica involucra la deducción lógica, aunque es un poco más complejo. MacCormick y Summers identifican una jerarquía de los tipos de argumentos implicados en la interpretación jurídica, incluyendo los siguientes: -101

Kevin D. Ashley



Lingüísticos: argumentos provenientes del significado ordinario o del significado técnico de una ley (i.e., significado legal o relativo a un dominio técnico específico)



Sistémicos: argumentos provenientes de la armonización conceptual, de los precedentes, argumentos por analogía, argumentos lógico-con­ ceptuales y argumentos provenientes de los principios generales del derecho y la historia.

*

Teleológicos/Evaluativos: argumentos vinculados a los propósitos y a las razones sustantivas.



Transcategóricos: incluyen argumentos basados en la intención (MacCormick y Summers, 1991, pp. 512-15).

Un argumento basado en el propósito de la regulación municipal que prohíbe dormir en las estaciones de tren sería un ejemplo de un argumento teleológico/evaluativo. La lista de técnicas aceptables y de sus etiquetas es relativa a un sistema o tradición jurídica, por lo que puede ser objeto de debate.

2

.4.1. Un proceso de interpretación jurídica paso a paso

Los autores organizan estos tipos de argumentos en un modelo simpli­ ficado y prácticamente algorítmico de interpretación jurídica (MacCormick y Summers, 1991, p. 531). De acuerdo al proceso, a la hora de interpretar una disposición legal, uno considera tres niveles de argumentos en el siguiente or­ den: (1) argumentos lingüísticos, (2) argumentos sistémicos y (3) argumentos teleológicos/evaluativos.

Más específicamente, el proceso especifica los pasos para tomar deci­ siones basadas en los argumentos:

Nivel 1:

aceptar como prima facie justificada una interpretación clara en el nivel 1 a menos que haya una razón para pasar al nivel 2;

Nivel 2:

cuando el nivel 2 haya sido invocado por una razón suficiente, aceptar como prima facie justificada una inter­ pretación clara en el nivel 2 a menos que haya una razón para pasar al nivel 3.

Nivel 3:

en el nivel 3, sólo aceptar como justificada aquella inter­ pretación que esté mejor respaldada por toda la gama de argumentos aplicables (MacCormick y Summers, 1991, p. 531).

102

El modelajedel razonamiento legislativo

En esta serie de pasos, los autores generalmente recomiendan que los argumentos basados en la intención, así como otros argumentos transcategó­ ricos (si los hubiera), actúen como fundamentos relevantes para apartarse de ese ordenamiento prima facie. Tomando en cuenta esta descripción compleja de la interpretación ju­ rídica, uno puede valorar la observación de Ann Gardner de que el Derecho es “una actividad más guiada que gobernada por reglas: ‘Los expertos pueden hacer más con las reglas que sólo seguirlas... (ellos) pueden argumentar a partir de las reglas mismas” (Gardner, 1985, tal como se cita en Berman y Hafner, 1988, p. 208).

A los efectos de aplicar el modelo jurisprudencial de interpretación jurídica propuesto por MacCormick y Summers (1991) a un escenario con­ creto, uno debería tener que integrar el razonamiento con las reglas, los casos y los valores sociales y propósitos legislativos subyacentes. Crucialmente, un razonador necesitaría formular o considerar argumentos tanto a favor como en contra de una interpretación. Cada paso en el proceso interpretativo supo­ ne la formulación y evaluación de argumentos de diversos tipos. Un razonador necesitaría trazar analogías entre un caso actual y casos pasados en los que los tri­ bunales hayan aplicado la norma jurídica, para razonar con los valores y propósitos subyacentes a las reglas que se articulan en las leyes y los precedentes. Incluso si uno aplicara la norma jurídica deductivamente, necesitaría considerar si el resultado propuesto es consistente con los propósitos y políticas detrás de la ley.

Aunque el programa BNA y otros programas descriptos en la Parte I de este libro implementan modelos computacionales de razonamiento jurídico, ninguno de ellos implementa un proceso de interpretación jurídica tan com­ pleto como el que describen MacCormick y Summers (1991). En su lugar, el campo de IA & Derecho ha inventado algunos compo­ nentes que podrían implementar ciertas partes del proceso. Por ejemplo, el programa BNA construyó una prueba a partir del significado más obvio de la ley, tal como fue representado por las reglas de Prolog. El capítulo 3 describe modelos computacionales de razonamiento jurídico basados en casos y consi­ dera cómo tomar en cuenta las políticas y los valores subyacentes. El capítulo 5 describe aquellos modelos computacionales de razonamiento jurídico que proporcionan un marco en el cual sería imaginable la implementación de un proceso computacional de interpretación jurídica que emplee el modelo de MacCormick/Summers. En tal sentido, véase Sartor et al. (2014), en donde se constata de modo preliminar un marco formal que captura este tipo de argumentos interpretativos.

-103

Kevin D. Ashley

2

.4.2. Otras fuentes de indeterminación jurídica

No obstante, si el objetivo consiste en modelar argumentos con la mira puesta en la interpretación jurídica, existe una razón teórica por la que aque­ llos métodos clásicos de deducción lógica como los capturados en el programa BNA no serán suficientes. Quienes se enfrentan en una contienda judicial a menudo parten de premisas diferentes. Ellos discrepan ya sea con respecto a los hechos del caso o con respecto a las reglas jurídicas que resultan aplicables. En Derecho, sin embargo, es común encontrar argumentos razonables para resultados inconsistentes, en donde la parte y la contraparte parecen estar de acuerdo tanto con respecto a los hechos como con respecto a las reglas aplica­ bles. Como ya se dijo, este es el fenómeno conocido como “indeterminación jurídica” (Berman y Hafner, 1988). Una fuente de indeterminación jurídica ya ha sido ilustrada en la Sec­ ción 2.2.1 por medio del caso Johnson. Las reglas jurídicas emplean conceptos jurídicos de textura abierta sobre los que se formulan argumentos que son tan razonables como contradictorios. Otra fuente de indeterminación involucra condiciones sobre la aplicación de la regla que no han sido explicitadas, tal como que su resultado no puede ser inconsistente con ciertos principios compensatorios. Esto es ilustrado en el caso Riggs vs. Palmer, 115 N.Y. 506 (1889), en el cual un heredero asesinó a su abuelo cuya voluntad testamentaria era precisa­ mente la de cederle la herencia. El tribunal sostuvo: “Es a todas luces cierto que las leyes que regulan la elaboración, la prueba y el efecto de los testamentos, así como la devolución de bienes, si se interpretan literalmente... otorgan esta propiedad al asesino” (Berman y Hafner, 1988). El tribunal, sin embargo, se negó a aplicar las leyes, pues ello hubiera contradicho “máximas fundamentales del common law”, según las cuales “nadie tiene derecho a enriquecerse de su propio fraude, a beneficiarse de su propio mal, a fundar un reclamo sobre su propia iniquidad o a adquirir una propiedad en virtud de su propio delito” (Berman y Hafner, 1988).

Las reglas jurídicas pueden involucrar otras condiciones no explicitadas, tales como: ¿Satisface la regla el requisito de la elección del derecho aplicable? ¿La regla es constitucional? Concebiblemente, algunas de estas condiciones pueden ser representadas como condiciones adicionales de las reglas jurídicas. Berman y Hafner sostienen, no obstante, que aquellas condiciones abstractas como la “máxima fundamental” ya aludida, tantas veces violada, serían muy difíciles de formalizar (Berman y Hafner, 1988).

-104-

El modelaje del razonamiento legislativo

Puesto que la indeterminación jurídica es una realidad, Berman y Hafner argumentaron que los modelos lógicos clásicos son inapropiados para modelar cómo razonan los abogados:

La indeterminación jurídica representa un desafío directo para el concepto de validez lógica, por el hecho de que un abogado debe ser capaz de argumentar tanto a favor de una conclusión como de su contraria. Supóngase que existiera una teoría T de la que se desprendiera una consecuencia C (i.e. hay un argumento lógico válido cuyas premisas son los axiomas de T y cuya conclusión es C). También sabemos que C es verdadera para cada modelo de T; es decir, C es verdadera en cada universo en donde los axiomas de T son todos verdaderos. También sabemos, por medio de la ley de contradicción, que, si C es verdadera, entonces NO C debe ser falsa: por ende, NO C es falsa para cada modelo de T... igualmente sabemos que ningún argumento válido (sin importar qué supo­ siciones adicionales formulemos) que comience con los axiomas de T podría concluir que NO C. Es lógicamente imposible comenzar con un conjunto de premisas y crear un argumento válido que respalde tanto una conclusión como su contraria. La restricción ciertamente tiene sentido —¡pero en Derecho esa “imposibilidad lógica” parece ser preci­ samente lo que sucede! (Berman y Hafner, 1988, p. 191).

Las proposiciones contradictorias también son problemáticas para los modelos de la lógica clásica debido a que, si las dos proposiciones son verda­ deras, uno puede probar cualquier cosa (véase Carnielli y Marcos, 2001). Un ejemplo instructivo de este rasgo “explosivo” de la deducción clásica, obtenido de la historia de la filosofía, se discute en Ashworth et al. (1968, p. 184). Un italiano del siglo XVI demostró que “cualquier cosa se sigue de una proposición imposible, mediante la prueba de que ‘Sócrates es y Sócrates no es’ implica que ‘El hombre es un caballo’”: 1.

“‘Sócrates es y Sócrates no es’ implica que ‘Sócrates no es’”.

2.

“‘Sócrates es y Sócrates no es’ implica que ‘Sócrates es’”.

3.

“‘Sócrates es’ implica que ‘Sócrates es o que el hombre es un caballo’”.

4. “‘(Sócrates es o el hombre es un caballo) y Sócrates no es’ implica que ‘el hombre es un caballo’”. Por ende, 5.

“‘Sócrates es y Sócrates no es’ implica que ‘el hombre es un caballo’”.

-105-

Kevin D. Ashley

Si uno aspira a que una computadora interprete leyes del mismo modo en que lo hace un tribunal, mediante la consideración de argumentos a favor y en contra y la selección de los argumentos más poderosos, entonces la deducción común de la lógica clásica resulta problemática. Uno necesita apelar a algo más. Los lógicos han desarrollado algunas lógicas alternativas para lidiar con la inconsistencia, sujetas a ciertas limitaciones. En el campo de IA & Derecho, la respuesta en boga a la pregunta “¿qué más hay allí?” es un modelo computacional de argumentación dotado de esquemas argumentativos apropiados como los que se explicarán en el Capítulo 5.

2.5.

SISTEMAS ADMINISTRATIVOS PARA REGLAS Y PROCESOS COMERCIALES

Así como no es cierto que para determinar si una norma jurídica ha sido violada deba mediar un litigio judicial, tampoco es cierto que razonar a partir de normas jurídicas necesariamente suponga el abordaje de difíciles cuestiones interpretativas, así como la formulación de argumentos a favor y en contra. En muchas situaciones, los hombres de negocios y las instituciones simplemente desean diseñar sus procesos operativos rutinarios de modo tal que eviten violar la ley. Seguramente ha de ser posible modelar computacionalmente normas jurídicas para que resuelvan problemas prácticos sin que esto requiera modelar una interpretación jurídica a gran escala.

Por cierto, una buena parte de los programas destinados a modelar nor­ mas jurídicas probablemente estén diseñados para asistir a quienes administran el cumplimiento institucional en la evitación de toda litigiosidad. El programa BNA, por ejemplo, no parece haber sido diseñado para lidiar con los procesos litigiosos entre partes interesadas en convencer a un juez sobre el significado de un término en disputa. En su lugar, parece haber funcionado más bien como un instrumento administrativo para dar cuenta de los típicos escenarios en los que surgen problemas de ciudadanía. Una agencia que tuviera la responsabilidad de administrar el complejo programa BNA podría emplear esta herramienta para simplificar esos casos que, en un gran porcentaje, tienden a confundir a los funcionarios civiles, pero que por lo general no suponen conflicto alguno en relación con los significados de las leyes y demás regulaciones. Los descendientes de aquellos modelos lógicos de normas jurídicas como el programa BNA y de sistemas legales expertos como el sistema Waterman, analizado en la Sección 1.3.1, todavía cumplen la función de ayudar a las ins­ tituciones a cumplir con las regulaciones relevantes.

-106-

El modelaje del razonamiento legislativo

2.5.1. Los sistemas expertos en procesos de negocio Las compañías están obligadas a asegurarse de cumplir con los requisitos y las regulaciones legales complejas. Siempre existe el riesgo de que un proceso comercial existente infrinja un requisito regulatorio, así como el de que una propuesta de innovación también lo haga en un punto. Es por eso que todo negocio demanda una capacidad para documentar el cumplimiento legal ante los auditores (Scheer et al., 2006, p. 143). Esto supone un importante conjunto de tareas para las compañías, como identificar las normas y regulaciones apli­ cables, “definir los requisitos que se desprendan de estas normas para un actor determinado”, identificar aquellos procesos comerciales que son afectados y “los riesgos concretos que resultan de estos requisitos en el interior de cada proceso”, definir las medidas y controles capaces de minimizar esos riesgos y evaluar si ellos están siendo aplicados (Scheer et al., 2006, p. 146).

Una manera de implementar medidas y controles tendientes a disminuir los riesgos legales consiste en traducir los requisitos y regulaciones existentes en reglas de negocio, las cuales, suponiendo que se respeten, disminuirán los riesgos en los procesos comerciales afectados. “En general, las reglas de negocio operan como pautas o prácticas comerciales que diseñan o dirigen la conducta de una empresa” (Wagner y Klueckmann, 2006, p. 126). Una vez que se formulan las reglas de negocio, los administradores pueden hacerlas cumplir como directivas que se desprenden de la jerarquía administrativa ordinaria de la compañía.

Las reglas de los procesos de negocio también pueden ser implementadas por medio de sistemas de software que asistan a los administradores (véase Scheer at al., 2006, p. v). Por ejemplo, el sistema experto puede advertir a los administradores sobre la necesidad de conformar las políticas de la compañía a los requisitos regulatorios generales, así como ponerlos al tanto de las instancias específicas de conducta irregular. Las reglas pueden ser representadas en un formalismo lógico, tal como ocurre en el enfoque de BNA, o, más probable­ mente, como reglas heurísticas, tal como ocurre en el programa Waterman (Sección 1.3.1), para luego ser incorporadas a un sistema experto diseñado para evaluar si un proceso comercial respeta la normativa.

Esos sistemas expertos están siendo aplicados en el sector comercial. Hoy, empresas como Neota Logic proporcionan la tecnología con la que los estudios jurídicos y las compañías fácilmente pueden crear sus propios sistemas expertos para el cumplimiento legal por parte de las empresas. Por ejemplo, el sitio web de Neota informa que el estudio jurídico Foley & Lardner LLP creó un número de módulos de sistemas expertos con anclaje en la web bajo -107-

Kevin D. Ashley

el nombre de Global Risk Solutions, para guiar a los clientes en sus esfuerzos de asegurar que cumplan con la Ley de Prácticas Corruptas en el Extranjero [Foreign Corrupt Policies Act -FCPA], una ley federal contra la corrupción y los sobornos (Neota Logic, 2016, Case Studies).

Los módulos recolectan la información de un cliente preocupado por sus técnicas comerciales, la localización de su volumen de negocios y sus clientes, y ofrece como resultado valoraciones visuales y cuantitativas de los riesgos que enfrenta un cliente bajo dicha ley. Otro módulo proporciona una asesoría más específica, basada en in­ formación automatizada. “Por ejemplo, si un usuario de GRS hace clic en una variedad de preguntas de admisión relacionadas con comidas o entre­ tenimiento, se le preguntará si va a entretener a un funcionario extranjero”. Dependiendo de la respuesta recibida, un abogado de Foley realizará un se­ guimiento específico del caso. Cuando las reglas de negocio se formulan en forma proposicional, también pueden organizarse gráficamente, de modos que sean más inteligi­ bles para el personal. Por ejemplo, las reglas de negocio proposicionalizadas pueden organizarse en una especie de diagrama de flujo no muy diferente del que muestra la Figura 2.3. Dado que los seres humanos pueden entender fácilmente los diagramas, ellos ofrecen una manera efectiva de comunicar los requisitos legales a los empleados y facilitar las auditorías. Los gráficos nor­ mativos representan otra herramienta visual para favorecer el cumplimiento legal por parte de las empresas.

Un gráfico normativo representa “un modelo abstracto de las normas jurídicas” (Dietrich et al., 2007, p. 187). Por cada resultado indicando un cum­ plimiento legal que revista interés se construye un gráfico, el cual “permite determinar si un resultado jurídico cualquiera puede o no ser alcanzado... se compone de conceptos jurídicos (representados por nodos) y vínculos entre ellos (representados por flechas)” (Oberle et al., 2012, p. 281). Las “normas determinan una consecuencia jurídica (CJ), dado uno o más hechos del caso” (Dietrich et al., 2007, p. 187). Los gráficos normativos están organizados conceptualmente para hacer posible un proceso subsuntivo, un tipo de razonamiento taxonómico con una on­ tología, un léxico de conceptos organizados jerárquicamente (Oberle et al., 2012).

En Derecho positivo, las normas no abordan casos singulares, sino que cubren clases generales de situaciones del mundo real. Un agente decisor enfrenta una situación específica del mundo

108-

El modelaje del razonamiento legislativo

real... y debe intentar encontrar las normas cuyo dominio general cubra la situación (la subsuma)... Para mecanizar la subsunción, debe considerarse la semántica... más allá del diccionario. Las ontologías... reflejan las relaciones semánticas entre los términos, y estas relaciones pueden ser específicamente definidas para ofrecer apoyo directo al proceso de subsunción (Dietrich et al., 2007, p. 188). Los gráficos normativos de la Figura 2.6 ilustran la subsunción con nor­ mas jurídicas. La figura muestra los gráficos normativos de dos conclusiones jurídicas relativas al cumplimiento de regulaciones sobre protección de datos, en este caso la Ley Federal Alemana para la Protección de Datos, referida tanto a la legalidad de la recolección de datos como al consentimiento efectivo:

Sección 4(1) Legalidad de la recolección, procesamiento y utiliza­ ción de datos: La recolección, procesamiento y utilización de datos personales será legítima sólo si es ordenada o permitida por esta Ley o por otras leyes, o si el titular de los datos proporcionara su consentimiento (Oberle et al., 2012, p. 285).

Sección 4a (1) Consentimiento efectivo: El consentimiento cons­ tará por escrito, a menos que circunstancias especiales requieran otro procedimiento... El consentimiento será efectivo sólo cuando esté basado en la libre decisión del titular de los datos. Los titulares de los datos deberán ser informados sobre el objetivo de la recolección, procesa­ miento y utilización de los datos, así como de los resultados de denegar el consentimiento, según sea la necesidad del caso o a pedido de los mismos (Oberle et al., 2012, p. 287).

Los gráficos normativos van asociados a reglas o pruebas expresadas en lógica de predicados, que son las que determinan si las conclusiones jurídicas se aplican. Por ejemplo, la siguiente fórmula abstrae las normas de la sección 4a (1) de la ley anterior asociada con el costado izquierdo de la Figura 2.6 (véase Oberle et al., 2012, p. 293).

Efectividad (E) Y dadoPor (E, C) «— (Consentimiento (C) Y dadoEn (C, F) Y FormaEscrita (F)) O Excepción (F) Y... Esta fórmula significa que el resultado E de Efectividad es asignado al Consentimiento C si el resultado F asignado al Consentimiento se expresa en FormaEscrita o se da una Excepción y otras condiciones, no mostradas, se sa­ tisfacen. Otra fórmula especifica cuándo el resultado Excepción es asignado a F. -109-

Kevin D. Ashley

Figura 2.6. Los gráficos normativos que concluyen en la “Legalidad”y el “Consentimiento efectivo” de la sección 4 (1) de la Ley Federal para la Protección de Datos (véase Oberle et al., 2012, pp. 305-6, Figs. 13 y 14).

Con reglas como estas, un sistema experto puede advertir a los admi­ nistradores sobre los requisitos que deben satisfacerse para concluir que un proceso de negocio cumple la ley. El programa podría aplicar las evaluaciones a descripciones de situaciones del mundo real para determinar si son instancias de las clases de normas de mayor nivel que representan las conclusiones que revisten interés jurídico, es decir, si los conceptos de mayor nivel subsumen las descripciones sobre los hechos. Para que la subsunción puede funcionar, no obstante, los escenarios fácticos deben ser representados en términos par-

-no-

El modelajedel razonamiento legislativo

ticulares, proporcionados por una taxonomía de conceptos asociados con la materia regulada. En otros términos, también debe construirse una ontología sobre la materia regulada, como se discutirá en la Sección 6.5.

Figura 2.7. Muestra de un diagrama BPMN de un simple proceso de reclamo de seguro con anotaciones de reglas comerciales (véase la Tabla 2.1) (Koeter et al., 2014, Fig. 2, p. 220).

2.5.2. La automatización de los procesos comerciales de cumpli­ miento legal El objetivo de ciertas investigaciones consiste en simplificar el proceso de cumplimiento legal capacitando a un sistema experto para que analice de manera directa un modelo del proceso de negocio. Los insumos de ese siste­ ma experto están conformados por modelos de procesos de negocio, que son descripciones formales de procesos de negocio propuestos u operativos. Estos procesos pueden ser gráficamente representados en términos de descripciones esquemáticas utilizando el Modelo de Proceso de Negocio y Notación (MPNN) [Business Process Model and Notation -BPMN], una iconografía visual estan­ darizada y modularizada para este propósito. Los modelos también pueden ser representados en un lenguaje formal para el modelaje de reglas, el cual posibilita que los sistemas expertos razonen con ellos.

Como ya se dijo, si un lenguaje apropiado para formalizar reglas de nego­ cio se encuentra disponible y resulta compatible con el lenguaje para formalizar descripciones de procesos de negocio, entonces las reglas de negocio pueden ser aplicadas directamente a las descripciones del proceso modelo. En efecto,

Kevin D. Ashley

las reglas de negocio son utilizadas para “anotar” los modelos de procesos (y sus representaciones gráficas) con el fin de asegurar el cumplimiento legal. Por ejemplo, en la Figura 2.7 se muestra un diagrama MPNN referido a un simple proceso administrativo de reclamo de seguros. Esta compañía aseguradora está sujeta a diversos requisitos impuestos por la Asociación Alemana de Seguros (Germán Insurance Association) (GDV) y a las normas sobre protección de datos personales incluidas en la Ley Federal Alemana de Protección de Datos (FDPA). Un experto humano ha traducido manualmente esos requisitos en un conjunto de tres reglas de negocio, que van de R1 a R3, tal como lo muestra la Tabla 2.1. La figura muestra en dónde cada regla se aplica al proceso modelado.

Primero, examinemos más de cerca qué son estas tres reglas de negocio y de dónde vienen. Los expertos humanos, conocedores de los procesos de negocio, necesitan saber qué regulaciones aplicar a un proceso de reclamos de seguros en tales o cuales jurisdicciones; en este caso, se trata de una compañía de seguros que opera en Alemania. Por caso, de acuerdo a Koetter et al. (2014), al menos dos disposiciones regulatorias se aplican al proceso de reclamos de la Figura 2.7. Ellas aparecen en la primera columna de la Tabla 2.1.3 El experto humano necesitaría leer las disposiciones actuales (i.e., el código de conducta de la Asociación Alemana de Seguros y las disposiciones de la Ley Federal de Protección de Datos) y traducirlas manualmente en paráfrasis y proposiciones que resuman los requisitos, como las tres reglas de negocio mostradas en la segunda columna de la Tabla 2.1 (véase Koetter et al., 2004).

Entonces, las reglas de negocio tendrían que ser operacionalizadas para poder aplicarse al modelo de proceso de negocio específico que estuviera en cuestión, quizá con la asistencia de un experto en procesos de negocio. La tercera columna ofrece una versión simplificada, tal como se aplica al proceso de negocio de la Figura 2.7 (véase Koetter et al., 2004).

Un paso final consiste en traducir las reglas operacionalizadas, quizá con la ayuda de un especialista en representación cognoscitiva, al formato de la lógica de predicados que se muestra en la columna 4, de modo tal que ellas puedan ser aplicadas por un sistema experto.

En la columna 1, las paráfrasis de las disposiciones contenidas en el código de conducta de la Asociación Alemana de Seguros, §§5-8, y en la Ley Federal Alamana de Protección de Datos, han sido adaptadas de las paráfrasis de los autores contenidas en Koetter et al. (2014). 112-

El modelajedel razonamiento legislativo

Tabla 2.1. De los textos regúlatenos, pasando por las reglas de negocio y las anotaciones de procesos de negocio (véase la Figura 2.7), hasta los formatos en lógica de predicados (Koetter et al, 2014, p. 220). Regulaciones parafraseadas

Reglas de negocio

Tal como se aplican a los procesos de negocio

El formato de la lógica de predicados

El código de conducta §§58 del GDV: el cliente que proporciona sus datos personales debe dar su consentimiento para que sus datos se utilicen con fines comerciales. Este consentimiento debe solicitarse en un breve período de tiempo.

Rl: Después de la actividad Recibir reclamo, debe seguirse una actividad solicitando el consentimiento del demandante

Rl: Seguir esto mediante el envío de una notificación de privacidad de datos

SeguidoDe (“Recibir reclamo”, “Enviar reclamo y notificación de privacidad de datos”)

R2: La actividad que solicita el consentimiento debe ser realizada como máximo a los 14 de la actividad Recibir reclamo

R2: Enviar como máximo a los 14 de recibido el reclamo

Y desconocido

SeguidoDe (“Recibir reclamo”, Enviar reclamo y notificación de privacidad de datos”) Y TiempoMáximo

EntreActividades ("Recibir reclamo”, “Enviar reclamo y notificación de pri­ vacidad de datos”, “14 días”)

Una compañía alemana que subcontrata el procesamiento de datos debe asegurarse de que sus proveedores de servicios cumplan con la Ley Alemana (§4bII, enunciado 1 de la BDSG) que regula el procesamiento, almacenamiento y exhibición de datos personales.

R3: El cliente DB no debe estar situado fuera de Alemania.

R3: No comprar fuera de Alemania

RegiónHuésped

(“ClienteDB”,

“Alemania”)

-113 -

Kevin D. Ashley

Traducir los requisitos y regulaciones legales en reglas de negocio es una tarea interpretativa compleja que involucra la comprensión de textos, el razonamiento del sentido común y la experiencia comercial. Por ejemplo, la Ley Federal sobre Protección de Datos de Alemania establece lo siguiente:

1.

Toda transferencia de datos personales a cuerpos

1. situados en otros Estados Miembro de la Unión Europea,... estará regida por la Sección 15 (1), la Sección 16 (1) y las Secciones contempladas entre la Sección 28 y la 30a, de acuerdo con las leyes y acuerdos aplicables a la misma, en la medida en que la transferencia se efectúe en conexión con actividades que caen, ya sea en parte o en su totalidad, dentro de los límites legales de las Comunidades Europeas. 2. La Subsección 1 debe aplicarse mutatis mutandis a toda transferencia de datos personales... a otros cuerpos extranjeros, sean supranacionales o internacionales. La transferencia no debe ser efectuada en la medida en que el titular de los datos tenga un interés legítimo en que la misma sea excluida, particularmente si un nivel adecuado de protección de datos no es garantizado para los cuerpos aludidos en la primera oración de esta subsección.

3. La adecuación del nivel permitido de protección debe determinarse en función de todas las circunstancias.

4. La responsabilidad por la admisión de la transferencia debe descansar en el cuerpo que transfiere los datos. Formalizar esta disposición en su totalidad sería muy difícil, pero un ex­ perto humano quizá vería como innecesaria esa tarea. Gracias a su experiencia, el experto podría saber que la manera más fácil de cumplir este requisito sobre las protecciones de la Ley de datos personales sería evitar la transferencia de datos personales fuera de Alemania. Así, el experto prepararía una regla de negocio (R3 en la Tabla 2.1) que actuara como una especie de regla heurística tendiente a asegurar que los datos sólo serán procesados dentro de las fronteras de Alemania (Koetter et al., 2014).

2.5.3. Los requisitos para un lenguaje de cumplimiento de procesos

Por sí misma, la lógica de predicados no resulta adecuada para la tarea de modelar la aplicación de reglas regulatorias a los modelos de procesos de negocio. Un lenguaje apto debería posibilitar:

-114

El modelaje del razonamiento legislativo

1.

Un razonamiento con reglas jurídicas derrotables.

2.

Un enlace isomórfico de las reglas lógicas a las fuentes regulatorias.

3. Una especificación de los tipos de obligaciones que emplean las leyes y las regulaciones.

4. Un razonamiento temporal (Gordon at al., 2009). Cada uno de estos requisitos es descripto brevemente en lo que sigue.

Normas jurídicas derrotables

Primero, el lenguaje debe posibilitar normas jurídicas derrotables. Las normas derrotables tienen la propiedad de que: Cuando el antecedente de una norma es satisfecho por los hechos de un caso, la conclusión de la regla presumiblemente se sostiene, aunque no es necesariamente verdadera (Gordon et al., 2009).

La necesidad de contar con normas derrotables surge debido a que “las normas jurídicas pueden estar en conflicto, es decir, pueden dar lugar a con­ secuencias incompatibles” (Gordon et al., 2009). Una norma jurídica puede constituir una excepción a otra norma jurídica, excluirla como inaplicable o socavarla de alguna otra forma. Esto ya se ha visto previamente. Como observan Berman y Hafner, “el formalismo de tipo lógico se quiebra cuando pretende aplicarse a casos en los que conviven normas conflictivas y precedentes” (Berman y Hafner, 1988, p. 1). Además, tal como ya se discutió, razonar con normas jurídicas a menudo implica razonar por default, y este tipo de razo­ namiento es no monotónico. Proposiciones ya probadas podrían tener que ser descartadas, lo que habla a las claras de que el razonamiento con normas jurídicas es derrotable. Cuando se diseñan procesos de negocio que aseguren el cumplimiento de las regulaciones legales, aquí se ha asumido que la tarea de modelar argu­ mentos de carácter litigioso sobre reglas en conflicto bien podría ser evitada. Sin embargo, de acuerdo a Guido Governatori, un veterano diseñador de mo­ delos de cumplimiento de procesos de negocio, el lenguaje todavía necesita respaldar “un tratamiento eficiente y natural de las excepciones, que son una característica común del razonamiento normativo” (Governatoriy Shek, 2012).

Por ejemplo, tal como lo ilustra la Figura 2.2, compárese la versión textual compleja de la disposición del IRC (sección 354), en formato proposicional, con la estructura lógica simplificada que exhibe en la columna de la derecha.

-115 -

Kevin D. Ashley

El enlace a las fuentes regulatorias para explicación y mantenimiento Puesto que los sistemas de administración comercial monitorean el cumplimiento legal, las reglas del sistema deben ser actualizadas, mantenidas y validadas, y sus resultados deben ser explicables en función de los textos re­ gúlatenos. Estas funciones están simplificadas hasta tal punto que los vínculos entre las versiones lógicas de las reglas y sus fuentes en los textos regulatorios se tornan evidentes. De manera más específica, el lenguaje que modela la norma jurídica debe admitir el isomorfismo: Debe haber una correspondencia de uno a uno entre las reglas en el modelo formal y las unidades del texto en lenguaje natural que exprese las reglas provenientes de las fuentes jurídicas originales, como las secciones de una ley (Gordon et al., 2009).

Idealmente, el lenguaje mantiene una correspondencia de uno a uno entre las reglas en el modelo formal y las secciones de los textos regulatorios. “Esto implica, por ejemplo, que una regla general y las excepciones que se formulen separadamente en las diferentes secciones de una ley no deben convergir en una sola regla en el modelo formal” (Gordon et al., 2009).

Mantener el isomorfismo hace que la explicación sea más efectiva. Los sistemas de reglas comerciales pueden explicar sus análisis mediante una re­ capitulación de las reglas que “se dispararon”, tal como se ilustrara más arriba en el resultado del sistema BNA. En el marco de una auditoría, sin embargo, apelar a las reglas comerciales para explicar un análisis de cumplimiento legal no será suficiente. Una explicación debe justificar este análisis en términos de las disposiciones jurídicas que se desprenden de los textos, no simplemente a partir de las reglas comerciales que un experto humano haya construido a fin de interpretar y operacionalizar esas disposiciones. A los efectos de ceñirse a los textos legales, incorporando extractos de estos, resulta esencial un mapeo isomórfico.

Sin embargo, los mapeos isomórficos entre los textos legales y la implementación de reglas son difíciles de mantener. Con frecuencia, y en especial cuando las implicadas son disposiciones múltiples y de referencia cruzada, el mapeo se vuelve complejo. Las versiones de las leyes y regulaciones con las que pueden razonar las computadoras son diferentes de las versiones textuales autorizadas. Las leyes pueden ser tan confusas que incluso una “interpretación fiel” será de poca ayuda. Como observó Layman Alien, las leyes pueden incluir excepciones complejas y a veces implícitas, así como referencias cruzadas tanto dentro como a través de las disposiciones.

116-

El modelaje del razonamiento legislativo

El hecho de que las leyes y las regulaciones sean dinámicas complica mantener la correspondencia. La legislatura puede modificar las leyes existen­ tes o promulgar leyes nuevas, distintas agencias pueden revisar y actualizar las regulaciones y las decisiones judiciales, y los fallos judiciales pueden dar a conocer nuevas interpretaciones de los requisitos contenidos en las disposiciones legislativas. Incluso cuando el conjunto de disposiciones legislativas a ser implementadas fuera tomado como estático, tal como se discutió en la Sección 2.4.4, el desarrollo del programa BNA representa un proceso de ensayo y error que necesita revisiones frecuentes para adaptarse a las reglas recién encontradas.

Cuando los textos regulatorios son enmendados, tanto las versiones textuales de los mismos como sus correspondientes versiones lógicas deben ser actualizados. Los sistemas expertos basados en reglas (como por ejemplo el programa Waterman de la Sección 1.3.1), que emplean reglas heurísticas para resumir el contenido de las leyes, evitan algunos aspectos problemáticos del mantenimiento, pero aun así necesitan actualizarse cuando cambian las leyes y las regulaciones. Dado que la actualización supone modificaciones y adiciones al conjunto de reglas, también es importante revalidar las reglas de negocio siempre que sean introducidas o modificadas, lo que sucede en parte cuando se las compara con sus fuentes.

Algunas técnicas automatizadas han sido desarrolladas con la intención de mantener las representaciones isomórficas de las regulaciones. El entorno de desarrollo en Bench-Capon (1991), por ejemplo, mantuvo un complejo conjunto de enlaces entre las representaciones textuales, lógicas e intermedias de las leyes. En un entorno semejante, las modificaciones introducidas en las reglas pueden darse de manera localizada. Los vínculos entre las reglas textua­ les y lógicas pueden ser útiles para la validación. Adicionalmente, respaldos para la toma de decisiones como extractos textuales de las normas jurídicas y vínculos a comentarios jurídicos y casos pueden ser anexados junto a las explicaciones lógicas que realiza el programa de una conclusión. Las técnicas para mantener esta representación fidedigna, sin embargo, requieren mantener representaciones múltiples (este entorno de desarrollo tuvo tres) y también un software complejo que pueda hacer un seguimiento de todas ellas.

La capacidad de expresar diferentes tipos de obligaciones y razonar temporalmente Un lenguaje para el modelaje del cumplimiento de procesos de negocio necesita tener la “semántica” correcta para expresar los tipos de conceptos

117-

Kevin D. Ashley

normativos que emplean las leyes y regulaciones y las clases de obligaciones que ellas imponen. Las obligaciones pueden diferir en función de si:



Necesitan ser obedecidas en todas las instancias del intervalo en el que se encuentran en vigor,



Sólo necesitan ser alcanzadas al menos una vez mientras se encuen­ tran en vigor,



Pueden ser satisfechas incluso antes de que entren en vigor,



Necesitan ser alcanzadas inmediatamente, pues de lo contrario se dispara una transgresión,



Persisten luego de ser infringidas (Hashmi et al., 2014).

Un lenguaje que permite expresar estos diversos tipos de obligaciones también debe ser capaz de razonar temporalmente. Más allá de cuánto tiempo dura una obligación, las normas jurídicas poseen otras propiedades temporales, incluyendo “el tiempo durante el cual una norma se encuentra en vigor” y “el tiempo durante el cual la norma produce efectos jurídicos”. Para una discusión de las técnicas para mantener y razonar temporalmente con versiones múltiples de disposiciones legislativas, véase Palmirani, 2011.

2.5.4. Conectando las normas jurídicas y los procesos de negocio

El Lenguaje de Cumplimiento de Procesos (LCP) [Process Compliance Language - PCL] fue diseñado para satisfacer todos los requisitos anteriores (Hashmi et al., 2014). Es capaz de representar las normas jurídicas como de­ rrotadles y evita los problemas de razonar con reglas contradictorias. También puede definir obligaciones con la semántica aludida y razonar temporalmente. Un proceso de negocio complejo, sin embargo, puede abarcar numero­ sas partes en movimiento, por lo que el cumplimiento legal debe ser evaluado cuando el proceso está operando. ¿Cómo el modelo representa un proceso capaz de prescindir de simplificaciones excesivas y de permitir que las reglas se apliquen de manera realista?

Para que esto funcione, el modelo debe dar cuenta de los artefactos que el proceso de negocio produce y de los cambios que introduce en el entorno (Hashmi et al., 2014, p. 104). Los autores modelan un proceso de negocio como una red de flujo de trabajo, un tipo de red Petri. Las redes Petri (introducidas en 1962 por el matemático y científico computacional alemán C. A. Petri) son utilizadas para representar procesos de manera abstracta. Las redes Petri no son diferentes de las RTA analizadas en la Sección 1.4.2, otro tipo de represen­

-118 -

El modelaje del razonamiento legislativo

tación de procesos. Allí, el proceso modelado poseía una naturaleza jurídica, a saber: el proceso de oferta y aceptación característico del Derecho contractual. Los nodos en la RTA de Gardner representaban estados en el análisis jurídico; los arcos representaban las transiciones posibles de un estado a otro estado, gobernado por las normas jurídicas asociadas con cada arco. Vacío

Consumir

Figura 2.8. La red Petri representando un simple problema de asignación de recursos entre un productor y un consumidor (véase Kafura, 2011, p. 8).

No obstante, las redes Petri son diferentes de las RTA, en el sentido de que ellas emplean dos tipos de nodos, lugares y transiciones, con arcos que conectan un tipo de nodo con otro. Además, tanto la producción como el consumo de “tokens” se emplean para representar los eventos que ocurren durante el proceso y los cambios en el estado del sistema que un evento causa. En una red Petri, cada evento es modelado como una transición que consume y produce “tokens”, y “el estado de un sistema es modelado en cualquier mo­ mento mediante una distribución de tokens en los lugares de la red” (Palenque y Bastide, 1995, p. 388).

Los lugares y las transiciones están conectados por medio de arcos directos, los cuales determinan cuándo se permite que ocurra una transición y cuál será el efecto de su ocurrencia. Se permitirá que ocurra una transición cuando cada uno de sus lugares de entrada contenga al menos un token; la ocurrencia de la transición consume un token en cada lugar de entrada y establece un token en cada lugar de salida (Palenque y Bastide, 1995, p. 388).

-119

Kevin D. Ashley

La red Petri de la Figura 2.8 representa un simple escenario de pro­ ductor-consumidor en donde se exhibe un problema de sincronización en la asignación de recursos. Los nodos rectangulares representan transiciones; los nodos circulares representan lugares. En este ejemplo, los recursos ac­ túan como “ítems” a ser producidos y consumidos. Los ítems pueden ser “widgets”, pero también pueden contener información. Un productor crea nuevos ítems, pero no puede generar un nuevo ítem a menos que el número de ítems disponibles sea menor que un número máximo determinado. El con­ sumidor acepta por vez un ítem producido, pero no puede aceptar un ítem a menos que esté disponible. La capacidad del depósito en la mitad de la figura limita el número máximo de ítems disponibles. En este ejemplo, el número máximo es cinco, representado por el número total de tokens en los lugares Lleno y Vacío: cuatro en el lugar Vacío más uno en el lugar Lleno. Así, la figura representa una situa­ ción luego del estado inicial, en donde el productor ha generado un ítem para que sea aceptado por el consumidor, tal como es representado por el token en el lugar Lleno. El productor luego genera un nuevo ítem en el lugar Generar y se prepara para enviarlo al depósito, una vez que el ítem hace su transición hacia el lugar Listo. La transición de producción, sin embargo, sólo puede ocurrir (i.e., “dispararse”) cuando hay un token en el lugar Vacío. De modo similar, la transición de aceptación sólo puede dispararse cuando el consumidor está listo, es decir, cuando hay un token en el lugar Listo del consumidor en la parte baja de la derecha, y al menos un token en el lugar Lleno. Una vez aceptado, el ítem puede ser consumido. El modelo de red Petri del proceso puede ser implementado en software por medio de reglas que definan las condiciones para las transiciones. De acuer­ do a las reglas de transición, una transición es permitida (es decir, la transición puede dispararse) “cuando hay al menos un token en cada uno de los lugares de entrada de la transición; cuando la transición se dispara, remueve un token de cada uno de los lugares de entrada y produce un único token en cada uno de los lugares de salida” (Kafura, 2011, p. 2). Uno podría imaginar variantes para las reglas de transición que cambien el máximo número posible de ítems disponibles o que especifiquen los números (probablemente diferentes) de ítems que pueden ser producidos o consumidos a la vez, así como las tasas de producción y consumo. Mientras parece bastante simple, la red Petri en la Figura 2.8 transmite una intuición sobre cómo un proceso de negocio complejo puede ser mode­

-120-

El modelaje del razonamiento legislativo

lado en software. Las redes Petri pueden modelar la conducta de sistemas no deterministas; “si hay más de una transición habilitada, cualquiera de las transiciones habilitadas puede ser la próxima en dispararse” (Kafura, 2011, p. 2). Una extensión de la red Petri, la red de flujo de trabajo etiquetada [labeled workflow net], sigue los rastros de las posibles secuencias de ejecución de un proceso; requiere que cada nodo perteneciente al modelo de proceso permanezca en la vía directa que se interpone entre la sola fuente y los lugares finales, etiquetando algunas de las transiciones como “visibles” (Hasmi et al., 2014, pp. 104,111).

Los rastros de la operación del proceso de negocio generada por la red de flujo de trabajo etiquetada pueden ser los insumos para que un experto humano, pero también un sistema experto con reglas de negocio formalizadas, analice el cumplimiento legal. Las reglas comerciales están asociadas con “cada tarea en un rastro... (y) representan las obligaciones en vigor por cada combinación de tarea y rastro. Estas están entre las obligaciones que el proceso debe satisfacer para adecuarse a un determinado marco normativo” (Hashmi et al., 2014, p. 108). Un programa evalúa si esos hechos que deben ser verdaderos de acuerdo a las reglas de negocio realmente son verdaderos. El análisis de cumplimiento legal puede ser realizado en diferentes puntos del ciclo de vida de un proceso de negocio: Tiempo de diseño: cuando el proceso está siendo diseñado, mediante un análisis del modelo de proceso en desarrollo en un entorno de diseño computarizado que asegure el cumplimiento con limitaciones regulatorias fijadas a priori.

Tiempo de ejecución: Mientras el proceso se halla en ejecución, mediante una dirección de cómo el proceso se despliega para asegurar que la ejecución cumpla las leyes. Tiempo de posejecución: Luego de la ejecución, mediante un análisis de la trayectoria de las operaciones de un proceso, para identificar instancias de incumplimiento legal.

A los efectos de realizar las determinaciones durante el tiempo de dise­ ño, ejecución y postejecución, deberá construirse una red de flujo de trabajo que represente el proceso de negocio en ese punto, como así también deberán generarse los rastros de su operación para que sean analizados (véase Hashmi et al., 2014, p. 112).

-121-

Kevin D. Ashley

2.5.5. Un ejemplo de modelaje de cumplimiento de procesos de negocio

Hashmi et al. (2014) aplicaron el LCP a fin de modelar la regulación de un proceso de negocio para la tramitación de reclamos bajo el Código Australiano de Telecomunicaciones para la Protección de los Consumidores [Australian Telecommunication Consumers Protection Code] (TCPC) de 2012. El código específicamente ordena que cada entidad australiana que opere en el sector de las telecomunicaciones debe certificar que sus operaciones diarias se adecúan al código. Específicamente, ellos modelaron la sección §8 del código, que regula la administración y manejo de los reclamos de los consumidores (Hashmi et al., 2014, p. 113f). La sección fue mapeada manualmente en “176 reglas LCP, las que contenían 223 proposiciones (atómicas) (literales)”, empleando todos los tipos de obligaciones antes enumerados. A los fines de realizar este ejercicio, los autores obtuvieron la aprobación informal del regulador de las reglas de negocio.

Con la asistencia de expertos en el área provenientes de una industria asociada, ellos confeccionaron modelos de procesos a fin de capturar los procedimientos existentes en la compañía para tramitar los reclamos y otras cuestiones previstas en la sección §8 del código. Este proceso dio como resul­ tado seis modelos de procesos de negocio, registrados en términos de las reglas de negocio relevantes, seis de los cuales fueron lo suficientemente pequeños como para que su adecuación legal fuera medida en segundos. Evaluar el cum­ plimiento en el proceso de negocio más extenso, con 41 tareas y 12 puntos de decisión, insumió aproximadamente 40 segundos de tiempo computacional (Hashmi et aL, 2014, p. 114). El sistema arroja como resultado un informe relativo a los rastros, reglas y tareas responsables del incumplimiento, tal como se ilustra en la Figura 2.9. Aunque la figura retrata un proceso de negocio diferente, relativo a la apertura de cuentas para operar con tarjetas de crédito, sí resulta ilustrativo del tipo de información que el sistema puede generar basado en su análisis sobre el cumplimiento de un proceso de negocio. Identifica recorridos de ejecución en los que se verifica el incumplimiento y cita la regla regulatoria que oficia como fuente del incumplimiento en cuestión. En la evaluación de cumplimiento del proceso de tramitación de recla­ mos, el equipo identificó varios puntos en los cuales los procesos de negocio fallaron en adecuarse a la sección §8 del código. “Algunos de los problemas

122-

El modelajedel razonamiento legislativo

de cumplimiento descubiertos por las reglas resultaron novedosos para los analistas y fueron identificados como problemas genuinos de incumplimien­ to que debían ser resueltos” (Governatori y Shek, 2012). Los problemas de incumplimiento consistían en asegurar que “cierto tipo de información era registrado en las bases de datos asociadas (con) los procesos”, que los clientes eran informados “de los documentos que detallaban el procedimiento de esca­ lada” y que “una actividad particular no ocurría durante una parte del proceso”. Dos de estos problemas de incumplimiento fueron el resultado de “los nuevos requisitos en la versión 2012 del código” (Hashmi et al., 2014, p. 114).

El equipo implemento el entorno de software de cumplimiento para co­ rregir algunos de los problemas de incumplimiento. Las correcciones incluían modificar los procesos existentes para adecuarse el código o diseñar y agregar algunos nuevos modelos de procesos de negocio, tal como una nueva manera de manejar los reclamos personalmente o por vía telefónica (Governatori y Shek, 2012; Hasmi et al., 2014, p. 114). El sistema de Governatori realizó un trabajo jurídico real en un contexto realista. Sin embargo, tanto la tarea de desarrollar las reglas de negocio como la de representar el proceso de negocio a ser analizado con las reglas de negocio demandaron un esfuerzo manual muy grande. La formulación de las reglas de negocio a partir de las fuentes regulatorias se hizo de manera completamente manual. Pero también parece haber sido el resultado de un trabajo manual in­ trincado la construcción del modelo del proceso de negocio que debía oficiar como el insumo a ser anotado por las reglas de negocio.

Las agencias gubernamentales podrían beneficiarse de la automatización de los procesos administrativos para cumplir con las regulaciones. Van der Pol (2011) describió un modelo de cumplimiento legal para procesos de negocio en condiciones de ser aplicado por el Servicio Holandés de Inmigración y Na­ turalización (IND). Un sistema informático llamado INDiGO tenía la misión de almacenar un sistema experto de reglas comerciales basado en las leyes, regula­ ciones y políticas relevantes que ordenaban el procesamiento de las solicitudes de los clientes de IND. El motor de reglas contendría un modelo del flujo de trabajo del proceso, incluyendo el orden en el que los servicios comerciales deberían ejecutarse, y podría ser consultado para proporcionar esos servicios en función del caso específico y las circunstancias de un cliente. El sistema debía analizar los rastros de las historias de las operaciones del proceso de negocio para identificar instancias de incumplimiento legal, resultados insatisfactorios o ineficiencias, para luego proporcionar una retroalimentación [feedback] a los reguladores sobre cómo modificar las leyes y regulaciones relevantes.

-123

Kevin D. Ashley

Status General de Cumplimiento

El proceso sólo cumple débilmente las regulaciones Recorridos de Ejecución en Incumplimiento Empezar, Ingresar los detalles de la solicitud de una tarjeta de crédito de un cliente, Enviar documentación pre-contractual

Obligación no compensada “(Obligación de Mantenimiento para la Evalu­ ación de Registros)”. Etiqueta de regla: NCCPA. 132.1 Obligación no satisfecha “(Obligación de pago P anticipada, persistente y preventiva)” Figura 2.9. Un informe sobre los rastros, reglas y tareas responsables del incumplimiento legal (extractos) (véase Governatori y Shek, 2012).

2.6.

LA REPRESENTACIÓN DE LAS REDES LEGISLATIVAS

Los sistemas expertos y la programación lógica no son los únicos pa­ radigmas que pueden contribuir al razonamiento computacional con leyes y regulaciones. Los sistemas regulatorios contenidos en las legislaciones pueden ser representados como redes o gráficos de relaciones entre objetos. Los ob­ jetos conectados pueden ser otras leyes y disposiciones, una red de citas, o un conjunto de conceptos referenciales referidos por, y sujetos a, regulaciones a través de leyes múltiples, un diagrama legislativo en red.

Por ejemplo, en un proyecto reciente, los sistemas estatales de regu­ laciones para enfrentar las emergencias de salud pública son representados como nodos de redes. Los nodos representan a los agentes a los que una ley

-124-

El modelaje del razonamiento legislativo

ordena comunicarse con otros agentes bajo condiciones especificadas (Sweeney et al., 2014). Utilizando consultas hechas a mano por expertos, un equipo de investigadores recuperó de las bases de datos jurídicas de LexisNexis, correspondientes a 11 Estados de los Estados Unidos, algunas leyes relativas a la preparación de sus sistemas de salud para hacer frente a las emergencias. Utilizando un manual de códigos estandarizado, cada disposición fue codi­ ficada para identificar su relevancia y, en ese caso, la cita de la disposición, los agentes del sistema público de salud a los que la disposición se dirige, la acción ordenada por la disposición junto con su carácter deóntico (permitida u obligatoria), el objetivo o producto de la acción, el propósito de la ley, el tipo de emergencia en el que se aplica la directiva y bajo qué condiciones y marco temporal lo hace (Sweeney et al., 2014). Una vez que los diferentes sistemas regulatorios estatales son repre­ sentados en la forma de redes, estas pueden compararse tanto visual como cuantitativamente mediante medidas analíticas de red, posibilitando la for­ mulación de inferencias tentativas sobre el esquema regulatorio de un Estado en comparación con el esquema regulatorio de otro Estado. Por ejemplo, en la Figura 2.10 se comparan interacciones institucionales legalmente obligato­ rias en los Estados de Florida y Pensilvania en relación con la vigilancia de las emergencias.

Los diagramas comparativos de este tipo pueden plantearles a los analis­ tas del sistema público de salud distintas hipótesis sobre las diferencias entre Estados, que luego pueden ser estudiadas a la luz de los textos legislativos. Por ejemplo, tomando como base las líneas blancas de la Figura 2.10, uno podría preguntar por qué los Centros Comunitarios de Salud y las Agencias Locales de Salud se vinculan con otros agentes del sistema público de salud en Pensilvania, pero no en Florida. Una investigación de las posibles respuestas implicaría estudiar los textos legislativos de ambos Estados. Los diagramas legislativos en red pueden ser de ayuda. Ellos constituyen un tipo de interfaz visual de las leyes de un Estado que les permiten tanto a los investigadores como al personal que trabaja en el campo específico recuperar las disposiciones que gobiernan las interacciones institucionales de los agentes tan sólo haciendo clic en los vínculos de red que representan esas interaccio­ nes (Sweeney et aL, 2014). De este modo, un investigador podría al menos recuperar las leyes relevantes que gobiernan los vínculos con los Centros Comu­ nitarios de Salud y las Agencias Locales de Salud de Pensilvania. Con el apoyo de esos textos, uno podría encuadrar consultas vinculadas con leyes similares de Florida mediante el empleo de herramientas jurídicas convencionales. Las

-125-

Kevin D. Ashley

consultas revelarían que el Derecho de Florida contiene directivas similares que han sido omitidas en la construcción de la red legislativa, o, de manera más interesante, que existe una laguna en las leyes de Florida que debería llenarse si así lo estimaran conveniente los legisladores.

Figura 2.10. Un diagrama legislativo en red que compara los esquemas legales de Pensilvania (PA) y Florida (FL) sobre las medidas de vigilancia de sus respectivos sistemas públicos de salud ante las emergencias: los círculos representan a los actores y colaboradores del sis­ tema público de salud de FL y PA. Las líneas grises representan las relaciones existentes en ambos Estados; las líneas blancas, por su parte, las relaciones jurídicas que se constatan en PA, pero no en FL (Sweeney et al., 2014).

-126-

El modelajedel razonamiento legislativo

Herramientas como los diagramas legislativos en red y los diagramas de citas en red pueden contribuir a que los seres humanos solucionen pro­ blemas de razonamiento jurídico en los que la computadora y el ser humano compartan la responsabilidad de realizar aquellas tareas que mejor se adapten a sus capacidades. El Capítulo 11, referido a la recuperación de información conceptual de naturaleza jurídica, examina más de cerca el empleo de ambos tipos de diagramas en la computación cognitiva. La información de citas puede ser extraída automáticamente de los textos legales o recuperada de los repo­ sitorios jurídicos para así crear redes de citas. Crear un diagrama legislativo en red es más complejo, pues demanda una codificación manual de las leyes ciertamente extensa. El Capítulo 9, referido a la extracción de información de las leyes, analiza las técnicas para aplicar AA con el propósito de automatizar o semi-automatizar el trabajo de codificación necesario para construir diagramas legislativos en red. *** En lo que resta de este libro, revisamos el problema de cómo representar reglas, leyes y regulaciones comerciales. La Sección 6.5 analiza la construcción de ontologías para las leyes y regulaciones. Con el propósito de anotar o marcar las leyes y las regulaciones con información semántica procedimental y sus­ tantiva que luego pueda ser usada en la búsqueda de disposiciones relevantes, se han desarrollado esquemas estandarizados. El Capítulo 9 explica cómo los enfoques automatizados para extraer información de los textos legislativos y regulatorios pueden contribuir a la recuperación de información conceptual. Otros proyectos, como los que se discuten en la Sección 9.5, tratan el problema de extraer automáticamente reglas lógicas y limitaciones de los textos regu­ latorios, concentrándose en un pequeño conjunto de regulaciones en formas estereotipadas repetitivas.

-127-

3 El modelaje del razonamiento jurídico basado en casos

3.1. INTRODUCCIÓN

ado que las normas jurídicas emplean términos y conceptos que pueden ser vagos y de textura abierta, un modelo computacional de razonamiento con casos podría ser de ayuda. Los tribunales a menudo interpretan el significado de los términos y conceptos jurídicos trazando ana­ logías entre casos que ilustran cómo un término o concepto ha sido aplicado con antelación.

D

Este capítulo presenta diferentes modelos computacionales del razona­ miento analógico basado en casos judiciales. Los modelos están fundados en tres enfoques básicos. El primero, sobre prototipos y deformaciones, pone el foco en cómo resolver un caso mediante la construcción de una teoría basada en casos anteriores. El segundo, sobre dimensiones y factores jurídicos, emplea patrones de hechos estereotipados que fortalecen o debilitan el argumento de una parte sobre un concepto o pretensión jurídica. El tercero, sobre explica­ ciones basadas en ejemplos (EBE), representa los conceptos jurídicos a partir de las explicaciones ofrecidas previamente por los tribunales sobre por qué un concepto fue o no aplicado. Los modelos ejemplifican cómo representar casos judiciales de tal modo que un programa informático pueda razonar sobre si ellos resultan análogos a un caso que debe resolverse. En particular, ellos ilustran las distintas formas en las que un programa puede comparar un problema con diversos casos, seleccio­ nar los casos más relevantes y generar por vía analógica argumentos jurídicos tanto a favor como en contra de la conclusión sugerida para un nuevo caso.

-129

Kevin D. Ashley

Las reglas y los conceptos jurídicos son promulgados con propósitos normativos. Los argumentos teleológicos (i.e., los argumentos a partir de los propósitos o valores supuestamente promovidos por una regla) juegan un rol importante a la hora de trazar analogías jurídicas. Los modelos informáticos que integran las normas jurídicas, los conceptos jurídicos intermedios [inter­ medíate legal concepts] (ILC) extraídos de esas reglas y los casos que las aplican deben tomar en cuenta los valores subyacentes. Este capítulo introduce diversas técnicas para modelar computacionalmente el razonamiento teleológico por medio de la integración de valores en la medición de la relevancia de un caso y en los modelos de analogía jurídica. Ninguno de estos sistemas trata directamente con textos jurídicos. En su lugar, trabajan sobre la base de representaciones formales de hechos casuísti­ cos y conceptos jurídicos que fueron manualmente construidos. El supuesto, en todo caso, es que llegará el día en que estas representaciones casuísticas sean automáticamente extraídas de los textos en lenguaje natural que reco­ jan opiniones de sentencias o resúmenes de los hechos. Con la analítica textual, ese día se está aproximando rápidamente. El capítulo contrasta las diferentes representaciones casuísticas con sus implicaciones para la computación cognitiva en función del grado de docilidad que ellas presentan para la analítica textual.

Este capítulo responde las siguientes preguntas: ¿Cómo pueden ser representados computacionalmente los conceptos jurídicos de manera tal que se refleje su relación dialéctica con los casos? ¿Cómo pueden represen­ tarse computacionalmente los hechos de los casos y los razonamientos de los tribunales? ¿Qué son los prototipos y las deformaciones, las dimensiones o los factores y las EBE? ¿Qué aspectos de la resolución de un tribunal ellos capturan y qué otros omiten? ¿Qué es un contraejemplo vencedor? ¿Qué son las redes semánticas y los hechos “criteriales”? ¿Cómo puede medirse com­ putacionalmente la relevancia de un caso para un problema? ¿De qué manera un programa selecciona los casos relevantes, los compara en términos de si­ militud, los compara analógicamente y los distingue de situaciones tácticas y otros casos? ¿Cómo es que esos programas se evalúan empíricamente? ¿En qué consiste el razonamiento teleológico? ¿Qué roles desempeña el razonamiento teleológico a la hora de trazar analogías entre casos judiciales? ¿Cuál es el rol reservado en el razonamiento teleológico para las situaciones hipotéticas? ¿Cómo se pueden representar computacionalmente los valores que subyacen a las normas jurídicas y cómo un programa de computación puede integrar esos valores con sus métodos para seleccionar los casos relevantes, trazar analogías y diferenciar entre casos? -130-

El modelaje del razonamiento jurídico basado en casos

3.2. LA RELACIÓN ENTRE LOS CONCEPTOS JURÍDICOS Y LOS CASOS JUDICIALES

Los modelos computacionales del razonamiento jurídico basado en casos modelan las interacciones entre los conceptos jurídicos y los casos judiciales. Los conceptos jurídicos se corresponden con los términos de textura abierta con los que se formulan las reglas de las que se componen los textos constituciona­ les, legislativos y jurisprudenciales. En la tradición del common law, como así también hasta cierto punto en algunas jurisdicciones del Derecho continental o civil law, los casos desempeñan un rol a la hora de dilucidar los significados de los conceptos jurídicos de textura abierta, así como para interceder en la forma en la que esas reglas y significados cambian.

3.2.1. El proceso jurídico

Edward Levi es famoso por haber puesto en contraste el proceso de razonar jurídicamente por medio de ejemplos con la pretensión de que el De­ recho “es un sistema de reglas conocidas aplicadas por un juez” (Levi, 2013, p. 1). Para Levi, el Derecho supone un “esquema móvil de clasificación”, en cual los conceptos jurídicos son los clasificadores. “El tipo de razonamiento implicado en el proceso jurídico es uno en el cual la clasificación cambia al mismo tiempo que se realiza. Las reglas cambian en la medida en que se apli­ can” (Levi, 2013, pp. 3-4). En este proceso, los tribunales determinan si el resultado de una re­ gla contenida en los precedentes debe aplicarse a un nuevo caso, en parte mediante una comparación de los hechos característicos del nuevo caso con aquellos aludidos en el precedente. Para determinar si el nuevo caso re­ sulta similar o diferente al caso contenido en el precedente, los tribunales pueden dilucidar el significado de los conceptos jurídicos introducidos en la regla, aunque a menudo hacen lo contrario. Cuando el significado de un concepto se vuelve demasiado incoherente, un tribunal puede introducir una excepción a la regla mediante la incorporación de un nuevo concepto jurídico. Como producto de esta decisión, la regla es modificada y el proceso continúa. Eventualmente, incluso una regla cargada de excepciones se vuelve incoherente, en cuyo caso un tribunal la desecha en beneficio de una nueva regla (Levi, 2013).

-131

Kevin D. Ashley

3.2.2. Una ilustración del proceso jurídico Levi ilustró el proceso jurídico cuando expuso el desarrollo del moderno Derecho de responsabilidad por el producto. La responsabilidad objetiva por el producto, tal como fue modelada por el sistema jurídico experto de Waterman (Sección 1.3.1), se originó en un proceso que implicó un razonamiento basado en casos. Las excepciones habían erosionado el requisito de vincula­ ción contractual [privity] que limitaba la responsabilidad de los fabricantes en una serie de casos que incluyeron el caso Thomas vs. Winchester, 6 N. Y. 397 (1852). La regla fue reemplazada en MacPherson vs. Buick, 217 N. Y. 382, 11 N. E. 1050 (1916), así como también en la formulación posterior del moderno Derecho de responsabilidad objetiva por el producto, cristalizado por ejemplo en la Reformulación (Segunda) de la Ley de Responsabilidad Extracontractual [Restatement (Second) of Torts]. Tal como se le enseña a la mayoría de los estudiantes estadounidenses de abogacía, la norma jurídica del common law que históricamente prevaleció fue que “un fabricante o proveedor nunca es responsable de negligencia frente a un comprador remoto” (Levi, 2013, p. 25). Es decir, “si no hay vinculación contractual, no hay responsabilidad” [“no privity, no liability”]. Hubo algunas situaciones de hecho excepcionales en las que, más allá de la regla, un fabri­ cante fue responsabilizado incluso frente a una tercera persona. En Thomas vs. Winchester, un tribunal propuso un concepto para invocar las excepciones: si un producto fuera inminentemente peligroso, podría haber responsabilidad sin vinculación contractual. En fallos posteriores, hubo tribunales que clasificaron diversos productos como de peligrosidad inminente y hubo otros tribunales que no lo hicieron, pero que introdujeron algunas variaciones del concepto, como el hecho de ser “inherentemente peligroso” o “eminentemente peligro­ so”. Después de todo, un “concepto suena como el otro, con lo que el paso del primero al segundo queda asegurado” (Levi, 2013, p. 8).

El proceso de clasificación continuó en el tiempo, con tribunales dispues­ tos a ampliar la clase de artículos inherentemente peligrosos, pero renuentes a permitir compensaciones por aquellos artículos que meramente eran peligrosos por encerrar algún defecto:

Alguien que fabrica artículos inherentemente peligrosos, es decir, venenos, dinamita, pólvora, torpedos, botellas de agua aireada a presión, es responsable extracontractualmente frente a una terce­ ra persona... Por otro lado, alguien que fabrica o instala artículos que son peligrosos por contener un defecto, como mesas, sillas, pinturas o espejos que cuelgan de una pared, transportes, auto­

-132-

El modelaje del razonamientojurídico basado en casos

móviles y demás elementos, no es responsable frente a terceras personas por los daños que estos artículos puedan ocasionarles, excepto en el caso de que haya habido fraude o un perjuicio intencional. Cadillac vs. Johnson, 221 Fed. 801, 803 (Levi, 2013, pp. 19-20).

Eventualmente, estas clasificaciones basadas en ejemplos pueden llegar a parecer tontas o irracionales y un tribunal puede desechar la regla en su to­ talidad. En MacPherson vs. Buick, el Tribunal de Apelaciones de New York le permitió al demandante MacPherson, una tercera persona, obtener una indem­ nización por las lesiones causadas por un Buick, un tipo de artículo que sólo un año atrás el propio tribunal había clasificado como peligroso por contener un defecto, lo que eximió de responsabilidad al fabricante. Si la naturaleza de una cosa es tal que razonablemente representa un peligro para la vida o la integridad física cuando su fabricación es negligente, entonces debe considerarse una cosa de peligro... Si al elemento de peligro se le añade el conocimiento de que la cosa será usada por personas diferentes al comprador, y sin mediar ninguna prueba adicional, entonces, con independencia del contrato, la fabricación de esta cosa de peligro cae bajo del deber de actuar con cuidado. 217 N. Y. 389. En 1964, la regla referida a la responsabilidad de un vendedor por un daño físico causado por productos defectuosos a usuarios o consumidores ex­ traños al comprador se transformó en el moderno Derecho de responsabilidad por el producto modelado en Waterman. Al respecto, véase la Reformulación (segunda) de la Ley de Responsabilidad Extracontractual, §402. Responsabi­ lidad Especial del Vendedor de Productos por el Daño Físico sobre un Usuario o Consumidor.

3.2.3. El rol de los conceptos jurídicos Para resumir, de acuerdo con Levi, los conceptos jurídicos desempeñan un número determinado de roles. Ellos son los componentes de las reglas del Derecho. Ellos tienen significados, y, hasta cierto punto al menos, posibilitan el razonamiento deductivo tendiente a determinar si el concepto se aplica a un nuevo caso. Un proceso judicial también se halla hasta cierto punto guiado por reglas, pero está lejos de ser un asunto que consista en aplicar deductivamente tales reglas a nuevas situaciones (Levi, 2013).

-133-

Kevin D. Ashley

Uno de los roles principales que cumplen los conceptos es el de permitir focalizarse en aquellas similitudes que, en un determinado momento históri­ co, la sociedad considera importantes para que se haga justicia. Un concepto jurídico es entonces una “etiqueta” que cosifica estas similitudes a través de una colección de casos. Los tribunales razonan con estas similitudes cuando resuelven un nuevo caso. Como Levi sostiene, El problema para el Derecho es el de cuándo resulta justo tratar diferentes casos como si fueran iguales. Un sistema jurídico en funcionamiento debe... estar dispuesto a seleccionar similitudes claves y razonar a partir de ellas en pos de la justicia de aplicar una clasificación común (Levi, 2013, p. 3). A lo largo del proceso consistente en determinar que ciertos casos son similares o diferentes, tanto las normas jurídicas como sus conceptos sufren modificaciones. Un concepto se expande o se contrae cuando los tribunales resuelven aplicarlo o no a nuevos casos. Además, las evaluaciones de ciertas similitudes como relevantes o irrelevantes pueden cambiar en la medida en que también hagan lo propio las circunstancias y los valores. Así, analogías anteriores pueden resultar sospechosas y conducir a decisiones que ahora se consideran injustas. Cuando los hechos propios de un caso estiran los signifi­ cados de un concepto más allá de lo creíble, un tribunal puede (siempre que se sujete a varias limitaciones, tal como el lugar que ocupa en una jerarquía judicial) reemplazarlo con un nuevo concepto en una regla reformulada. Las normas jurídicas existentes y los argumentos empleados en casos anteriores sugieren nuevos conceptos para restringir, extender o reemplazar las reglas existentes y lidiar con circunstancias fácticas y valores sociales cambiantes (Levi, 2013) (véase también Ashley y Rissland, 2003).

Un examen más detallado de la historia del Derecho de responsabilidad por el producto en el enfoque de Levi identificará algunas características o fac­ tores que los tribunales aplicaron en su momento. Los tribunales compararon casos en términos de: •

Si el fabricante estaba al tanto del defecto oculto.



Cuán difícil sería descubrir el defecto.



Si el fabricante había ocultado el defecto de manera fraudulenta.



La probabilidad de que el artículo fuera utilizado por alguien como la víctima.



Quién tenía el control del artículo

-134

El modelaje del razonamiento jurídico basado en casos



Cuán peligroso era el artículo.



Si el peligro se debió a un acto posterior.



La naturaleza del daño que resultó del defecto.



Las expectativas sociales relacionadas con la confiabilidad del fabri­ cante (por ejemplo, farmacéutico, fabricante de autos).

En el contexto de la responsabilidad por el producto, estos ofrecen cri­ terios sensibles a fin de comparar casos y evaluar la justicia de un resultado propuesto sobre la base de una regla o interpretación de un concepto jurídico (Ashley y Rissland, 2003). Los cambios en lo que la sociedad quiere y en lo que la tecnología puede afrontar afectan los criterios que se consideran im­ portantes. Aseverar la importancia que revisten las diversas colecciones de criterios existentes permite una ordenación diferente de casos. El proceso de razonamiento jurídico (y el foro del cual es parte) respalda este dinamismo mediante el uso de reglas, conceptos y ejemplos casuísticos (Levi, 2013).

3.3. TRES MODELOS COMPUTACIONALES DE CASOS Y CONCEPTOS JURÍDICOS Modelar un razonamiento jurídico basado en casos demanda técnicas capaces de representar el conocimiento sobre los hechos implicados en los casos y de evaluar las similitudes que sean jurídicamente relevantes. Puesto que los modelos deben determinar si los casos han de tratarse de la misma manera desde un punto de vista jurídico, las similitudes y diferencias habrán de representarse de forma tal que un programa las pueda procesar, analizar y manipular. Tres tipos de modelos computacionales han sido desarrollados para representar los hechos de los casos, definir las similitudes y diferencias rele­ vantes y relacionarlas con los conceptos jurídicos y otros casos comparables: prototipos y deformaciones, dimensiones y factores jurídicos, y EBE. Los tres modelos varían en función de la mezcla de elementos intensionales y extensionales que emplean a fin de representar los conceptos jurídicos. Una definición intensional especifica las condiciones necesarias y suficientes para llegar a ser una instancia del concepto. Por ejemplo, un “vehículo” es cualquier instrumento utilizado, o que sea capaz de ser utilizado, como medio de transporte. Una definición extensional simplemente proporciona ejemplos de los que es y no es una instancia de un concepto. Por ejemplo, automó­ viles, bicicletas y una motocicleta Harley-Davidson Low Rider de 103.1 cc

135-

Kevin D. Ashley

ofrecen ejemplos de lo que es un “vehículo”, aunque no así un tanque Sherman de la Segunda Guerra Mundial. Como se explica en el Capítulo 5, los modelos computacionales de argumentación jurídica ahora incorporan en sus esquemas de argumentación analógica algunos aspectos de estos modelos que se basan en casos. Los modelos computacionales de razonamiento jurídico se aproximan al proceso de razonar jurídicamente mediante casos y conceptos. Dada la compleja interacción entre casos y conceptos ilustrada en los ejemplos de Levi, los investigadores en IA & Derecho necesariamente deben simplificar el proceso. Específicamente, los modelos se focalizan en un número de casos comparativamente menor, como en 40 casos y situaciones hipotéticas sobre la compensación de trabajadores, en algo menos de 200 casos sobre la ley de secretos comerciales o en una media docena de casos en Derecho de propie­ dad referidos a los derechos de los cazadores sobre sus presas. Además, todos los modelos se concentran en áreas jurídicas que atraviesen períodos no tan dinámicos, que es lo que ocurre cuando los conceptos relevantes están más o menos fijados y el razonamiento por medio de ejemplos es empleado para clasificar los distintos elementos como cayendo dentro o fuera del concepto (Levi, 2013, p. 9). Esto ocurre antes de que el concepto se quiebre o sea re­ chazado debido a que obstruye una reclasificación de los casos. Por ejemplo, los casos relativos a la Ley de secretos comerciales o a la compensación de los trabajadores suponen el empleo de conceptos jurídicos bastante estáticos. (Sin embargo, un interesante trabajo de Edwina Rissland en el campo de IA & Derecho modela y monitorea el cambio conceptual, tal como se expone en la Sección 7.9.4).

Más allá de las limitaciones y simplificaciones, los desarrolladores tra­ tan de asegurar que los modelos resultantes todavía sean lo suficientemente complejos como para realizar algunas tareas útiles. El énfasis ha sido puesto en la tarea de modelar el rol que los casos desempeñan como ejemplares de conceptos, así como en los valores normativos que informan las determina­ ciones de similitud y diferencia.

3.3.1. Prototipos y deformaciones El programa Taxman II de Thorne McCarty modeló argumentos sobre la base de analogías con casos anteriores. Los conceptos jurídicos en Taxman II fueron representados intensionalmente y complementados extensionalmente mediante una técnica denominada “prototipos y deformaciones”.

136-

El modelaje del razonamiento jurídico basado en casos

McCarty representó tres componentes de los conceptos jurídicos: “(1) un componente invariante (opcional) para proporcionar las condiciones necesarias; (2) un conjunto de ejemplares para proporcionar las condiciones suficientes; y (3) un conjunto de transformaciones para expresar las diversas relaciones existentes entre los ejemplares”. Él se refirió a los ejemplares como prototipos: los precedentes judiciales y los casos hipotéticos que pudieran actuar como ejemplos positivos y negativos del concepto jurídico cuyo sig­ nificado estuviera en discusión. Las transformaciones fueron deformaciones, mapeos que permitían una comparación de los prototipos en términos de sus conceptos constitutivos (McCarty, 1995, p. 277; además, véase McCarty y Sridharan, 1981). En la jerga de Levi, por caso, “inminentemente peligroso” podría pensarse como un concepto prototípico. Los grupos de casos deforman el concepto, haciéndolo “inherentemente” o “eminentemente” peligroso, pre­ servando así una cualidad del peligro, aunque alterándola parcialmente a tenor de las circunstancias específicas que se presentasen.

El ejemplo de Eisner vs. Macomber El programa se concentró en un escenario que estuvo en el corazón de un caso tratado por la Corte Suprema de los Estados Unidos, Eisner vs. Ma­ comber, 252 U. S. 189 (1920), relativo a si, bajo la Decimosexta Enmienda de la Constitución, un dividendo prorrateado en función de un desdoblamiento [sp/ít] accionario podía considerarse para los accionistas un ingreso imponible. De no ser así, la recaudación del impuesto sobre los ingresos caería fuera del poder del Congreso (McCarty, 1995). En el escenario planteado en Eisner, la Sra. Macomber poseía 2.200 acciones de Standard Oil. Cuando Standard Oil declaró un dividendo del 50%, ella recibió 1.100 acciones adicionales, una parte de las cuales representaron ganancias acumuladas para la compañía. Este y otros casos relacionados involucraron conceptos subsidiarios como “distribución”, “acciones”, “acciones comunes” y “acciones preferentes”. Para cada uno de estos conceptos, plantillas similares a reglas representaron los derechos y obligaciones asociadas con el concepto. Por ejemplo, los derechos de los titulares de intereses corporativos especificaban que los acreedores recibirían un monto fijo. Los accionistas preferentes recibirían un monto fijo por acción luego de los acreedores. Los tenedores de acciones comunes reci­ birían sólo una porción de lo que quedara luego de que los acreedores y los accionistas preferentes cobraran su parte.

-137

Kevin D. Ashley

Como insumo, Taxman II recibió una descripción de la situación fáctica, expresada no ya en lenguaje textual sino en términos de proposiciones lógicas que empleaban conceptos subsidiarios. Los “argumentos” (también dotados de forma preposicional) que el programa arrojó como resultado se pronunciaban acerca de si el dividendo era o no un ingreso, sobre la base de analogías con dos casos anteriores y con un ejemplo hipotético. En el momento en que se dio a conocer el fallo Macomber, estos casos reales e hipotéticos representaban tres prototipos disponibles, ejemplares positivos y negativos del ingreso imponible, el principal concepto jurídico que dio lugar a la disputa: 1.

El caso Lynch: La distribución del efectivo de una compañía se con­ sideró ingreso imponible para el accionista.

2. El caso Peabody: La distribución por parte de una compañía de las acciones de otra compañía entre los accionistas se consideró ingreso imponible. 3.

La Apreciación Hipotética: La apreciación del valor de acciones de una compañía en propiedad de los accionistas, sin cesión de partici­ paciones, fue concebida umversalmente como no gravable.

Las deformaciones incluyeron algunos mapeos incorporados, como la RatioDeAccionesConstante [ConstantStocldZatio], que comparó las ratios en propiedad de los accionistas antes y después de una distribución.

La argumentación como una construcción teórica McCarty caracterizó la argumentación jurídica sobre el significado de un concepto jurídico como un tipo de construcción teórica, lo cual se justifica de la siguiente manera. Un argumentador construye una teoría sobre cómo resolver un asunto a partir de alinear los hechos actuales con ejemplares prototípicos. McCarty se focalizó en los argumentos del contribuyente y del Servicio de Impuestos Internos, tal como se reflejaron en los argumentos sostenidos tanto por la mayoría como por la minoría disidente en el caso Macomber, y diseñó el programa para reconstruir los argumentos en virtud de una plantilla (o esquema). De acuerdo con la plantilla argumentativa: Contribuyente: define ingreso imponible de tal modo que se excluyan tanto los hechos de Eisner como cualquier prototipo negativo (la Apreciación Hipotética) de un ingreso imponible, pero se incluya cualquier prototipo positivo (Lynch y Peabody).

-138

El modelaje del razonamiento jurídico basado en casos

Servicio de Impuestos Internos: define ingreso imponible de tal modo que se incluyan tanto Eisner como cualquier prototipo posi­ tivo (Lynch y Peabody'), pero se excluya cualquier prototipo negativo de un ingreso imponible (la Apreciación Hipotética). Al obrar así, el programa efectivamente buscó una teoría que conectara el caso en ciernes con los prototipos que fueran favorables a una parte (el contribuyente o el Servicio de Impuestos Internos), excluyendo los prototipos desfavorables. Las deformaciones o mapeos a través de los casos proporcio­ naron el material en bruto para estas conexiones. Si un mapeo preserva algún concepto constitutivo entre las instancias positivas y el caso bajo análisis, entonces la propiedad invariante se transforma en la base de una teoría según la cual ellos deberían resolverse del mismo modo.

El programa utilizó estrategias argumentativas como buscar algún continuum que pudiera servir como una propiedad invariante a través de un problema y un caso prototípico favorable. Al conectar los hechos de Eisner y la Apreciación Hipotética no imponible, el programa encontró una invariante semejante por vía del mapeo incorporado de la RatioDeAccionesConstante: antes y luego de la “distribución”, el contribuyente retuvo la misma participa­ ción porcentual en las acciones de la compañía. Luego del dividendo, la Sra. Macomber se quedó con 3.300 de 750.000 acciones de la compañía, la misma ratio aplicada anteriormente (2.200/500.000). Fue como si no se hubiera producido transferencia alguna. Si el programa no pudiera encontrar una propiedad invariante, buscaría un espacio de opciones para construir una, por ejemplo, mediante la selección y aplicación de mapeos elementales que fueran capaces de construir propieda­ des invariantes más complejas. Al intentar encontrar conexiones conceptuales entre prototipos, el programa razona sobre el significado de sus componentes constitutivos.

Da la sensación de que esto se parece al razonamiento argumentativo que realizan los seres humanos. En su voto en disidencia, el juez Brandéis propuso un continuum que conectara las distribuciones de capital, deuda y efectivo para apoyar su argumento de que la distribución era un ingreso imponible: todas las distribuciones de efectivo, bonos, acciones preferentes y acciones comunes le otorgan al tenedor una expectativa de retorno sobre las ganancias de la compañía. Ellas sólo difieren en el monto al que asciende el retorno y en el riesgo que se corre. Si una distribución semejante conlleva un ingreso imponible, entonces todas lo hacen.

-139-

Kevin D. Ashley

El programa examinó los conceptos constitutivos de los prototipos y apa­ rentemente descubrió, o construyó, el mismo continuum que va del prototipo de distribución gravable del efectivo de una compañía presente en Lynch hasta llegar a un escenario en el que se distribuyen tanto las deudas de una compañía como sus acciones preferentes y sus acciones comunes (i.e., Eisner). Cada uno le otorga al tenedor alguna compensación entre el rendimiento esperado de las ganancias corporativas y el riesgo.

La utilidad de los prototipos y las deformaciones para la computación cognitiva

Desde un punto de vista jurídico, el modelo de argumentar con concep­ tos y casos que ofrece Taxman II es tan sofisticado como realista. El modelo puso el foco en la argumentación jurídica como construyendo una teoría que alineara los casos seleccionados en términos de un concepto. Muchos abogados, jueces y funcionarios judiciales se valen de los sistemas de recuperación de información jurídica para construir argumentos como estos. El desafío para la computación cognitiva es cómo diseñar programas computacionales que puedan asistir a los usuarios en la construcción de esos argumentos mediante la formulación de teorías, vinculándolas con ejemplos de casos positivos aná­ logos y distinguiéndolos de instancias negativas. Por otro lado, como una fuente de herramientas computacionales para alcanzar esta meta, el enfoque de McCarty en Taxman II puede ser demasia­ do complejo para prestar ayuda. Buscar a través de conceptos subsidiarios definidos intensionalmente y de mapeos a fin de descubrir invariantes es un asunto intrincado, cuya robustez todavía debe ser demostrada en ámbitos en donde lo que se juega sea algo más que el significado de una expresión como “ingreso imponible”. De hecho, el modelo fue implementado tan sólo para un argumento de la Corte Suprema.

3.3.2. Dimensiones y factores jurídicos Las dimensiones y los factores jurídicos conforman técnicas de represen­ tación cognoscitiva diseñadas para permitir que se comparen casos similares, que se formulen analogías a partir de instancias de casos positivos y que se distingan los casos negativos. Ellos proporcionan un esquema más simple y más extensivo para representar casos y conceptos jurídicos que el ofrecido por Taxman II, lo que facilitaría su conexión con los textos casuísticos a los fines de la computación cognitiva. -140-

El modelaje del razonamiento jurídico basado en casos

Las dimensiones de Hypo

Tal como son introducidos por el programa Hypo, “los factores (jurí­ dicos) son un tipo de conocimiento experto sobre las colecciones de hechos comúnmente observadas que tienden a fortalecer o debilitar el argumento de un demandante a favor de una pretensión jurídica” (Ashley, 1990, p. 27). “Én Hypo, los factores (jurídicos) son representados con Dimensiones. Una Dimensión es un marco general para registrar información que el programa pueda manipular” (Ashley, 1990, p. 28; además, véase Ashley, 1991).

Como cuestión terminológica, nótese que la palabra “factor” posee dos significados: (1) Por un lado, escrito en minúsculas, significa un factor jurídico, el fenómeno que representa a una dimensión, a saber: un patrón estereotipado de hechos que tiende a fortalecer o debilitar el argumento de un demandante a favor de una pretensión jurídica. (2) Por otro lado, como veremos, el programa CATO introdujo el término Factores con la letra inicial en mayúscula, para hacer referencia a una técnica de representación cognoscitiva que simplificaba las dimensiones. Al igual que las dimensiones, los Factores representan a los factores jurídicos.

Hypo lidió con un reclamo legal sobre apropiación indebida de secretos comerciales, es decir, un caso en el cual el demandante le reclama al demandado la obtención de una ventaja competitiva injusta, posibilitada por la utilización de información confidencial sobre el producto del demandante. El concepto jurídico implicado en el caso fue uno solo, relativo a si una situación de hecho constituía una instancia de la apropiación indebida de secretos comerciales. A los fines de modelar este concepto, el programa utilizó 13 factores jurídicos, representados por 13 dimensiones, las que se emplearon para indexar 30 casos de secretos comerciales.

Los factores jurídicos detrás de las 13 dimensiones fueron identificados en un número de fuentes que incluyen la Reformulación (Primera) de la Ley de Responsabilidad Extracontractual, en su sección 757, sobre la Responsabilidad por Divulgar o Utilizar el Secreto Comercial de Otro, que muchas jurisdicciones adoptaron como un enunciado autorizado sobre la ley de secretos comercia­ les. El comentario (b) identifica seis factores que los tribunales deben tomar en cuenta a la hora de determinar si la información es un secreto comercial. Otros factores jurídicos provinieron de opiniones sobre casos de secretos comerciales en los que los tribunales identifican fortalezas y debilidades fácticas particulares, así como de tratados y artículos académicos. Estas fuentes secundarias tienden a agrupar los casos en notas al pie que ilustran el efecto sobre los resultados de algunas fortalezas y debilidades particulares. También -141

Kevin D. Ashley

pueden listar contraejemplos en los que un tribunal alcance una conclusión con independencia de una fortaleza o debilidad particular.

Como lo ilustra la Figura 3.1, cada dimensión instanció una plantilla estructurada de información que definía los prerrequisitos para la aplicación del factor jurídico representado a un escenario factual. Puesto que un caso puede ofrecer un ejemplo más o menos extremo de un factor jurídico, cada dimensión especificó una ranura focal cuyo valor en un caso podía variar a lo ancho de un rango capaz de representar para el demandante una magnitud de mayor o menor fortaleza. Por ejemplo, el valor de la ranura focal relativa a la dimensión Secretos-Divulgados-Extraños representó el número de divulga­ ciones a extraños que se dieron en un caso. El valor de la ranura focal relativa a la dimensión Ventaja-Competitiva capturó tanto la cantidad de tiempo de desarrollo como el costo que se ahorró por acceder a la información del de­ mandante. Los casos pueden compararse en términos de sus magnitudes a lo largo de una dimensión, es decir, en términos de sus valores de ranura focal. En la figura, el caso Datos-Generales es ciertamente destacable, con divulga­ ciones a 6.000 extraños. La magnitud de un factor jurídico, tal como aparece representada por el valor de la ranura focal de una dimensión, debe ser distinguido de su peso. “El peso de un factor (jurídico) equivale a algún tipo de medida del apoyo que presta a una conclusión de que el demandante ganará una demanda”. Hypo no representó el peso de un factor jurídico cuantitativamente. En su lugar, Hypo intentó expresar los pesos de los factores jurídicos por medio de argumentos sobre escenarios específicos. Una razón para no representar el peso de un factor jurídico numérica­ mente es que tales pesos son sensibles al contexto, tal como lo ilustran tres casos indexados a lo largo de la dimensión Secretos-Divulgados-Extraños. Los casos Crown y Midland-Ross, ambos favorables a los demandados, se sitúan en el extremo izquierdo de la dimensión; incluso unas pocas divulgaciones a extraños pueden debilitar la pretensión del demandante. Por otro lado, el demandante obtuvo un resultado favorable en el caso Datos-Generales más allá de que las divulgaciones hayan ascendido a miles. Claramente, ese caso es inconsistente con el tenor de la dimensión. La dimensión indica que este caso favorable al demandante constituye una excepción o un contraejemplo por su posición, lejos del final del rango favorable al demandado. Otros factores jurídicos pueden contrarrestar o “pesar más que” el efecto de las divulgaciones. En Datos-Gene­ rales, las divulgaciones estuvieron sujetas a restricciones de confidencialidad, representadas en la dimensión Divulgaciones-Extraños-Restringidas.

-142-

El modelaje del razonamiento jurídico basado en casos

Reclama: Apropiación Indebida de Secretos Comerciales Prerrequisitos: Hay un demandante corporativo

Hay un demandado corporativo El demandante fabrica un producto El demandante y el defendido compiten El demandante posee información sobre el producto El demandante divulgó información a extraños

Prerrequisito de la Ranura Focal: El demandante divulgó información a extraños Ranura Focal: El conocimiento del Demandante sobre el Producto: Número de divulgaciones

Rango: De 0 a 10.000.000

Tipo de Comparación: Mayor que vs. Menor que

Dirección a Favor del Demandante: Menor que Crown 5

0

7

Middland-Ross 8

50

100

Data-General re

6000r

Figura 3.1. La dimensión Secretos-Divulgados-Extraños en Ashley (1990)

Aparte del hecho de que los pesos de los factores jurídicos son sensibles a los contextos particulares, Hypo no representó los pesos por otras dos razones. Primero, los jueces y los abogados no argumentan sobre el peso de los factores jurídicos en términos cuantitativos. Segundo, los expertos del ámbito jurídico no están de acuerdo sobre qué son los pesos, por lo que combinar numérica­ mente pesos positivos y negativos oscurece la necesidad de argumentar sobre la resolución de factores jurídicos en competencia. El Capítulo 4 presenta distintas formas de tratar los pesos de los factores jurídicos con propósitos predictivos.

La formulación de analogías y la distinción de casos en los argumentos de tres capas de Hypo Los insumos de Hypo consistieron en escenarios problemáticos ingresa­ dos en términos de un marco instanciado para representar hechos invocados en casos de secretos profesionales. El problema ingresado aparece referido como la situación fáctica actual. El resultado de Hypo fue un argumento en inglés de tres capas sobre por qué el reclamo de un demandante en torno a

-143-

Kevin D. Ashley

la apropiación indebida de un secreto comercial [no] debería ser exitoso. El argumento de tres capas comprendió: 1.

Un argumento que traza una analogía entre la situación fáctica actual y un caso favorable a un demandante.

2. Un argumento que, en nombre del demandado, distingue el caso citado de la situación fáctica actual y cita contraejemplos a su favor.

3. Una refutación que distingue los contraejemplos citados de la si­ tuación fáctica actual y, donde es posible, una hipótesis que sugiere aquellos hechos capaces de reforzar el argumento del demandante en la situación fáctica actual.

Hypo también formuló argumentos de tres capas similares en nombre del demandado. Trazar una analogía entre una situación fáctica actual y un caso citado significa establecer las similitudes jurídicamente relevantes que generan razones de por qué ambos deberían resolverse de la misma manera. En Hypo, esas simi­ litudes son representadas como dimensiones compartidas. Estas dimensiones representan factores jurídicos comunes a la situación fáctica actual y al caso citado. Si al menos una de estas dimensiones compartidas favorece a la parte que emplea el argumento, Hypo considera el hecho de que el caso citado fue resuelto a favor de esa parte como un fundamento potencial para un argumento que asigna el mismo resultado a la situación fáctica actual.

Distinguir un caso citado implica establecerlas diferencias jurídicamente relevantes entre la situación fáctica actual y el caso citado, es decir, ofrecer razo­ nes de por qué ambos deben ser resueltos de manera diferente. En Hypo, esas diferencias fueron representadas como ciertas dimensiones no compartidas: en un argumento a favor del demandante, como dimensiones en la situación fáctica actual, pero no en el caso citado, que favorecían al demandante, y como dimensiones en el caso citado, pero no en la situación fáctica actual, que fa­ vorecían al demandado. Estas dimensiones particulares no compartidas dan lugar a razones para resolver casos de manera diferente.

Los contraejemplos son casos que evidencian razones idénticas o similares a las que presenta el caso citado para resolver un asunto a favor de la parte que formula el argumento, pero en donde se obtuvo el resultado opuesto. Los contraejemplos constituyen buenos casos para que un adversario los cite como respuesta. Ilustremos los argumentos de Hipo con los hechos de un caso llamado Masón vs. jack Daniels Distillery, 518 So. 130 (Ala. Civ. App. 1987). En 1980,

-144-

El modelaje del razonamientojurídico basado en casos

Tony Masón, el dueño de un restaurante, desarrolló una receta para aliviar el dolor de garganta: el whiskey Jack Daniel’s, Triple Sec, una mezcla agridulce y 7-Up. Bajo el apodo de “Lynchburg Lemonade”, y sirviéndolo en jarras, él promocionó el trago para su restaurante, “Tony Mason’s Huntsville”, mediante la venta de remeras. Masón confesó la receta sólo a los camareros del restau­ rante y les dio instrucciones para que no revelaran la receta a nadie más. El trago sólo se mezclaba fuera de la vista de los clientes y llegó a representar aproximadamente un tercio de las ventas de bebidas alcohólicas del restau­ rante. Más allá de su enorme popularidad, ningún otro establecimiento había logrado duplicar el trago, aunque los expertos sostenían que esto era algo que fácilmente podía hacerse. En 1982, Randle, un representante de ventas de la Destilería Jack Daniel’s, visitó el restaurante de Masón y bebió el Lynchburg Lemonade. Masón le reveló a Randle una parte de la receta, según el propio Masón declaró, a cambio de la promesa de que Masón y su banda participarían en su promoción. Randle recordó haber tenido la impresión de que la receta de Masón era una “fórmula secreta”. Randle informó a sus superiores de la receta y de la popularidad del trago. Un año después, la Destilería empezó a utilizar la receta para promocionar el trago en una campaña nacional de ventas. Ma­ són no fue invitado a participar de la promoción ni tampoco recibió ninguna otra clase de compensación, por lo que decidió demandar a la destilería por apropiarse indebidamente de su receta secreta. Un abogado con algún conocimiento de la ley de secretos comerciales sería capaz de identificar en los hechos de Masón algunos factores jurídicos que favorecieran al demandante, así como otros que hicieran lo propio con el demandado. Masón adoptó algunas medidas de seguridad, las Medidas de Seguridad F6 (P)1. Masón era el único restaurante que preparaba el trago Ly­ nchburg Lemonade, Producto-Único F15 (P). El representante de ventas de la destilería sabía que la información proporcionada por Masón era confidencial, Sabía-Información-Confidencial (P). Por otro lado, Masón reveló la informa­ ción sobre la mezcla del trago en negociaciones con el agente de la destilería, Revelación-en-Negociaciones (D), y la receta puedo ser descubierta mediante una ingeniería inversa de la bebida, Información-Ingeniería-Inversa (D).*

El caso Masón fue presentado en Aleven (1997) como ejemplo para que lo analizara el programa CATO, que se comenta más adelante. CATO empleó 26 Factores, numerados del F1 al F27 (no hay F9). Para mayor comodidad, nos referiremos a los Factores (y a los factores legales correspondientes) por su número. Véase la Tabla 3.1 para consultar la lista completa. 145

Kevin D. Ashley

La Figura 3.2 muestra un ejemplo de un argumento de tres capas que Hypo pudo generar a favor del demandante en el caso Masón. Hypo trazaría una analogía entre Masón y el caso Yokana, favorable al demandado, luego respondería distinguiendo Yokana a favor del demandante y citando un con­ traejemplo (ganador) a favor del demandante, el caso American Precisión, para finalmente llegar a una refutación distinguiendo el contraejemplo en nombre del demandado. Una mirada sobre el modelo argumentativo de Hypo explicará cómo tales argumentos serían generados.

El modelo argumentativo de Hypo

La Figura 3.3 muestra la situación fáctica actual (i.e., el caso Masón), el caso Yokana que se resolvió a favor del demandado (D), el caso American Precisión que fue ganado por el demandante (P), los factores jurídicos que se aplican en cada caso y la superposición de factores jurídicos entre los casos. La intuición subyacente al modelo argumentativo de Hypo se plasma en el diagrama de Venn.

Como se ilustra en la Figura 3.3, la situación fáctica actual comparte el factor Fió, favorable al demandado, con el caso Yokana, igualmente favorable al demandado. En el modelo Hypo, esto conduce a un argumento acerca de que la situación fáctica actual es relevantemente similar a (i.e., comparte un factor jurídico citable con) Yokana y debería resolverse en el mismo sentido a favor del demandado (véase la parte de arriba de la Figura 3.2). El demandante Tony Masón, no obstante, pudo responder en un deter­ minado número de formas. Primero, él podría distinguir el caso Yokana, el cual posee un factor jurídico a favor del demandado, FIO, no compartido en la situación fáctica actual. En otras palabras, existe una razón para resolver Yokana a favor del demandado que no se aplica a la situación fáctica actual. De modo similar, la situación fáctica actual encierra factores jurídicos favorables al demandante, F6, F15 y F21, los cuales no están presentes en el caso Yokana. Esas son razones para resolver la situación fáctica actual a favor del demandante que no se aplican en el caso citado (véase la parte del medio de la Figura 3.2).

Segundo, Tony Masón pudo citar un precedente favorable: en el caso American Precisión, el demandante obtuvo una victoria en donde el factor F21 favorable al demandante se aplicó, tal como lo hizo en la situación fáctica actual.

Tercero, Masón pudo utilizar el caso American Precisión para imponerse sobre el argumento del demandado, fundado en Yokana. En American Preci­ sión, el demandante obtuvo una victoria con independencia de la aplicación -146

El modelaje del razonamiento jurídico basado en casos

del factor F16, favorable al demandado. La situación fáctica actual es incluso más analogable a American Precisión, pues ambas comparten un conjunto de factores, F16 y F21; Yokana y la situación fáctica actual comparten sólo un subconjunto de ese conjunto, a saber: F16. En otras palabras, American Pre­ cisión representa un contraejemplo vencedor de Yokana (véase la parte del medio de la Figura 3.2). => Punto para el Demandado como Lado-1: (trazar analogía con el caso)

DONDE: La información del producto del demandante podría ser aprendida recurriendo a la ingeniería inversa.

EL DEFENDIDO debería ganar su demanda por Apropiación Indebida de Secreto Comercial.

CITA: Middland Ross Corp. Vs. Yokana 293 F. 2d 411 (3d Cir. 1961).

Refutación para el Demandado como Lado-1: (distinguir contraejemplos / plantear casos hipotéticos (si los hubiera) para fortalecer / debilitar un argumento)

American Precisión es distinguible porque: en American Precisión, el anterior empleado del demandante le acercó al demandado información sobre el desarrollo del producto. No así en Masón. En Masón, el demandante divulgó información sobre su producto en negociaciones con el demandado. No así en American Precisión.

Figura 3.2. El argumento de tres capas de tipo Hypo relativo al caso Masón (véase Ashley, 1990).

Más específicamente, un contraejemplo es un caso cuyo resultado cons­ tituye lo opuesto del caso citado y que satisface una restricción adicional en el siguiente sentido. Si el conjunto de factores jurídicos que un caso citado

-147

Kevin D. Ashley

comparte con la situación táctica actual es un subconjunto del conjunto que el contraejemplo comparte con la situación táctica de hecho, el contraejemplo está mejor orientado que el caso citado y se lo llama un contraejemplo vencedor. Si el contraejemplo comparte el mismo conjunto de factores jurídicos con la situación táctica actual que comparte el caso citado, es un contraejemplo bien orientado. Si el contraejemplo comparte un factor jurídico con el caso citado y la situación táctica de hecho, pero la magnitud del factor jurídico (la magnitud de la dimensión correspondiente) es más poderosa para la parte favorecida en el caso citado, es un contraejemplo límite. Tiende a socavar una conclusión de que la dimensión favorece a esa parte.

Hypo pudo realizar todos estos argumentos. Este ejemplo no ilustra un contraejemplo límite, pero si el caso Masón hubiera implicado divulgaciones a extraños y el demandado hubiera confiado en Secretos-Divulgados-Extraños, el demandante podría haber citado el caso Data General, favorable al deman­ dante y en el que hubo 6.000 divulgaciones, como un contraejemplo límite. (Por supuesto, en la refutación, Hypo distinguiría el caso Data General, favorable al demandado, señalando que las divulgaciones a extraños se hallaban restringidas). CASO 16 Yokana (D)

F7 Herramientas-Invocadas (P)

FIO Secretos-Divulgados-Extraños (D)

F16 Información-Ingeniería-Inversa (D) CASO30 American Precisión (P)

F7 Herramientas-Invocadas (P) F16 Información-Ingeniería-Inversa (D)

F21 Conocía-Información-Confidencial (P) CASO Masón (¿?)

F1 Divulgación-en-Negociaciones (D) F6 Medidas-de-Seguridad (P) F15 Producto-Único (P) P = Demandante D = Demandado

Fió Información-Ingeniería-Inversa (D) F21 Conocía-Información-Confidencial (P)

Figura 3.3. El modelo argumentativo de Hypo plasmado en un diagrama de Venn (Ashley, 1990).

-148

El modelaje del razonamientojurídico basado en casos

La recuperación y ordenación de casos en Hypo Dada una situación de hecho como elemento de entrada, Hypo recuperó todos los casos de su base de datos que compartían una dimensión con la situa­ ción fáctica actual. Luego ordenó los casos en función de las superposiciones de los conjuntos de factores jurídicos (como los representaron las dimensiones) que los casos compartían con la situación fáctica actual. Hypo organizó los casos en una estructura gráfica llamada celosía de reclamo [claim lattice], por la inclusividad de los conjuntos de dimensiones que ellos compartían con el problema. La Figura 3.4 muestra la celosía de reclamo que Hypo pudo construir para la situación fáctica actual en Masón. La situación fáctica actual está en la raíz. Cada uno de los descendientes inmediatos de la situación fáctica actual comparte algún subconjunto de sus dimensiones aplicables. Cada uno de sus descendientes comparte algún subconjunto de sus conjuntos de dimensiones compartidas con la situación fáctica actual, y así sucesivamente. Nótese en la celosía de reclamo que American Precisión está más cerca de la situación fáctica actual que Yokana en lo que respecta a cómo refleja la relación del contrae­ jemplo vencedor ilustrada en las Figuras 3.2 y 3.3.

El modelo Hypo ilustra una manera de comparar computacionalmente la similitud y relevancia de los casos. Hypo no compara casos en función del número de dimensiones compartidas con la situación fáctica actual. En su lugar, los compara en función de la inclusividad de los conjuntos de dimensiones que cada caso comparte con la situación fáctica actual. En otras palabras, Hypo compara los conjuntos de factores jurídicos que cada caso comparte con la situación fáctica actual y determina si el conjunto de un caso representa el subconjunto del conjunto de otro caso. En la figura 3.4, por ejemplo, el caso Digital Development comparte cuatro dimensiones con la situación fáctica actual, comparada con las dos de American Precisión, pero eso no le otorga una mejor orientación. Además, puesto que el conjunto de dimensiones que American Precisión compartió con la situación fáctica actual no es un subcon­ junto del conjunto de Digital Development, los dos casos no son comparables de acuerdo al modelo Hypo.

La tarea de comparar conjuntos de dimensiones tiene sentido desde el punto de vista jurídico, pues se aproxima bastante a la tarea de comparar cuánto se acerca un caso a cubrir las fortalezas y debilidades jurídicas en una situación fáctica actual. Comparar casos en función del número de dimen­ siones compartidas ignora las diferencias semánticas existentes entre los factores jurídicos.

14-9-

Kevin D. Ashley

Dos programas ampliaron el modelo Hypo. CABARET aplicó di­ mensiones al razonamiento con reglas legislativas y CATO implemento plantillas argumentativas novedosas para resaltar dimensiones o restarles importancia.

Figura 3.4. Una celosía de reclamo Hypo (Ashley, 1990)

Las dimensiones de los predicados de las reglas legislativas en CABARET CABARET, un primer sucesor de Hypo, trabajó con un dominio legisla­ tivo, particularmente una disposición del Internal Revemie Code (IRC) de los 150-

El modelaje del razonamiento jurídico basado en casos

Estados Unidos que regula la deducción del impuesto sobre la renta cuando se trabaja desde el hogar o se hace home office (Rissland y Skalak, 1991). Utilizó dimensiones para representar patrones de hechos estereotipados que fortale­ cieran o debilitaran una pretensión de que el predicado contenido en una regla legislativa era satisfecho (digamos, el “lugar de trabajo principal” aludido en la disposición del CÓDIGO). CABARET integró dos modelos, uno basado en reglas y otro basado en casos. El modelo basado en reglas representó las normas jurídicas acudiendo a las disposiciones relevantes del IRC y a sus conceptos jurídicos intermedios [intermedíate legal concepts] (ILC). Dado un escenario problemático, el modelo basado en reglas razonó hacia delante desde los hechos hasta confirmar los objetivos y razonó hacia atrás desde los objetivos deseados hasta los hechos que debían ser mostrados.

Las reglas fueron similares a las aplicadas en el programa Waterman (Sección 1.3.1), aunque con una importante diferencia. Cuando las reglas “se acabaron” (i.e., ninguna regla posterior definió un término legislativo), el programa pudo recurrir á un razonamiento basado en casos como el de Hypo. Las dimensiones en CABARET estuvieron asociadas con factores jurídicos tendientes a fortalecer o debilitar un argumento acerca de si un término legislativo era satisfecho. Estas dimensiones indexaron los casos en los que los tribunales sostuvieron que los términos legislativos se satisfacían o no se satisfacían.

Dado un escenario problemático y un término legislativo, el modelo de razonamiento basado en casos determinó qué dimensiones eran aplica­ bles, recuperó los casos indexados por esas dimensiones y generó celosías de reclamos para el término legislativo sujeto a argumentación, como se ilustra en la Figura 3.4. La celosía de reclamo organizó casos anteriores relevantes para ese término legislativo, de acuerdo a la relevancia medible por el modelo Hypo.

CABARET integró ambos modelos computacionales por medio de un mecanismo de agenda: un algoritmo que pudo razonar sobre el estado actual del análisis y considerar como apropiado ya sea al modelo de razonamiento basado en reglas (MRR), ya sea al modelo de razonamiento basado en casos (MRC). El mecanismo de agenda utilizó un conjunto de reglas heurísticas para razonar sobre el estado actual del análisis. Los ejemplos de la heurística de control incluyeron: •

Intentar otro: Si MRC falla, entonces cambiar a MRR (y viceversa).

-151-

Kevin D. Ashley



Prueba de cordura: Evaluar la conclusión de MRR con MRC (y vice­ versa).



MRR próximo a fallar: Si todos los antecedentes de una regla han sido establecidos excepto uno, usar MRC para ampliar la aplicación de la regla con respecto al antecedente faltante. Por ejemplo, usar MRC para mostrar que hay casos en donde la conclusión fue verdadera, pero en donde la regla no se disparó debido al antecedente faltante.



Igualar conceptos legislativos: Encontrar casos que salieron perde­ dores o ganadores tomando como referencia los mismos conceptos legislativos.

1. El contribuyente debe mostrar que la oficina doméstica [home office] es el principal lugar de trabajo (p-l-t): Realizar Análisis Dimensional de tipo Hypo en casos indexados bajo el concepto p-p-b. Concluir que se satisfizo.

2. Aplicar la regla de control heurístico: “Prueba-de-cordura-MRC-porMRR”:

Encadenamiento hacia atrás en la regla p-p-b: Si el contribuyente declaró “desempeñar sus responsabilidades principales en su oficina doméstica [home office]” y obtuvo “ingresos desde su oficina doméstica” y existe evidencia relacionada con el tiempo en que el contribuyente permaneció en su oficina doméstica, entonces la oficina doméstica del contribuyente es su “principal lugar de trabajo”. 3. La regla p-l-t está próxima a fallar: Todos los antecedentes se satisfacen, excepto uno: si él declara “desempeñar sus responsabilidades principales en su oficina doméstica”.

4. La regla de control heurístico concuerda: Si MRR está próximo a fallar,

152-

El modelaje del razonamiento jurídico basado en casos

entonces usar MRC para ampliar la regla mediante el hallazgo de casos similares en donde el antecedente sea verdadero. 5. Recuperar casos similares a favor del contribuyente: Un caso en donde se satisfaga el requisito de que “las responsabilidades principales se desempeñen en la oficina doméstica”: el caso Drucker.

6. Generar un argumento que trace una analogía entre Drucker y el problema en Weissman: “Para trazar una analogía entre Drucker y Weissman, considerar los siguientes factores que ellos tienen en común: había evidencia sobre la frecuencia con que el contribuyente utilizaba su oficina doméstica, la oficina doméstica era necesaria para que el contribuyente desempeñara sus deberes”.

Figura 3.5. Ejemplo de un proceso CABARET para analizar Weissman vs. IRS, 751 F. 2d 512 (2d Cir. 1984) (Risslandy Skalak, 1991)

La Figura 3.5 muestra extractos del análisis de un caso real llevado a cabo por CABARET, precisamente Weissman vs. IRS, relativo a si la oficina doméstica (dos cuartos y un baño) de un profesor de filosofía del City College de New York (CCNY) calificaba para úna deducción impositiva bajo la sección 280A del IRC. El profesor Weissman sólo pasó el 20% de su tiempo en la oficina de la CCNY, debido a que no era seguro dejar allí sus materiales y su equipamiento. La IRS pusto en entredicho su deducción impositiva de 1.540 dólares sobre el alquiler y las expensas debido a que, entre otras cosas, no se habría tratado de su “principal lugar de trabajo” (p-l-t). Dirigido por la heurística de control, el análisis de CABARET comienza con un análisis dimensional basado en casos que exhibe precisamente aquellos casos mejor orientados para beneficiar al contribuyente. Luego, la heurística de control conduce a una prueba de cordura mediante un análisis basado en reglas, en donde el programa identifica que la regla que permite concluir que la oficina doméstica era su “principal lugar de trabajo” (p-l-t) era prácticamente aplicable: todos sus antecedentes se satisfacían, con la sola excepción de uno: si el contribuyente cumple con “su responsabilidad principal en la oficina do­ méstica”. Nuevamente, una regla de control cambia a MRC, encontrando un caso en donde el antecedente faltante es satisfecho, el caso Drucker, sobre el que se traza una analogía con la situación fáctica actual. CABARET demostró que las dimensiones que representan los factores jurídicos fueron técnicas útiles para modelar un dominio más allá de la ley de secretos comerciales, mostró cómo utilizar dimensiones para representar los factores jurídicos en un dominio legislativo y aplicó la dimensión y un enfoque

153

Kevin D. Ashley

basado en factores jurídicos para razonar sobre los conceptos contenidos en las normas jurídicas.

Los factores en CATO CATO, el segundo sucesor de Hypo, simplificó la representación di­ mensional mediante Factores (Aleven, 2003). Como Hypo, CATO lidió con la apropiación indebida de secretos comerciales en términos de factores legales, pero lo hizo sin utilizar dimensiones para representarlos.

En su lugar, reemplazó cada dimensión con un correspondiente Factor binario. Un Factor se aplica a un escenario o simplemente no se aplica. No emplea magnitudes o rangos, ni tampoco lleva asociados prerrequisitos para evaluar si un Factor se aplicó. CATO empleó una lista más completa de Facto> res, mostrada en la Tabla 3.1, y modeló cómo minimizar o enfatizar un Factor diferenciado (Aleven, 1997). CATO empleó sus Factores mejorados en un entorno instructivo computarizado para ayudar a los estudiantes a aprender las habilidades de la argumentación basada en casos, como por ejemplo la habilidad de distinguir. Como se explica en el Capítulo 4, también utilizó Factores para predecir los resultados de los casos (Aleven, 2003).

Cato aplicó una jerarquía de factores cuyos extractos se ilustran en la Figura 3.6, un esquema cognoscitivo para representar las razones de por qué la presencia de un Factor fue jurídicamente importante (Aleven, 2003, Fig. 3, p. 192). Las razones de la jerarquía de factores explicaron por qué un Factor fortaleció (o debilitó) un reclamo sobre secretos comerciales.

Utilizando estas razones, CATO pudo generar nuevos tipos de argumen­ tos jurídicos minimizando o enfatizando distinciones, una tarea que Hypo no pudo completar. Pudo organizar un argumento que se refiriera a múltiples casos por tema, agrupando juntos aquellos casos que compartían temas comunes con la situación fáctica actual si ellas no compartían los mismos Factores. En este sentido, CATO pudo trazar analogías en un nivel de abstracción más elevado. Cato también pudo minimizar o enfatizar distinciones. Como se ilustra en la Figura 3.7, si una parte cita en su argumento un determinado Factor diferenciado en la situación fáctica actual, el programa podría minimizarla mediante el señalamiento de otro Factor en el caso citado que importe por la misma razón. Alternativamente, el programa podría enfatizar la distinción caracterizando la diferencia entre casos de manera más abstracta, basado en otros Factores con raíces comunes en la jerarquía de factores.

-154-

El modelaje del razonamiento jurídico basado en casos

Los algoritmos de Aleven para minimizar o enfatizar interactuaron con la información sobre los Factores representados en la jerarquía de factores. Dada una distinción basada en un Factor entre la situación fáctica actual y un caso citado, Aleven atravesó los nodos de la jerarquía de factores hacia arriba desde el Factor diferenciado a fin de identificar una abstracción focal que pudiera ser usada para trazar un paralelismo abstracto entre casos y también fuera útil para identificar Factores en el otro caso que pudieran socavar la importancia de la distinción. Otro algoritmo pudo enfatizar la distinción encontrando una abstracción focal en la jerarquía de factores para contrastar abstractamente los dos casos. Propició tanto la tarea de identificar Factores confirmatorios adicionales en un caso como la de contrastar Factores en el otro caso, con los cuales afianzar la importancia de la distinción (Aleven, 2003, pp. 202-8). Aleven evaluó CATO de dos maneras. Primero, midió su eficacia para enseñar a los estudiantes herramientas básicas para argumentar jurídicamente sobre la base de casos, comparándola con la eficacia obtenida en esta misma tarea por un instructor humano con experiencia. Segundo, evaluó el modelo argumentativo en términos de su éxito para predecir resultados de casos, tal como se discute en el Capítulo 4. Tabla 3.1. Factores de secretos comerciales (Aleven, 1997) Factor

Significado

Razón de ser

F1 Divulgación-ennegociaciones (D)

P divulgó información sobre su producto en negociaciones con D.

P renunció a su propiedad.

D le pagó al anterior empleado de P para cambiar de empleo, aparentemente en un intento de inducir al empleado a brindar información sobre P.

D obtuvo la propiedad de P a través de medios inapropiados.

F2 Empleadosobornado (P)

F3 Empleado-únicodesarrollador (D)

El empleado D fue el único desarrollador del producto de P.

F4 Acordó-no-divulgar (P)

D pactó un acuerdo de confidencialidad con P.

F5 Acuerdo-noespecífico (D)

El acuerdo de confidencialidad no especificó qué información iba a considerarse confidencial. P adoptó medidas de seguridad.

-155-

D debería tener derechos de propiedad sobre su invento. P adopta medidas razonables para proteger su propiedad. P no especificó sobre qué reclama un interés de propiedad legítimo.

Kevin D. Ashley

F6 Medidas-deseguridad (P)

El anterior empleado de P le brindó a D información sobre el desarrollo del producto.

P adopta medidas razonables para proteger su propiedad.

F7 Trajo-herramientas (P)

El acceso de D a la información del producto de P le ahorró tiempo o dinero.

D roba la propiedad de P.

F8 Ventaja-competitiva (P)

FIO Secretosdivulgados-extraños (D)

Fll Conocimientovertical (D)

P divulgó información del producto a extraños.

La información de P es sobre clientes y proveedores (lo que significa que podría estar dis­ ponible independientemente, ya sea por medio de clientes o inc­ luso en los directorios).

Las divulgaciones de P a ex­ F12 Divulgaciones-ex­ traños estuvieron sujetas a re­ traños-restringidas (P) stricciones de confidencialidad.

El secreto comercial de P es propiedad valiosa. P renunció a su propiedad. P no puede tener un in­ terés de propiedad legíti­ mo sobre la información comercial de su cliente.

P y D pactaron un acuerdo de no F13 Acuerdo-no-com- competencia. P protege su propiedad. petencia (P)

D utilizó materiales que estu­ P protegió su propiedad vieron sujetos a restricciones de en contra de la utilización confidencialidad. de información confiden­ F14 Materiales-usaP fue el único fabricante del pro ­ cial por parte de su anteri­ dos-restringidos (P) ducto. or empleado. La información del producto de D utilizó la propiedad de P F15 Producto-único (P) P pudo ser obtenida por medio con independencia de las de ingeniería inversa. protecciones de P. F16 Información-inge- D desarrollo su producto medi­ El secreto comercial de P niería-inversa (D) ante una investigación indepen­ es propiedad valiosa. diente. El interés de propiedad legítimo de P se halla tem­ poralmente limitado.

-156-

El modelaje del razonamientojurídico basado en casos

D copió la propiedad de P El producto de D fue idéntico al bajo secreto comercial. P no protegió su propie­ F17 Información-gen- producto de P. erada-independiente- P no adoptó ninguna medida de dad. mente (D) seguridad. La información de P era conoci­ P no puede tener un in­ terés de propiedad legíti­ F18 Productos-idénticos da por los competidores. mo en algo conocido. (P) D conocía que P adujo un interés de propiedad legí­ F19 Sin-medidas-de-se- D conocía que la información de timo. guridad (D) P era confidencial, D utilizó técnicas invasiv­ D utilizó técnicas invasivas para as para robar la propiedad tener acceso a la información de de P. P. F27 DivulP no tiene un interés de gación-en-foro-público P pactó un acuerdo de renuncia a propiedad legítimo en la la confidencialidad. (D) información que D generó La información pudo ser obteni­ independientemente. da de recursos públicamente di­ P no reclamó un interés de F20 Información-conosponibles. cida-por-competidores propiedad legítimo sobre su secreto comercial. (D) D descubrió información de P F21 Conocía-infor­ P no puede tener un in­ mación-confidencial (P) por medio de la ingeniería in­ terés de propiedad legí­ versa. timo en algo que está F22 Técnicas-invasivas disponible en fuentes D obtuvo información de P me ­ (P) públicas. diante engaño.

P divulgó su información en un El interés de propiedad F23 Renuncia-a-confilegítimo de P se halla tem­ foro público. dencialidad (D) poralmente limitado. P fue engañado sobre su propiedad.

F24 Información-obtenible-otro-lado (D) F25 Información-ingeniería-inversa (D)

P renunció a su interés de propiedad legítimo sobre su secreto comercial.

F26 Engaño (P)

-157

Kevin D. Ashley

Linea débil

Figura 3.6. La jerarquía de factores de CATO (Aleven, 1997,2003)

Argumentos sobre el significado de la distinción F16 => El argumento del demandante minimizando la distinción F16 en Masón. En Masón, la información del producto del demandante pudo ser obtenida mediante ingeniería inversa [F16]. Esto no fue así en Bryce. Sin embargo, esta no es una distinción significativa. En Bryce, el demandante divulgó información sobre su producto en negociaciones con el demandado [Fl], aunque el demandante ganó. En ambos casos, por ende, el demandado ob­ tuvo o pudo haber obtenido su información mediante medios legítimos [F120]. Pero el demandante todavía podría ganar.

p

2. Factores a favor del demandado => no (p) Aquí p representa la decisión de que gane el demandante. La primera regla establece que el demandante gana cuando todos los Factores que lo favo­ recen en el caso están presentes. La segunda regla establece que el demandante pierde cuando se dan todos los Factores del caso que favorecen al demandado. Además, el precedente establece una relación preferencial o de priori­ dad entre dos reglas. Si el demandante realmente ganara el caso, entonces la primera regla tendría prioridad sobre la segunda; si el demandante ganara, entonces la segunda regla tendría prioridad sobre la primera. Este enfoque se transformó en la piedra basal de muchos desarrollos sucesivos en modelos lógicos de argumentos jurídicos basados en casos.

En particular, Bench-Capon y Sartor (2003) lo refinaron y lo adaptaron para su modelo de construcción de teorías basadas en valores. Ellos repre­ sentaron los casos como conjuntos de Factores, como en CATO, aunque los Factores se interpretaran como reglas con la forma “si el Factor es aplicable, entonces decídase a favor de la parte favorecida por el Factor”. Estas reglas son derrotables: “Cuando llegamos a aplicarlas, típicamente encontraremos reglas en conflicto que señalan decisiones diferentes, por lo que necesitamos un instrumento para resolver esos conflictos” (Bench-Camp y Sartor, 2003).

Los conflictos entre reglas son resueltos mediante la asignación de prioridades a las reglas relacionadas con los Factores. Cada Factor va asociado con un valor subyacente. A medida que los casos se resuelven, sus resultados dan lugar a más reglas que asignan prioridades a conjuntos de Factores y de valores, prioridades que desactivan futuros conflictos.

La Figura 3.13 presenta un ejemplo ilustrativo de esto en el contexto de los derechos de propiedad que se plantean en los casos sobre animales salvajes. En la parte de arriba de la figura hay tres valores: Menos litigios (Llit), Mayor productividad (Mprod) y Disfrute de los derechos de propiedad (Prop), además de cuatro Factores. Cada Factor favorece a una parte, el demandante (P) o el demandado (D), dando lugar a reglas derrotables que incluyen las tres reglas mostradas en la figura. Además, cada Factor es funcional a uno de los valores subyacentes, tal como se muestra. Finalmente, el resultado del caso Keeble da lugar a la regla preferencial mostrada en la figura: “si pLiv, entonces P > si pNposs, entonces D”, lo que significa que la primera regla tiene prelación sobre la segunda.

170-

El modelaje del razonamiento jurídico basado en casos

3. 5.1. La teleología en la construcción de teorías Supongamos que la meta fuera formular un argumento a favor del deman­ dado en el caso Young, como se muestra en la situación fáctica actual exhibida en la figura, basada en los precedentes de Pierson y Keeble. En Bench-Capon y Sartor (2003), la formulación de un argumento sobre la base de casos aparece modelado “como un proceso tendiente a la construc­ ción y utilización de una teoría”. En este sentido, el trabajo resulta consistente con el enfoque de Thorne McCarty analizado en la Sección 3.3.1. Las teorías que aparecen en el enfoque de Bench-Capon y Sartor están construidas sobre la base de casos o precedentes, los que son representados como conjuntos de Factores a los que han sido asociados ciertos valores, y como reglas inferenciales que los operacionalizan como precedentes. En el modelo de Bench-Capon y Sartor, la teoría no está construida sobre la base de mapeos invariables entre casos sino sobre la base de reglas que de­ finen preferencias o prelaciones entre los Factores en competencia y entre los valores en competencia asociados. Como se detalla en la Figura 3.13, construir un argumento supone completar la teoría por medio de la incorporación de reglas (indicadas en la figura mediante la inscripción “ADD:”). Por ejemplo, quien argumenta incorpora una regla: “si pNposs, dLiv, entonces D”; justifica la nueva regla con una regla preferencial adicional: “ADD: si pNposs, dLiv, enton­ ces D > si pLiv, entonces P”; y justifica esa regla preferencial incorporando un valor preferencial: “ADD: Mprod, Llit > Mprod”. Esta nueva regla final significa que los valores asociados a una mayor productividad y a una menor cantidad de litigios pesan más que el valor de una mayor productividad. Los autores definen diversos constructores de teorías, cuya función consiste en construir explicaciones de resoluciones judiciales existentes o deseadas. Los constructores de teorías realizan las incorporaciones que se ilustran en la Figura 3.13. Los constructores incluyen: Incluir-caso de la base de casos, Incluir-factor, Fusionar-factores, Ampliación-de-la-regla, Preferencias-desde-el-caso, Preferencia-reglamentaria-desde-preferencia-valorativa, Preferencia-reglamentaria-arbitraria y Preferencia-valorativa-arbitraria.

Los autores sintetizan la versión completa de la teoría de la Figura 3.13 de la siguiente manera: “Ahora, luego de fusionar las reglas primitivas para pNpos y dLiv, de introducir la preferencia valorativa [Mprod, Llit > Mprod] y de utilizarla para derivar la regla preferencial [si pNposs, dLiv, entonces D > si pLiv, entonces P], se obtiene una explicación de Young... De acuerdo [a la teoría], Young debe resolverse a favor de D, ya que allí la regla [si pNposs, dLiv,

-171-

Kevin D. Ashley

entonces D] no es derrotada. De acuerdo a Berman y Haffner, 1993, esta parece ser la teoría utilizada por los jueces en Young” (Bench-Capon y Sartor, 2003). Valores: Llit (Menos litigios) Mprod (Mayor productividad)

Prop (Disfrute de derechos de propiedad) Factores: pNposs, D, Llit (p no estaba en posesión del animal, favorece a D b/c Llit) pLiv, P, Mprod (p procuraba su subsistencia, favorece a P b/c Mprod) pLand, P, Prop (p estaba en su propio campo, a favor de P b/c Prop) dLiv, D, Mprod (d procuraba su subsistencia, a favor de D) Situación fáctica actual: Young: pLiv, pNposs, dLiv; META = D

Casos: Pierson: pLiv; D Keeble: pLiv, pNposs, pLand; P Reglas: si pNposs, entonces D si pLiv, entonces P si dLiv, entonces D ADD: si pNposs, dLiv, entonces D Prelación entre reglas: si pLiv, entonces P > si pNposs, entonces D ADD: si pNposs, dLiv, entonces D > si pLiv, entonces P

Prelación entre valores: Mprod > Llit ADD: Mprod, Lit > Mprod

Figura 3.13. Una teoría construida a partir de factores y preferencias valorativas (BenchCapon y Sartor, 2013).

Dejando de lado por un momento la rareza de esta teoría jurídica y de los argumentos en los que se apoya, el ejemplo de la Figura 3.13 y su resumen transmiten una intuición sobre cómo funciona este tipo de construcción de teorías basadas en valores. Al momento de construir una teoría, el modelo toma en cuenta ciertos valores y aplica la teoría para formular argumentos jurídicos y predecir los resultados de nuevos casos. Como se sugiere en la Figura 3.14, los resultados de los casos anteriores revelan las prelaciones entre los conjuntos de Factores que se presentan en esos casos. Esas prelaciones entre conjuntos de Factores, a su vez, revelan prelaciones entre conjuntos de valores asociados a los Factores. Las reglas preferenciales asociadas promueven y degradan ciertos conjuntos de valores, organizando los valores en un orden abstracto que es determinado por los casos anteriores. Cuando un nuevo caso debe resolverse, 172-

El modeiaje del razonamientojurídico basado en casos

dados sus Factores, los constructores de la teoría formulan una explicación que, luego de completarse, puede predecir y explicar el resultado de un caso de una manera que resulta consistente con los casos hasta la fecha.

Figura 3.14. El argumento como una construcción teórica a partir de prelaciones entre fac­ tores y valores (véase Bench-Capon y Sartor, 2003).

¿Cómo razonan con valores los operadores jurídicos? Dejando de lado estas fortalezas, por un número de razones el modelo de razonamiento jurídico con valores de Bench-Capon y Sartor (2003) no resuelve los problemas planteados por Berman y Hafner. Primero, resulta incompleto. Hay algunos huecos que deben llenarse. Con respecto al ejemplo de la Figura 3.13, los autores advierten: “Esta explicación descansa en la introducción de una preferencia o prelación que es arbitraria, en el sentido de que no encuentra respaldo en los precedentes” (i.e., Mprod, Llit > Mprod). Los autores consideran “incorporar un constructor teórico que permita introducir preferencias o prelaciones para cualquier conjunto de valores más allá de sus propios subconjuntos”, pero admiten que esto podría demandar un mayor refinamiento.

Segundo, el modelo de Bench-Capon y Sartor (2003) produce múltiples teorías alternativas. La muestra ilustrada en la Figura 3.13 tan sólo es una ver­ sión de lo que los constructores teóricos pueden generar a partir de ciertos insumos. Esto significa que deberían evaluarse las alternativas en competencia.

173

Kevin D. Ashley

Las teorías pueden compararse en términos de consistencia, poder explicativo, coherencia y simplicidad. La consistencia y el poder explicativo pueden medirse, por ejemplo, en función del número de casos explicados por la teoría. En lo que respecta a la implementación computacional, no obstante, la coherencia y la simplicidad no se entienden muy bien y plantean problemas sobre cómo tornarlas operativas (pero véase la Sección 4.6). Tercero, no es claro si el tipo de teoría generada por el modelo de Bench-Capon y Sartor (2003) que se ilustra en la Figura 3.13 tendría sentido para los jueces, o si los jueces tomarían decisiones mediante la aplicación de una teoría semejante. Evaluar el resultado propuesto para un problema determinado en términos valorativos supone adoptar una verdadera decisión ética. Un juez debe considerar de qué modo los valores se aplican a los hechos particulares del problema. Parece extraño sugerir que los jueces determinen las preferen­ cias o prelaciones entre los conjuntos de valores en competencia fijados en casos anteriores, para que los apliquen a nuevos casos. Es más probable que los jueces consideren de qué modo los valores se aplican en las circunstancias particulares del problema y resuelvan de manera acorde cualquier conflicto.

Dada la utilización que el modelo de Bench-Capon y Sartor (2003) realiza de las reglas preferenciales basadas en los precedentes para factores y valores en competencia, el modelo no parece abordar los efectos contextúales sobre esas preferencias. Incluso si un juez decidiera emplear las preferencias valorativas de casos anteriores como una guía, él/ella todavía necesitaría comparar detalladamente el problema con los casos. Un juez querría asegurarse de que la aplicación de una preferencia valorativa resulta apropiada en las nuevas circunstancias fácticas. El enfoque de McCarty tampoco dio cuenta de cómo los jueces emplean valores al momento de razonar sobre la aplicación de un concepto, o de cómo los valores se enlazan dentro de una teoría sobre el caso. Incluso si el programa pudiera hallar, descubrir o utilizar invariantes que vincularan los casos con teorías, el programa no parece saber por qué, desde un punto de vista legal, la invariante resulta importante para responder la pregunta de si la distribución debería considerarse un ingreso imponible. La propiedad proporcional de la Sra. Macomber permanece constante, ¿mas puede el programa explicar por qué eso resulta jurídicamente significativo para la cuestión? ¿O puede saber por qué la analogía a través de diferentes tipos de distribuciones corporativas, todas las cuales incluyen algún tipo de equilibrio o correlación entre riesgo y beneficio, da lugar a una razón jurídica para tratarlas como ingreso imponible? No parece que Taxman II conozca o pueda manipular esa clase de razones.

-174-

El modelaje del razonamientojurídico basado en casos

Integrar de manera realista las consideraciones teleológicas en un modelo de razonamiento jurídico constituye un desafío para todos los modelos RBC. No obstante, antes de que uno pueda abordar este desafío adecuadamente, se necesita una mayor comprensión de cómo los operadores jurídicos toman en cuenta los valores y los principios cuando intentan resolver problemas legales. Aunque a menudo se oyen ciertas cosas sobre la teoría que sostiene un abogado a raíz de un caso, no resulta tan claro en qué consiste una teoría semejante ni tampoco de qué manera podría ser representada por una estructura compu­ tadle de datos.

Volveremos sobre estas consideraciones en el Capítulo 5, dedicado al modelaje de argumentos jurídicos.

3.6.

LIMITACIONES DE DISEÑO PARA LA COMPUTACIÓN COGNITIVA CON MODELOS DE RAZONAMIENTO JURÍDICO BASADOS EN CASOS

Los anteriores ejemplos revelan algunas limitaciones de diseño que son relevantes para la computación cognitiva.

Primero, modelar un razonamiento con reglas y conceptos jurídicos supone modelar argumentos a favor y en contra de aplicar una norma a una situación fáctica.

Segundo, al momento de modelar argumentos sobre si el concepto de una norma jurídica se aplica a un conjunto de hechos, los casos juegan un rol significativo. Los argumentos se concentran en similitudes y diferencias rele­ vantes entre los casos y la situación fáctica.

Tercero, las consideraciones teleológicas que incluyen los propósitos y valores subyacentes a las normas juegan un rol a la hora de definir similitudes y diferencias jurídicamente relevantes entre los casos. Cuarto, para que sea una herramienta útil, evaluar computacionalmente la similitud entre casos conlleva definir un criterio de similitud jurídica que los programas realmente puedan computar. Los modelos computacionales de razonamiento jurídico sobre conceptos legales que se han presentado aquí definen criterios para medir la similitud entre casos y modelos argumentativos que probablemente sean útiles para recuperar casos que ayuden a solucionar problemas, así como para iluminar de qué modo han sido empleados los casos en el pasado. Hasta cierto punto (más bien limitado), estos criterios toman en cuenta los propósitos y valores subyacentes para evaluar la similitud.

-175-

Kevin D. Ashley

Quinto, la utilidad que los modelos basados en casos revisten para la computación cognitiva depende de modo crucial de la medida en que sus técnicas de representación cognoscitiva puedan conectar directamente con los textos de los casos que empleen las técnicas de la Parte II. En este sentido, los modelos difieren.

Aparte de la importancia que posee alinear instancias positivas y ne­ gativas de un concepto para sustanciar una teoría sobre lo que el concepto significa, el modelo de prototipos y deformaciones no ha producido herramien­ tas para representar casos o computar similitudes en un campo más amplio de dominios y casos legales. Como se ilustra en Taxman II, los argumentos basados en casos pueden ser bastante complejos desde el punto de vista con­ ceptual, pero actualmente no es posible identificar automáticamente aquellas características de los casos que sólo son indirectamente referenciadas en sus textos o inferidas de los mismos. Es probable que las técnicas de Hypo, CATO y CABARET sean útiles para la computación cognitiva. Estas incluyen dimensiones y Factores, preci­ samente las técnicas de Hypo y CATO para comparar la similitud entre casos en términos de conjuntos de factores jurídicos compartidos con el problema y para generar argumentos basados en estas evaluaciones de similitud. También incluyen las técnicas de CABARET para razonar con conceptos normativos y las técnicas de CATO para predecir los resultados de un caso (y las de IBP, tal como se verá en el Capítulo 4).

Factores como los de CATO pueden ser identificados automáticamente en los textos con algún grado de éxito. Véase en ese sentido el programa IBP +SMILE que se discute en el Capítulo 10. Como se verá en el Capítulo 9, algún progreso se ha logrado en lo que respecta a extraer información funcional asociada a las normas jurídicas, lo que puede ser de ayuda para identificar automáticamente los prerrequisitos de las dimensiones. Sin embargo, la ave­ riguación de si se puede extraer información funcional detallada que vaya asociada con la representación dimensional de un factor jurídico, como el valor o magnitud de su ranura focal en un caso, todavía constituye una pre­ gunta abierta.

Los EBE de GREBE serían sumamente útiles para asistir a los seres hu­ manos que deban resolver problemas en computación cognitiva, tanto como lo sería la indexación de casos como ejemplos positivos/negativos de los con­ ceptos jurídicos que GREBE propicia. Sin embargo, para que sea útil para la computación cognitiva, las explicaciones y los hechos, incluyendo los hechos criteriales, deberían extraerse directamente de los textos.

-176-

El modelaje del razonamiento jurídico basado en casos

Tanto las técnicas de mapeo estructural como la medida de relevancia computacional de GREBE poseen una limitación: ellas asumen que los hechos son descriptos de manera similar entre los casos. Por ejemplo, dirigirse a casa para transmitirle un mensaje a nuestro cónyuge, conseguir agua helada para una tripulación o trasladarse a un restaurante para comer son todas actividades que, de no realizarse, bien podrían afectar negativamente el cumplimiento de una tarea laboral. No obstante, para que GREBE pueda mapear exitosamente estos hechos y sus relaciones entre los diferentes casos, ellos deberían poder expresarse en el lenguaje de representación de casos (no-textual) del programa de una manera que sea estructural y semánticamente compatible. De no ser así, el mapeo estructural de un caso a otro no funcionará. Esto puede que no sea un problema en donde una persona que sea sen­ sible a esta limitación, como Branting, por ejemplo, esté representando un número de casos relativamente pequeño en un dominio jurídico. Sin embargo, asegurar la consistencia de la representación será un problema mayor cuando sean muchos quienes ingresen los casos y se incremente por esto mismo el número de casos y dominios legales.

Branting utilizó algunas técnicas para evaluar la necesidad de consisten­ cia en la representación de casos. GREBE utilizó una estrategia de mejora de emparejamiento parcial a fin de relajar las limitaciones del mapeo estructural, para que los hechos criteriales que no sean idénticos, pero sí semánticamente similares, puedan emparejarse (Branting, 1991, 818).

Un programa posterior llamado SIROCCO registra y reutiliza conexio­ nes formuladas por expertos entre los principios normativos abstractos y las narrativas de los hechos y eventos casuísticos en el dominio de la ética de la ingeniería profesional. Su diseñador, Bruce McLaren, introdujo un algoritmo de emparejamiento inexacto, un vocabulario controlado para representar los casos y una herramienta de entrada de casos basada en la Web, dotada de ejemplos y una guía de usuario para ayudar a alcanzar la consistencia en la representación del caso. Como resultado, SIROCCO fue de gran ayuda para realizar un mapeo estructural entre una gama realmente amplia de casos sobre ética ingenieril (McLaren, 2003).

No obstante, en qué medida las nuevas herramientas de El pueden ex­ traer EBE de los textos constituye una pregunta empírica. Presumiblemente, la necesidad de realizar mapeos estructurales entre explicaciones empleadas en diferentes EBE, así como la importancia concedida a la consistencia en la representación entre casos, exacerba las dificultades de extraer explicaciones detalladas e intrincadas de los textos legales. Como se discute en el Capítulo 10,

-177

Kevin D. Ashley

la extracción de información argumentativa de los textos es una tarea viable, incluyendo información sobre los roles que desempeñan en los argumentos de los jueces los enunciados sobre los diversos requisitos legislativos. Dicha información es significativamente más tosca que las explicaciones detalladas de los jueces sobre qué hechos son criteriales para cada requisito legislativo. Volveremos sobre este problema en el Capítulo 12.

Extraer información referida a las discusiones que entablan los jueces sobre los propósitos y valores que subyacen a las normas también presenta desafíos. En la medida en que los valores vayan asociados apriori con Factores y normas, los Factores y las normas extraídas respaldarán la conclusión de que los valores se aplican. En la medida en que los jueces razonen sobre los valores subyacentes a las normas mediante la formulación de hipótesis tentativas, estos valores también podrían extraerse. Pero es probable que sea muy difícil para un programa extraer y entender otros aspectos de lo que los jueces dicen cuando consideran valores subyacentes, a menos que ellos sean realmente explícitos sobre lo que quieren decir.

-178-

4 Modelos para la predicción de resultados jurídicos

4.1. INTRODUCCIÓN

ediante el empleo de una base de datos compuesta por casos, repre­ sentados por conjuntos de características y resultados, los programas de computación pueden predecir los resultados de nuevos proble­ mas. Usualmente lo hacen por medio de modelos de razonamiento basados en casos (RBC) o de algoritmos de aprendizaje automático (AA) [machine learning-ML], a veces combinando los dos. Este capítulo será una explicación y una ilustración de ambos.

M

Las técnicas predictivas utilizan diferentes tipos de características repre­ sentadas en casos anteriores, las que pueden estar vinculadas con los nombres de los jueces que deben dictar sentencias en diferentes tipos de casos, con los estudios jurídicos que litigan en los mismos, con la información actitudinal sobre los jueces, con las tendencias históricas que se verifican en los fallos, o con los patrones fácticos estereotipados que fortalecen una demanda o una defensa, es decir, con los factores jurídicos. Estas características pueden dife­ rir, dependiendo de si capturan información sobre los méritos de un caso. Los nombres de los jueces, los nombres de los estudios jurídicos y los tipos de casos, es decir, si están referidos a un problema de patente o a uno de responsabilidad por el producto, por ejemplo, no capturan información alguna sobre los mé­ ritos jurídicos de una determinada disputa. En cambio, los factores jurídicos, tal como se ha visto en el Capítulo 3, sí capturan una considerable cantidad de información sobre dichos méritos. Todas estas características también difieren en virtud de la facilidad con que pueden ser extraídas automáticamente de los

-179

Kevin D. Ashley

textos casuísticos. Los nombres de los jueces y de los estudios jurídicos son fáciles de extraer; los factores jurídicos también pueden extraerse, pero ello es mucho más difícil. Este libro se concentra en las características que tienden a capturar algu­ na información sobre los méritos de un caso y cuya extracción automática de los textos casuísticos es por lo demás factible. Este capítulo explora métodos alternativos para utilizar esas características en la predicción de resultados jurídicos. Las técnicas de aprendizaje automático o machine learning utilizan estadísticamente información sobre la frecuencia de las características para “aprender” la correspondencia entre las características definitorias de los casos y los resultados relevantes. Las técnicas basadas en casos se concentran más en la comparación de casos y la explicación de predicciones. Ellas realizan predicciones basadas en las fortalezas de los argumentos jurídicos en compe­ tencia. Las técnicas varían en función de los modos en que pueden explicar sus predicciones, así como en función de la medida en que sus representaciones alcanzan a resultar compatibles con la computación cognitiva.

Las preguntas que este capítulo aborda incluyen las siguientes: ¿Cómo es posible que los programas computacionales predigan resultados jurídicos? ¿Qué es el aprendizaje automático (AA) o machine learning [ML]? ¿Qué son el AA supervisado y los árboles de decisiones? ¿Qué ventajas ofrecen los bosques aleatorios de árboles de decisión [randomforests of decisión trees]? ¿Cómo una aproximación a la predicción por medio de un razonamiento basado en casos (RBC) difiere del AA? ¿Los operadores jurídicos aceptarán las predicciones sin explicaciones? ¿Cómo un programa puede formular y evaluar una hipótesis predictiva? ¿Acaso es posible que los programas predictivos sean evaluados empíricamente?

4.2. UN ENFOQUE VECINO MÁS CERCANO A LA PREDICCIÓN JURÍDICA AUTOMATIZADA Predecir las decisiones de los tribunales ha sido durante mucho tiempo uno de los fines de las investigaciones en IA & Derecho. Ya en 1974, un programa computacional predijo los resultados de algunos casos en materia impositiva referidos a un problema particular sobre gravá­ menes en ganancias de capital (Mackaay y Robillard, 1974, p. 302). Para ese entonces ya existía una considerable cantidad de literatura sobre predicción

-180-

Modelos para la predicción de resultadosjurídicos

jurídica. El asunto impositivo estuvo referido a si, bajo la legislación impositiva de Canadá, una ganancia debía considerarse una ganancia de capital o un in­ greso ordinario, es decir, a si la ganancia representaba “una mera valorización de un activo, o ... era parte de una operación comercial llevada a cabo en un esquema de obtención de beneficios”.

Las predicciones se basaron en 64 casos canadienses sobre impuestos a las ganancias de capital que habían sido representados por medio de 46 carac­ terísticas binarias (i.e., verdaderas o falsas). Cada característica involucraba hechos que los comentaristas en estudios previos habían identificado como relevantes para llegar a decisiones sobre ese asunto (Mackaay y Robillard, 1974). Estas características incluían, por ejemplo, que “el particular fuera una compañía”, que el “particular nunca haya intervenido en transacciones inmo­ biliarias”, que, “al momento de efectivizarse la compra, el particular tuviera otra intención que revender con beneficios”, y que “la transacción presente fuera una transacción aislada” (Mackaay y Robillard, 1974, p. 327f).

El insumo introducido en el programa consistió en una lista de los valores manualmente asignados a un nuevo caso. El programa formula una predicción basándose en los casos existentes “más cercanos” por medio de una represen­ tación bidimensional del nuevo caso en relación con el caso existente (véase la Figura 4.1). (En realidad, esta fue una proyección de hasta dos dimensiones a partir de una representación espacial de los vectores multidimensionales de los casos con una dimensión para cada una de las 46 características. Las re­ presentaciones espaciales de vectores serán introducidas en la Sección 7.5.2). Para el programa MacKaay, los autores utilizaron el algoritmo k-Nearest-Neighbor (de vecino más cercano k) o algoritmo k-NN, que compara un problema con los casos para fundamentar una predicción sobre aquellos casos que guardan una mayor similitud. Básicamente, lo que se hace es medir la simi­ litud o disimilitud entre los hechos de los casos en función de alguna métrica. Luego, se predice que un nuevo caso tendrá el mismo resultado que sus vecinos más cercanos. La métrica, una distancia Hamming, suma el número de variables para las que dos casos tienen diferentes valores (véase Mackaay y Robillard, 1974, p. 307). Los autores emplearon el escalamiento multidimensional para proyectar 60 de los casos en dos dimensiones, como se muestra en la Figura 4.1. En la figura, el foco está puesto en las posiciones relativas de los puntos. La distancia física entre cualquier par de puntos representa la disimilitud entre los casos correspondientes.

El caso “nuevo” con un resultado desconocido (círculo blanco) se localiza entre sus vecinos más cercanos k = 5 (círculo gris). El algoritmo k-NN predice

181-

Kevin D. Ashley

casos “contrarios” o desfavorables, el mismo resultado relativo a tres de los cinco vecinos más cercanos. Utilizar esa proyección con propósitos predictivos es una tarea que genera mayores equívocos. Por lo pronto, el nuevo caso está más cerca de un caso contrario, pero aparece en el borde de una región de casos favorables. Fácilmente uno puede imaginar un contraargumento que establezca que el caso contrario cercano se trata de una excepción o de un error, y que el resultado del nuevo caso debería ser “favorable”.

Figura 4.1. Proyección de casos de impuestos a las ganancias de capital en dos dimensiones (véase Mackaay y Robillard, 1974).

4.3. UNA INTRODUCCIÓN AL APRENDIZAJE AUTOMÁTICO SUPERVISADO

Otro enfoque de IA & Derecho a la predicción, AA, emplea algoritmos que aprenden de los datos y utilizan lo que han aprendido para realizar pre­ dicciones (véase Kohavi y Provost, 1998; Bishop, 2006). Ellos emplean medios estadísticos para inducir un modelo predictivo (o función) de un conjunto de datos que pueden utilizarse para predecir el resultado para un nuevo caso.

Un tipo de AA que ha sido aplicado para predecir resultados jurídicos es el AA supervisado. Dado que involucra inferir un modelo clasificatorio (o función) de datos de entrenamiento etiquetados, el AA se denomina supervi­ sado (véase Mohri et al., 2012).

182-

Modelos para la predicción de resultadosjurídicos

Los datos de entrenamiento incluyen un conjunto de ejemplos que llevan asignados resultados. Cada ejemplo es un par que consiste en un objeto intro­ ducido como insumo [input] (a menudo, un vector de valores) y un resultado [output] deseado. El algoritmo que aprende necesita formular generalizaciones sobre situaciones no observadas a partir de los datos de entrenamiento. El algoritmo aprendiz supervisado analiza los datos de entrenamiento e infiere una función o modelo, los que idealmente pueden ser usados para clasificar instancias nuevas y no observadas. Por ejemplo, el modelo podría encarnarse en pesos de características estadísticamente computadas o en un conjunto de reglas inducidas mecánicamente de los datos de entrenamiento. Dada una nueva instancia, el modelo es aplicado para predecir un resultado.

4.3.1. Los algoritmos de aprendizaje automático: los árboles de decisión Una variedad de algoritmos ha sido desarrollada para el aprendizaje supervisado, incluyendo los árboles de decisión, también conocidos como árboles clasificatorios (véase Quinlan, 1986). Para un clasificador dado y un conjunto de datos de entrenamiento, un árbol de decisión aprende un conjunto de preguntas para determinar si una nueva instancia constituye una instancia positiva del clasificador. Cada pregunta es una evaluación: si el peso de una característica particular no sobrepasa el valor de un umbral, se ramifica en un sentido; de otro modo, se ramifica en otro sentido.

El ejemplo de la Figura 4.2 ilustra cómo inducir un árbol para decidir si concederle a un acusado la libertad bajo fianza, a partir de un conjunto precedentes en los que se concedió la libertad bajo fianza. Las preguntas en este ejemplo sencillo reciben una respuesta binaria: sí o no; allí no se emplean umbrales. La regla se construye mediante el algoritmo C4.5, con el que se formula el árbol de decisión (Quinlan, 2004). El algoritmo elige un atributo para dividir las instancias de acuerdo al resultado de la pregunta relacionada, tal como “¿Hay drogas implicadas?”. En C0, el algoritmo elige ‘drogas = sí’, para así separar las instancias en {2/n, 4/n, 5/n, 6/n} en C1 y en {1/y, 3/y, 7/n} en C2. Dado que C2 posee instancias con resultados mixtos, se separa nuevamente; cuando la selección es ‘armas = no’, se produce {1/y} en C3 y {3/7, 7/n} en C4. Si la selección es ‘antecedentes = no’, C4 se divide a su vez en C5, con {3/y}, y C6, con {7/n}. El algoritmo se detiene cuando todas las Ci alcanzan el mismo resultado o cuando algún otro criterio detiene la búsqueda, como un límite de profundidad.

183-

Kevin D. Ashley

Los árboles de decisión hacen relativamente sencillo el trabajo humano de interpretar lo que el algoritmo C4.5 ha aprendido. Siguiendo la raíz del árbol de decisión resultante hasta llegar a cada hoja nodal, se genera un conjunto de reglas para predecir decisiones vinculadas con la libertad bajo fianza: SI drogas = sí, entonces fianza = no SI drogas = no Y armas = no, entonces fianza = sí SI drogas = no Y armas = sí Y antecedentes = no, entonces fianza = sí SI drogas = no Y armas = sí Y antecedentes = sí, entonces fianza= no (a) Caso

Daño

Drogas

Armas

Antecedentes

Resultado

1

Ninguno

No

No





2

Severo





Importantes

No

3

Ninguno

No



No



4

Severo

Si

No



No

5

Ligero







No

6

Ninguno





Importantes

No

7

Ninguno

No





No

(b)

Figura 4.2. Datos sobre decisiones sobre libertad bajo fianza (a) que sirven de base para la construcción de un árbol de decisiones (b).

-184-

Modelos para la predicción de resultadosjurídicos

Otros modelos de AA directamente inducen reglas que los seres humanos pueden inspeccionar y entender.

Por otro lado, dado que un algoritmo de A A aprende las reglas sobre la base de regularidades estadísticas que podrían sorprender a un ser humano, sus reglas no necesariamente pueden resultar razonables para todo el mundo. Las predicciones de AA se basan en datos. A veces, los datos contienen carac­ terísticas que, por razones espurias tales como la coincidencia o una selección sesgada, llegan a asociarse con resultados de casos en una colección particular. Aunque las reglas inducidas por computadora puedan conducir a predicciones exactas, ellas no se refieren a la experiencia humana y pueden no resultar tan inteligibles para los seres humanos como las reglas manualmente construidas por un experto. Puesto que las reglas que el algoritmo de AA infiere no nece­ sariamente reflejan un conocimiento o una experiencia jurídica explícita, bien puede ser el caso que ellas no se correspondan con los criterios de razonabilidad distintivos de un experto humano. Uno de los objetivos que se propone un algoritmo de árbol decisorio consiste en determinar las secuencias de preguntas más eficientes para dividir las instancias de entrenamiento en un conjunto de instancia positivas y en un conjunto de instancias negativas. Los criterios teoréticos de información permiten que el algoritmo elija las características capaces de dividir las ins­ tancias de la manera más eficiente. C4.5 utiliza los criterios para minimizar el número esperado de preguntas a ser formuladas. Para ello, ordena las preguntas y, donde ellas involucran cantidades, elije los umbrales más dis­ criminatorios que separan las instancias afirmativas (‘sí’) de las instancias negativas (‘no’).

4.4. PREDICIENDO LAS RESOLUCIONES DE LA CORTE SUPREMA Predecir la conducta de la Corte Suprema de los Estados Unidos ha sido especialmente valorado, no sólo en el campo de la Inteligencia Artificial y Derecho, sino también en la Ciencia Política.

En Katz et al. (2014), el objetivo consiste en aprender y construir una función predictiva capaz de evaluar un caso futuro y predecir su resultado, ya sea para confirmarlo o revocarlo. A fin de pronosticar las decisiones generales de la Corte, el sistema utiliza predicciones referidas a los votos individuales de sus miembros.

-185-

Kevin D. Ashley

Los insumos de los que se vale el sistema son casos de la Corte Su­ prema que se representan como características valorativas, las cuales se describirán más adelante. El sistema emite como resultado una clasifica­ ción binaria: ¿Un juez/toda la Corte confirmará o revocará el fallo de un tribunal inferior?

El enfoque apunta a imitar el modo en que un experto en la Corte Supre­ ma haría sus propias predicciones o pronósticos. Las predicciones del sistema están basadas en una matriz de datos observables anteriores contenidos en “La Base de Datos de la Corte Suprema” (Spaeth et al., 2013) y en fuentes relacio­ nadas. Cada predicción se basa en todas las decisiones anteriores relativas a ese juez, a la Corte y a los casos anteriores. Información del Caso Acción Administrativa [S]

Información sobre el Juez y losAntecedentes de la Corte

Caso Original [S]

Juez [S]

Jurisdicción del Caso Original [S]

Género del Juez [FE]

Fuente del Caso [S]

Presidente de la Corte [FE]

Jurisdicción de la Fuente del Caso [S]

Presidente del Partido [FE]

Tipo de Norma [S]

Corte Natural [S]

Dirección de la Disposición del Tribunal Inferior [S]

Puntajes de Segal Cover [SC]

Año de Nacimiento [FE]

Disposición del Tribunal Inferior [S]

Tendencias

Asunto [S]

Tendencias Generales Históricas de la Corte Suprema [FE]

Área del Asunto [S]

Actuación Jurisdiccional [S] Argumento del Mes [FE]

Decisión del Mes [FE] Demandante [S]

Demandante Desechado [FE] Demandado [S]

Tendencias de los Tribunales Inferiores [FE] Tendencias Actuales de la Corte Suprema [FE]

Miembro de la Corte Suprema [FE]

Diferencias de Tendencias [FE]

Demandado Desechado [FE] Razón Certificada [S]

Figura 4.3. Ejemplos de las características contenidas en la base de datos de la Corte Su­ prema [S], los puntajes de Segal-Cover [SC] y el diseño de características [FE] (Katz et al., 2014).

186

Modelos para la predicción de resultadosjurídicos

4.4.1. Las características para predecir las resoluciones de la Corte Suprema

La Base de Datos de la Corte Suprema registra las características de los casos, de los jueces y las tendencias en las que se basan las predicciones, tal como se resumen en la Figura 4.3 (Spaeth et al., 2013). La Información del Caso incluye referencias a la jurisdicción del caso original, al tipo de norma involucrada, al desacuerdo del tribunal inferior, al área del asunto en disputa y a la base jurisdiccional. La Información sobre el luez y los Antecedentes de la Corte incluye referencias a cada juez, al género de quien ejerce la presidencia y al partido político que lo nominó. Las Tendencias comprenden las tendencias actuales e históricas de la Corte Suprema, las tendencias de los tribunales infe­ riores, las tendencias de cada uno de los miembros de la Corte Suprema y las diferencias entre tales tendencias. Los autores en Katz et al. (2004) diseñaron algunas de las características a partir de otra información (referida como FE).

4.4.2. La aplicación del aprendizaje automático supervisado a los datos de SCOTUS Los investigadores aplicaron los métodos del aprendizaje automático supervisado a los datos de SCOTUS y, en particular, los Bosques Aleatorios de Árboles de Decisión [Random Forests of Decisión Trees-RFDT], una versión más sofisticado del enfoque del árbol de decisión único ilustrado en la Figura 4.2 (Katz et al., 2014, pp. 3-4).

RFTD reemplaza un árbol de decisión único con conjuntos o bosques aleatorios de árboles de decisión, para alcanzar una mayor diversidad en las fuentes predictivas. Los métodos para “formar conjuntos” generan un número de árboles diversos y promedian a través de un bosque entero. Los bosques aleatorios engendran árboles más pequeños y ayudan al modelo a evitar que sobreajuste los datos. El sobreajuste ocurre cuando un modelo de AA posee tantos términos adicionales que se ajusta a las variaciones aleatorias de los datos más que a los patrones reales (véase NIST/SEMATECH, 2016). En efecto, el modelo “memoriza” los datos de entrenamiento particulares en lugar de “aprender” una generalización de los mismos. Ese modelo fracasará cuando formule pre­ dicciones sobre datos nuevos, pues no ha aprendido a obtener de los datos de entrenamiento un clasificador general que pueda aplicarse a los nuevos datos.

Algunos modelos de AA son especialmente proclives a sobreajustar, incluyendo árboles de decisión, que casi siempre sobreajustan los datos. La -187-

Kevin D. Ashley

combinación de árboles más pequeños pertenecientes a un bosque aleatorio de árboles de decisión brinda una mejor protección en contra del sobreajuste que la brindada por un único árbol complejo.

Otras técnicas son aplicadas para reducir la variación de estimadores predictivos. La variación es una medida del grado de dispersión que las pre­ dicciones presentan con respecto al promedio. Por ejemplo, en los nodos de árboles de decisión extremadamente aleatorios (extremely randomized treesERT), las instancias positivas y negativas son separadas con la utilización de un subconjunto aleatorio de características candidatas. En lugar de seleccionar los umbrales más discriminatorios, los umbrales son obtenidos de manera aleatoria para cada característica. El mejor de estos umbrales es entonces seleccionado como la regla separadora (Katz et al., 2014, p. 5). En resumen, el método predictivo en Katz et al. (2014) funciona de la siguiente manera: dados los datos obtenidos hasta el último caso resuelto an­ tes del caso objetivo (el caso n - 1ro), el método aplica la última instanciación del conjunto ERT. Es decir, por cada juez, toma en cuenta el juez, el caso y las características generales del tribunal que ha de resolver el caso actual a través del conjunto de evaluaciones realizadas en el último conjunto de ERT, para luego formular una predicción por cada juez. Entonces, el algoritmo combina el conjunto de pronósticos sobre cada juez en una predicción sobre el caso acudiendo a la regla de la mayoría.

4.4.3. Una evaluación del método de aprendizaje automático Los programas de aprendizaje automático son evaluados empíricamente para determinar cuán bien se desempeñan a la hora de predecir resultados para nuevas instancias. Un procedimiento estándar para evaluar un programa de AA es una validación cruzada de pliegues k [k-fold cross validation] (Kohavi, 1995). Los datos son divididos en subconjuntos k o “pliegues”. En cada una de las rondas k, un subconjunto diferente de los subconjuntos k es reservado como el equipo de prueba. El modelo de AA es entrenado mediante el empleo de subconjuntos k -1. Los resultados son promediados sobre las rondas k, ob­ teniéndose una medida de la exactitud predictiva. Katz et al. (2014) emplearon 10 validaciones cruzadas de pliegues. En la validación cruzada de pliegues k, los equipos de entrenamiento y de prueba se hallan desconectados, y cada elemento perteneciente al conjunto de datos es utilizado sólo una vez como instancia de prueba. La puesta en marcha asegura que cuando un elemento es utilizado como una instancia de prueba, el

188-

Modelos para la predicción de resultadosjurídicos

clasificador haya sido reentrenado con un equipo de entrenamiento del cual ese elemento ha sido excluido.

4.4.4. Las medidas evaluativas del aprendizaje automático y los resultados El desempeño predictivo de los algoritmos de AA a menudo se mide en términos de su precisión, memoria, puntaje F1 y exactitud. Cada una de estas medidas puede definirse en función de los conceptos de instancias negativas y positivas verdaderas o falsas:

Negativas Verdaderas (NV): número total de casos negativos que fueron predichos como negativos. Positivas Verdaderas (PV): número total de casos positivos que fueron predichos como positivos.

Negativas Falsas (NF): número total de casos positivos que fueron pre­ dichos como negativos. Positivas Falsas (PF): número total de casos negativos que fueron pre­ dichos como positivos. Dados los conceptos de negativos y positivos verdaderos o falsos, las medidas evaluativas primarias del AA son definidas de la siguiente manera:

Exactitud (E): la proporción de predicciones de casos correctas sobre todas las predicciones de casos. (NV + PV) / (NV + PV + NF + PF) Precisión (P): la proporción del número de predicciones de casos positi­ vos que son correctas sobre el número total de predicciones de casos positivos. (PV) / (PV + PF)

Memoria (M): la proporción de predicciones de casos positivos que son correctas sobre el número de casos que fueron positivos. (PV) / (PV + NF) Puntaje F1 o medida Fl: la media armónica de precisión y memoria, en donde ambas medidas son tratadas como igualmente importantes. 2 * (P * M) / (P + M) En su evaluación, los modelos de AA de Katz et al. (2014., p. 10) pre­ dijeron con exactitud el 69,7% de los resultados de los casos y el 70,9% de los resultados sobre los jueces individuales durante un período de 60 años. Comparativamente, los expertos humanos en asuntos jurídicos predijeron con exactitud en un concurso el 59% de los resultados de los casos y el 67,9% de

-189

Kevin D. Ashiey

los votos de los jueces (Katz et al., 2014, p. 4). Mientras el nivel de desempeño del modelo no es considerablemente mejor que el alcanzado con anterioridad por otros modelos de AA, el modelo de Katz-Bommarito realiza predicciones exactas para cada uno de los nueve jueces en cualquier año del período con­ siderado y evita sobreajustar los datos. Es interesante que la mayoría de las características predictivas (el 72% del poder predictivo) comprenda tendencias conductuales, incluyendo las votaciones de varios jueces, así como diferencias en estas tendencias conduc­ tuales, particularmente diferencias sobre asuntos generales o específicos entre cada uno de los jueces y el balance de la Corte, y diferencias ideológicas entre la Corte Suprema y los tribunales inferiores. Las características predictivas menos influyentes incluyeron las características individuales de los casos (23% de poder predictivo) y la información de contexto sobre los jueces y la corte (4.4%) (Katz et al., 2014, p. 13).

4.5. LA PREDICCIÓN DE RESULTADOS MEDIANTE ARGUMENTOS BASADOS EN CASOS El enfoque de nearest-neighbor aplicado en el predictor impositivo so­ bre ganancias de capital es un tipo de RBC; compara casos en función de una medida de distancia, pero no genera explicaciones ni considera argumentos de dominio. En un enfoque RBC alternativo a la predicción de resultados de casos judiciales, la comparación de un caso actual con casos anteriores sugiere una hipótesis para predecir el mismo resultado que el de los casos más similares, en donde la predicción puede explicarse y justificarse mediante argumentos de dominio y puede evaluarse a la luz de las explicaciones.

4.5.1. La predicción mediante CATO Vincent Aleven introdujo la predicción basada en argumentos como una manera de evaluar su programa CATO (véase la Sección 3.3.2). “Cuán bien un programa predice el resultado de ciertos casos, basándose en sus argumentos o juicios sobre la relevancia... inspiraría la confianza de que los argumentos hechos por el programa son buenos argumentos que guardan alguna relación con la realidad del razonamiento jurídico” (Aleven, 2003, p. 212). El programa aplicó un algoritmo simple para predecir un resultado:

1.

Dado un problema, recuperar casos de acuerdo al criterio de rele­ vancia dado. -190-

Modelos para la predicción de resultadosjurídicos

2. Si hay casos relevantes, y todos tuvieron el mismo resultado, predecir que ese lado ganará; de otro modo, abstenerse.

CATO aplicó criterios de relevancia de diversos tipos. Su jerarquía fac­ torial y los argumentos que enfatizan o minimizan distinciones proveyeron nuevos criterios para seleccionar los mejores casos sobre los que fundar pre­ dicciones (Aleven, 2003, pp. 201, 203, 208). Aleven comparó siete criterios, incluyendo una línea de base de tipo Hypo (BUC) que funda la predicción en los mejores casos no explotados [best untrumped cases]. Estos son los casos citables más relevantes sin contraejemplos superadores. Tres criterios formularon predicciones basándose en ciertos casos citables o no explotados que no tienen distinciones del caso actual. Los tres criterios finales formularon predicciones basándose en esos casos que no tienen distinciones significativas del caso actual. En otras palabras, todos estos criterios predictivos involucraron variacio­ nes diferentes de los modelos Hypo/CATO de argumentos basados en casos. Los últimos tres criterios difieren del primero por emplear conocimiento representado en la jerarquía factorial de CATO a fin de determinar si las dis­ tinciones son significativas, es decir, si no pueden ser minimizadas.

En una evaluación con una base de datos de 184 casos sobre secretos comerciales, el método predictivo que mejor se desempeñó fue uno llamado NoSignDist/BUC: formuló predicciones basándose en aquellos casos citables, sin distinciones significativas, que fueran más relevantes y no explotados por casos citables sin distinciones significativas (Aleven, 2003, p. 214). Se abstuvo en el 11% de los casos, alcanzando sus predicciones un 88% de exactitud para los casos restantes. Su empleo del conocimiento representado en la jerarquía factorial para identificar distinciones significativas llevaron a una mejoría sobre la línea de base BUC de tipo Hypo que fue estadísticamente importante (Aleven, 2003, p. 150). Volveremos pronto más abajo a la evaluación de estos dos métodos predictivos.

4.5.2. La predicción basada en problemas El programa de predicción basada en problemas (Issue-based Prediction-IBP) aplicó un algoritmo para la evaluación de hipótesis que logró mejorar los resultados de las predicciones de CATO, al tiempo que empleó una repre­ sentación factorial de la ley de secretos comerciales (Ashley y Büninghaus, 2006). En lugar de la jerarquía factorial de CATO, IBP utilizó un modelo de dominio diferente de por qué los factores jurídicos importan: un gráfico de los

-191

Kevin D. Ashley

problemas jurídicos sobre secretos comerciales que producía una interconexión gráfica de los factores. El modelo de dominio de IBP, mostrado en la Figura 4.4, identifica los requisitos lógicos de una demanda sobre la apropiación indebida de un secreto comercial en términos de la conjunción de dos problemas de mayor nivel (Información-Secreto-Comercial y Apropiación-Indebida-de-Información). Cada uno de estos problemas involucra subproblemas en nodos de hojas, dos para Información-Secreto-Comercial (Información-Valiosa y Mantenimiento-de-Secreto) y tres para Apropiación-Indebida-de-Información: Información-Utilizada, Información-Confidencial o Medios-Impropios. Apropiación-Indebida-SecretosComerciales

Información-Secretos-Comerciales

F7 Trajo-Herramientas (P> F8 Ventaja-Competitiva (P) F14 Matenales-Utilizados-Restringidos (P) F17 Información-Generadaíndependientemente (D) F18 Productos-idénticos (P) F25 Información-lngeniería-lnversa (D)

F4 Acuerdo-No-Divdgación (P) F6 Medidas-de-Segundad (P) F10 Secretos-DivdgadosExtraños (D) F12 Divulgaciones-ExtrañosRestringidas (P) F19 Sin-Medidas-de-Segundad (O)

F2 Empleado-Sobornado (P) F7 Trajo-Herramientas (P) F14 Materiales-Utilizados-Restringidos (?) F17 Información-GeneradaIndependientemen'e (D) F22 Técnicas-Invasivas (P) F25 Información-lngenieda-lnversa (D) F26 Engaño (P)

F1 Divulgación-En-Negociaciones (O) F4 Acuerdo-No-Divulgactón {Pj F13 Acuerdo-No-Competencia (P) F21 Conocla-lnformactónConfidencial (Pj F23 Renuncia-Confidencialidad (D)

Figura 4.4. El modelo de dominio IBP (Ashley y Brüninghaus, 2006) El modelo IBP está basado en, y constituye una representación de, las reglas provistas por la sección 757 de la Reformulación (Primera) de la Ley de Responsabilidad Extracontractual y la Legislación y por la Ley Uniforme de Secretos Comerciales, que en parte establecen:

Por “secreto comercial” se entiende aquella información... que:

-192

Modelos para la predicción de resultadosjurídicos

(i) obtiene valor económico independiente... del hecho de no ser gene­ ralmente conocida, y de no ser fácilmente determinadle por medios apropiados... y (ii) es el objeto de esfuerzos que, bajo las circunstancias, es razonable mantener en secreto. Alguien que revela o utiliza el secreto comercial de otra persona sin contar con un privilegio para hacerlo responde ante esa persona si:

(a) descubrió el secreto empleando medios impropios, (b) su revelación o utilización constituye un abuso de confianza. Cada subproblema correspondiente a una hoja nodal constituye un concepto jurídico intermedio, un término jurídico de textura abierta. En el modelo IBP, cada uno de estos subproblemas está relacionado con un conjunto de factores jurídicos que están semánticamente relacionados con ese problema y que pueden favorecer ya sea al demandante (P) o al demandado (D). Como ocurre en CATO (y en Hypo), estos factores indexan casos en la base de datos que son ejemplos de la aplicación de los factores. Insumo: Situación fáctica actual (s/a) A. Identificar problemas planteados por Factores sfa B. Para cada problema planteado, determinar la parte favorecida por ese problema: 1. Si todos los Factores relacionados con el problema favorecen a la misma parte, entonces volver a esa parte

2. De otro modo, recuperar los casos relacionados con el problema en los que se apliquen todos los Factores relacionados con el problema

a. Si hay casos relacionados con el problema, entonces llevar a cabo la Prueba-Teórica: formular la hipótesis de que ganará la misma parte s que ganó la mayoría de los casos i) Si todos los casos relacionados con el problema favorecen a la parte s, entonces volver a la parte s, ii) De otro modo, intentar explicar las excepciones que contengan resultados contrarios a la hipótesis

a) Si todas las excepciones pueden explicarse, entonces volver a la parte s favorecida por la hipótesis

b) De otro modo, volver a “abstenerse” b. Si no se encuentran casos relacionados con el problema, entonces plantéese Ampliar-Consulta: i) Si la consulta puede ser ampliada, entonces plantéese Prueba-Teórica para cada conjunto de casos recuperados.

-193-

Kevin D. Ashley

ii) De otro modo, volver a “abstenerse”

C. Combinar predicción para cada problema. Resultado: Resultado predicho para sfa y explicación

Figura 4.5. Algoritmo IBP (Ashley y Büninghaus, 2009)

4.5.3. El algoritmo de predicción IBP El insumo de IBP es una situación fáctica actual representada como un conjunto de Factores CATO que se aplican a los hechos de la situación fáctica actual. El algoritmo IBP procede tal como lo muestra la Figura 4.5. IBP iden­ tifica los problemas aplicables en la situación fáctica actual, basándose en los Factores introducidos como insumos y en los problemas asociados en el modelo de dominio. Para cada problema aplicable, determina la parte favorecida (el demandante o el demandado en una demanda por violación de secreto comer­ cial). Si todos los Factores relacionados con el problema favorecen a la misma parte, vuelve a esa parte según sea su predicción para ese problema. De otro modo, intenta recuperar los casos en la base de datos indexados por todos los Factores relacionados con ese problema. Si encuentra esos casos, determina cuál es la parte favorecida por la mayoría de los casos, plantea la hipótesis de que la parte mayoritaria debería ganar e intenta “explicar” cualquiera de los contraejemplos. Si triunfa en explicar los contraejemplos, predice que la parte mayoritaria saldrá victoriosa. De otro modo, se abstiene. Si no puede encontrar casos indexados por todas las situaciones fáctica actuales de los Factores relacionados con el problema, relaja incrementalmente la consulta eliminando Factores de los requisitos, pudiendo así intentar probar una hipó­ tesis más general. Al “explicar” los contraejemplos, IBP procura distinguir un contrae­ jemplo de una situación fáctica actual y encontrar una explicación factorial alternativa del resultado en el contraejemplo. El intento de IBP de explicar un contraejemplo fracasará si el contraejemplo y la situación fáctica actual com­ parten cualquier “Factor noqueador” (Factores-KO) que favorezca el resultado en el contraejemplo.

La definición de un Factor-KO incluye un componente semántico y un peso estadístico. Un Factor-KO es definido como un Factor que representa una conducta paradigmáticamente prohibida o alentada bajo la ley de secretos co­ merciales y para la cual la probabilidad de que una parte gane cuando el Factor se aplica sea al menos un 80% mayor que la probabilidad de la línea de base de

194-

Modelos para la predicción de resultadosjurídicos

la parte ganadora. Esta probabilidad se calcula dividiendo el número de casos de la colección donde el Factor se aplica y la parte ganadora por el número de casos de la colección donde el Factor se aplica. La probabilidad de la línea de base se calcula como el número de casos donde la parte ganó, dividido por el número de casos en la colección. La lista de Factores-KO de IBP incluyó: F8 Ventaja-Competitiva (P) (el demandado ahorró tiempo de desarrollo y dinero mediante la utilización de la información del demandante), F17 Información-Generada-Independientemente (D), F19 Sin-Medidas-de-Seguridad (D), F20 Información-Conocida-por-Competidores (D), F26 Engaño (P), F27 Divulgación-En-Lugar-Público (D) (Ashley y Brüninghaus, 2009).

Factores ingresados Predicción para MBL. ganada por el demandado manualmente (o Factores que favorecen al demandante: (Fl3 F6 F4) -----textualmente en Factores que favorecen al demandado: (F27 F20 F19 FIO) SMILE+ IBP) El problema planteado en este caso es el de LA INFORMACIÓN-VALIOSA Los factores relevantes en el caso: F27(D) F20(D) Todos los factores relacionados con el problema favorecen el resultado demandado. Rompe el caso en El problema planteado en este caso es el de las medidas-de-seguridad -4" problemas Los factores relevantes en el caso: F19(D) F10(D) F6(P) F4(P) La leona probatoria no recuperó ningún caso, ampliando la consulta. (Intentos no exitosos para ampliar a favor del demandante) 4 Problemas de Factores -intentando ampliara favor del Demandado, abandonando a su debid turno cada factor (FIO F19). La teoría que prueba con los Factores (FIO F4 F6) obtiene los siguientes casos: Plantea hipótesis y (TRANDES DEMANDANTE F1 F4 F6 FIO F12) prueba a partir de (EMC DEMANDANTE F4 F6 F7 FIO F11 F12) casos (CMI DEMANDADO F4 F6 FIO F16 F17 F20 F27) (BOEING DEMANDANTE F1 F4 F6 FIO F12 F14 F21) Intento de explicar las excepciones que favorecen ai demandado Intenta explicar las CMI no puede ser explicada. excepciones La evidencia de esta consulta es POCO CONCLUYENTE. (Intento no exitoso de ampliara favor del demandado) Para el problema MBL Factor 4. la consulta relativa a (F19 FIO F6 F4) para el problema MEDIDAS-DE-SEGURIDAD no pudo ser ampliada. Combina No hubo casos, o ningún resultado consistente para las consultas. predicciones de El resultado para MEDIDAS-DE-SEGURIDAD será la ABSTENCIÓN. problemas por El problema planteado en este caso es el de RELACIÓN-CONFIDENCIAL medio del modelo Los factores relevantes en el caso: F13(P) F4(P) lógico Todos los factores relacionados con el problema favorecen el resultado DEMANDANJE! El resultado del análisis basado en el problema: Para el problema información-valiosa, se favorece al DEMANDADO. Formula una Para el problema MEDID AS-DE-SEGUR IDAD, se favorece la abstención. predicción general Para el problema relación-confidencial, se favorece al demandante. => El resultado predicho para MBL es el demandado, que es el correcto.

Figura 4.6. Ejemplo de la predicción de IBP para el caso MBL

La Figura 4.6 ilustra el análisis, la predicción y la explicación de IBP de un caso real, MBL (USA) Corp. vs. Diekman, 112 111. App. 3d 229, 445 N. E. 2d 418 (1983). El caso es ingresado a IBP como una lista de Factores: IBP rompe el caso en (tres) problemas basándose en la asociación de Factores y proble­ mas en el modelo de dominio, plantea una hipótesis predictiva y se encarga de probarla a partir de los casos contenidos en la base de datos que atiende ese problema. Aquí, los intentos iniciales de recuperar los casos con todos los 195-

Kevin D. Ashley

Factores relacionados con el problema de las Medidas de Seguridad fallaron, por lo que el programa amplió la consulta abandonando algunos Factores hasta retomar algunos casos. Sobre la base de ellos, planteó la hipótesis de que el demandante debería ganar como en tres de los cuatro casos. Luego, al momento de probar la hipótesis, intentó explicar el contraejemplo favorable al demandado (el caso CMI), pero falló y tuvo que abstenerse en ese problema. Basándose en el modelo de dominio, no obstante, la predicción sobre Infor­ mación-Valiosa y, de este modo, sobre la existencia de un secreto comercial (Información-Secreto-Comercial), lo lleva a predecir que el demandado debería salir victorioso, lo cual terminaría siendo correcto.

Figura 4.7. IBP vs. otros métodos predictivos: resultados (Ashley y Büninghaus, 2009)

4.5.4. Evaluando las predicciones de IBP IBP fue evaluado en un experimento de validación cruzada “leaveone-out” (LOO), con una base de datos que incluía 186 fallos sobre secretos comerciales (incluyendo 148 casos de la base de datos CATO). Los investi­ gadores compararon las predicciones de IBP con una variedad de algoritmos diferentes, incluyendo dos basado en CATO, dos enfoques de nearest-neigbor, tres modelos/algoritmos de AA de propósito general, dos versiones de IBP y una línea de base [baseline].

-196-

Modelos para la predicción de resultados jurídicos

Los dos métodos predictivos de CATO fueron los mismos que en la evaluación de CATO (Sección 4.5.1), a saber: NoSignDist/BUC y la línea de base BUC. (Para mayor conveniencia, la Figura 4.7 se refiere a estos métodos como CATO e HYPO, respectivamente). Estos dos enfoques predictivos em­ plean información de tipo argumentativa basada en casos, factores jurídicos y la significancia de las distinciones, basándose en la jerarquía factorial. Los dos enfoques de nearest neighbor o vecino más cercano, Nearest Neighbor y KNN+Noise, son algoritmos alternativos basados en casos que no emplean información de tipo argumentativa basada en casos (véase la Sección 4.2). Los tres modelos/algoritmos de AA de propósito general incluyeron Decisión Tree (véase la Sección 4.3.1), Naíve Bayes (explicada en la Sección 10.3.3), y los dos programas de AA supervisados (Tree-^Rule Learner) que indujeron reglas del equipo de entrenamiento conformado por los casos (véase la Sección 4.3).

Las dos versiones de IBP fueron incluidas con el propósito de determi­ nar el efecto de “apagar” o extirpar las dos diferentes fuentes de conocimiento del modelo IBP: los problemas y los casos jurídicos. IBP-No-Issues solamente basó sus predicciones en los casos relevantes e ignoró los problemas jurídicos. IBP-Model solamente basó sus predicciones en los problemas jurídicos rele­ vantes e ignoró los casos.

Finalmente, la línea de base de clase mayoritaria predice la clase mayoritaria sin importar cuáles sean los hechos del nuevo problema. En el conjunto de datos de CATO, la mayoría de los casos favorecieron al demandante.

La Figura 4.7 ilustra el resultado. IBP lo hizo mejor, con una precisión del 91,8%1. El enfoque de prueba de hipótesis de IBP superó tanto al enfoque argumentativo basado en casos como al enfoque de vecino más cercano. Asi­ mismo, superó a los modelos/algoritmos de AA de propósito general y a la línea de base. Con respecto a los estudios de extirpación, emplear conocimiento sobre los problemas a fin de permitir que la prueba de hipótesis con precedentes se enfoque sobre los conflictos relacionados con esos problemas posibilitó una*

Un experimento reciente comparó las predicciones de IBP sobre el subconjunto de casos con Factores en competencia con aquellas realizadas por el programa Valué Judgment-based Argumentative Prediction (VJAP), cuyo modelo argumentativo da cuenta de compensaciones en los efectos de las decisiones sobre los valores (véase la Sección 5.7) -197

Kevin D. Ashley

mayor predicción (IBP vs. IBP-No-Issues). Sin embargo, el conocimiento sobre los problemas no condujo por sí mismo a un modelo predictivo poderoso; su rol para guiar la prueba de hipótesis con precedentes es importante (IBP vs. IBP-Model). La comparación de casos mediante la utilización de conocimiento sobre los problemas, tal como se encuentra implícita en las razones de la je­ rarquía factorial de CATO sobre por qué un factor jurídico importa, posibilitó una mejor predicción (CATO vs. HYPO). Finalmente, la utilización de cono­ cimiento sobre los problemas a fin de permitir que la prueba de hipótesis con precedentes se enfoque sobre los conflictos relacionados con esos problemas, en lugar de mejorar la comparación entre casos, posibilitó una mejor predic­ ción (IBP vs. CATO).

Más allá de alcanzar predicciones precisas, otro aspecto importante de la predicción en el dominio jurídico es una habilidad para proporcionar UNA EXPLICACIÓN SIGNIFICATIVA DE LA PREDICCIÓN.

Hay valor en las explicaciones dadas por los abogados a sus clien­ tes sobre por qué están proponiendo el curso de acción que están proponiendo, así como hay valor en las explicaciones ofrecidas por los jueces de los resultados que alcanzan... [Los clientes y los litigantes] perderán esta oportunidad si todo lo que se les ofrece es una predicción computarizada (Remus y Levy, 2015, p. 64).

A diferencia de muchos de los enfoques de AA y de los algoritmos de vecino más cercano, IBP genera una explicación de su predicción que resulta inteligible para los profesionales del Derecho (véase la Figura 4.6). Explicar una predicción en términos de probar una hipótesis resulta intuitivamente accesible para los abogados. En contraposición, explicar una predicción en términos de reglas inducidas por una máquina que usualmente no toma en cuenta el conocimiento jurídico experto, o en términos de ponderaciones de características inducidas estadísticamente, probablemente resulte más difícil de entender para un profesional del Derecho. “Como sucede generalmente con las aplicaciones de Big Data, muchos programas [predictivos] le ofrecen a un usuario ciertos resultados, mas sin mostrarle la combinación precisa de factores que los produjeron” (Remus y Levy, 2015, p. 62). Valores: CA: los acuerdos explícitos de confidencialidad deben realizarse y hacerse cumplir RE: una persona en posesión de un secreto debería realizar esfuerzos razonables para protegerlo

-198

Modelos para la predicción de resultadosjurídicos

LM: debería permitirse que una persona desarrolle un producto mediante la utilización de medios legítimos

QM: una persona no debe emplear medios que sean moralmente (o jurídicamente) dudosos a fin de acceder a un secreto MW: la litigación sólo debe prosperar cuando el secreto tenga algún valor material

Preferencias teórico-valorativas:

valorar_preferir ({CA, MW}, {LM, RE})

valorar_preferir ({CA, QM, RE}, {LM}) valorar_preferir ({LM}, {RE})

Preferencias teórico-reglamentarias: preferir (

< {F4 Acuerdo-De-No-Divulgación (P), F18, F21 Conocía-informaciónconfidencial (P)}, P>, < {F1, F16 Información-ingeniería-inversa (D)}, D>)

de MineralDepositsTwo preferir (

< {F16 Información-ingeniería-inversa (D)}, D>, < {F6 Medidas-de-seguridad (P), P>)

de CMI preferir (

< {F6 Medidas-de-seguridad (P), F12, F14 Materiales-restringidosutilizados (P), F21 Conocía-información-confidencial (P)}, P>, < F16 Información-ingeniería-inversa (D), D>)

de Technicon

Figura 4.8. Extractos de una teoría aprendida por AGATHA con el caso Masón como situación fáctica actual (Chorley y Bench-Capon, 2005a).

4.6.

LA PREDICCIÓN CON VALORES SUBYACENTES

Bench-Capon y sus estudiantes implementaron la predicción basándose en teorías construidas con casos anteriores cuyos hechos están representados con factores jurídicos proporcionados por expertos, en asociación con valores subyacentes. El programa AGATHA automatiza el proceso de construcción de teorías a partir de casos, tal como se describe en Bench-Capon y Sartor (2003). Como

-199

Kevin D. Ashley

se discute en la Sección 3.5.1, estas teorías son inducidas de los precedentes y reflejan las reglas preferenciales entre valores y factores en conflicto. Un algoritmo de búsqueda aplica movimientos de construcción teórica para ramificar un árbol abierto que representa una teoría. Los movimientos abarcan los siguientes actos: contrarrestar con un caso contrario, distinguir y trazar analogías. La Figura 4.8 muestra extractos de una teoría que AGATHA construyó al trazar una analogía con el caso Masón (véase la Sección 3.3.2). En la parte superior se ubican los valores (y sus abreviaturas) que, según los autores, subyacen al dominio regulatorio de los secretos comerciales. Estos incluyen valores que explicitan que los acuerdos de confidencialidad deben realizarse y hacerse cumplir (CA) y que debería permitirse que una persona desarrolle un producto mediante la utilización de medios legítimos (LM). AGATHA aprendió las preferencias valorativas que se muestran en la parte media de la figura. De acuerdo a las dos primeras preferencias valorativas, CA es preferida a LM; la tercera indica que LM es preferida a RE, un valor que una persona en posesión de un secreto debería esforzarse razonablemente en proteger. En otras palabras, “una restricción de confidencialidad es un punto fuerte para el demandante [especialmente] cuando encuentra apoyo en algún otro factor”. Además, “el desarrollo a partir de medios legítimos, especialmente cuando se ve acompañado por una laxitud de parte del demandante, favorece al deman­ dado” (Chorley y Bench-Capon, 2005a, p. 53).

Como lo sugiere la Figura 3.14, estas preferencias valorativas son revela­ das por diversas preferencias reglamentarias que AGATHA induce a partir de estos casos. Tres de estas preferencias reglamentarias son mostradas en la parte inferior de la figura. Cada preferencia reglamentaria muestra un conjunto de factores jurídicos que favorecen a una parte, los que son preferidos a otro con­ junto de factores que favorecen a la parte contraria, así como el precedente en el cual se basa la preferencia reglamentaria. Las preferencias reglamentarias que se basan en los casos Mineral Deposits Two y Technicon respaldan la preferencia de CA sobre LM. Los factores F4 Acuerdo-de-no-divulgación (P), F21 Conocía-información-confidencial (P) y F14 Materiales-utilizados-restringidos (P) están asociados con el valor CA, el Factor Fió Información-ingeniería-inversa (D) fundamenta LM y el Factor F6 Medidas-de-seguridad (P) fundamenta RE.

En la Sección 3.5.1, se puso en evidencia que el enfoque de Bench-Capon-Sartor genera teorías múltiples. AGATHA analiza ese problema de manera sustantiva e ingeniosa. Para ello, emplea un algoritmo de búsqueda heurística capaz de construir las mejores teorías. El algoritmo aplica movimientos de cons­

200-

Modelos para la predicción de resultadosjurídicos

trucción teórica para ramificar árboles abiertos en representación de las teorías. Evalúa las teorías en función de su simplicidad, de su poder explicativo, de la profundidad del árbol que representa la teoría y de su grado de completitud. Luego puede seleccionar los mejores árboles de acuerdo a estas evaluaciones. Chorley y Bench-Capon (2005a) han operacionalizado estos criterios de evaluación teórica en términos cuantitativos. La simplicidad se mide en términos del número de reglas preferenciales en la teoría. El poder explicativo se evalúa aplicando la teoría a los casos y puntuando su desempeño en función del número de casos que predice correctamente, incorrectamente o para los que se abstiene. El poder explicativo es evaluado dos veces, una vez empleando solamente los factores de la teoría y luego empleando todos los factores. La profundidad del árbol equivale al número de niveles presentes en el árbol que representa la teoría. Finalmente, la completitud es evaluada en función de si hay movimientos de construcción teórica adicionales que podrían ser realizados. Para cada teoría, estas medidas son combinadas en un número evaluativo, el cual ofrece “un valor con el cual comparar las teorías sobre la base de cuán bien explican el entorno y su estructura... Ellas pueden ser utilizadas para... guiar una búsqueda heurística” (Chorley y Bench-Capon, 2005a, p. 48).

AGATHA utiliza un algoritmo de búsqueda heurística A* a fin de cons­ truir las mejores teorías. Recuérdese que GREBE también empleó una búsqueda A* para construir mapeos sobre los casos que fueran más análogos (Sección 3.3.3). Para/(r0, la estimación del costo de alcanzar el objetivo desde el valor nodal actual de cada teoría, AGATHA realizó un cálculo basándose en el número evaluativo de la teoría. Para g(n), el costo actual de alcanzar el nodo actual a partir del estado inicial, empleó el costo de realizar el siguiente movimiento2. Para realizar este cálculo, cada uno de los movimientos de construcción de la teoría tuvo un costo asociado que reflejaba su deseabilidad. Los autores posicionaron los movimientos yendo de los menos a los más costosos de la siguiente manera: contrarrestar con el caso, distinguir con el caso, distinguir el problema, distinguir con una preferencia arbitraria, trazar una analogía con el caso (Chorley y Bench-Capon, 2005a, p. 48).

Mediante el empleo de las teorías, AGATHA generó predicciones para un subconjunto de la base de casos de CATO comparables en precisión con IBP

Puesto que, en esta aplicación de la construcción teórica, no importa cuántos movi­ mientos se requieren para producir la teoría, el costo del historial de movimientos para alcanzar el nodo actual no fue incluido en g(n), como por lo general sería el caso en una búsqueda A* (Chorley y Bench-Capon, 2005a, p. 48). 201-

Kevin D. Ashley

(Chorley y Bench-Capon, 2005a,b,c). Más aún, puede explicar las predicciones a la luz de la mejor teoría que indujo a partir de los precedentes tomando en cuenta las preferencias valorativas.

Por otro lado, aunque AGATHA utiliza preferencias valorativas, no es claro que las explicaciones que genera con las reglas inducidas tengan sentido para los abogados. El programa cita precedentes para las reglas preferenciales, pero no es claro si explica sus predicciones mediante argumentos que puedan trazar analogías entre los hechos y las transacciones contenidas en los precedentes con las circunstancias de la situación fáctica actual. Tampo­ co el programa utilizó ILC en las normas jurídicas de una manera que fuera consistente con la práctica legal. Las teorías construidas no hacen referencia a los problemas trazados desde los textos legislativos, como la Ley Uniforme de Secretos Comerciales o la sección 757 de la Reformulación (Primera) de la Ley de Responsabilidad Extracontractual, aquellas disposiciones de las cuales el Modelo de Dominio de IBP constituye una interpretación. Finalmente, no es claro que AGATHA emplee valores en el mismo sen­ tido en que lo hacen los abogados. Véase la crítica en la Sección 3.5.1 y, en la Sección 5.7, un enfoque alternativo para incorporar argumentos y valores en la predicción de resultados.

4.7.

LA PREDICCIÓN BASADA EN LA CONDUCTA DE LOS LITIGANTES

Los enfoques de IBP y AGATHA se concentran en características direc­ tamente asociadas a los méritos de un caso: los factores jurídicos que mayor influencia ejercen para determinar el resultado de un caso. Por contraposi­ ción, el trabajo predictivo de SCOTUS descripto con antelación se concentra en características no directamente asociadas a los méritos de una pretensión jurídica, como las áreas a las que pertenece un problema, la identidad de los jueces o las tendencias históricas. Los investigadores de Lex Machina y la Universidad de Stanford adopta­ ron y ampliaron el enfoque anterior (Surdeanu et al., 2011). Ellos desarrollaron técnicas para predecir los resultados en demandas sobre el derecho de patentes mediante un cuerpo que contenía todos los juicios sobre propiedad intelectual (PI) ocurridos durante un período de ocho años. Dos expertos en PI toma­ ron nota de los casos en función de sus resultados y un abogado de PI revisó los resultados y determinó las anotaciones finales. Ellos pusieron el foco en aquellas infracciones al derecho de patentes que no habían sido resueltas, es

-202-

Modelos para la predicción de resultadosjurídicos

decir, en aquellos casos en los que no hubiera habido sentencia, ya sea a favor del dueño de la patente o del presunto infractor. Como el proyecto SCOTUS, los investigadores trataron la predicción como una tarea clasificatoria binaria relativa a un modelo de aprendizaje esta­ dístico. Los casos anteriores fueron representados en términos de “la conducta previa de todas las entidades que hayan litigado en un caso”, incluyendo a las partes intervinientes en un juicio, a sus abogados y estudios jurídicos, a los jueces asignados al caso y a los distritos en donde se radicaron sus reclamos. Para cada uno de estos participantes, la conducta se modeló mediante cuatro tipos de características o propiedades:



Un identificador único



Las cifras de victorias previas del participante (no judicial o distrital)



Los sesgos judiciales y distritales, y

°

Los conteos de participación en casos previos bajo cualquier rol.

Puesto que los modos en que los participantes han sido identificados en casos previos pueden variar, tal como las formulaciones diferentes del nom­ bre de un estudio jurídico, los investigadores desarrollaron un componente de resolución de entidad [entity resolution component], el cual agrupa las for­ mulaciones o menciones alternativas de los nombres de los participantes que aparecen en los textos de los diversos casos y resuelve cada agrupación en un identificador único. Las cifras ganadoras equivalen al porcentaje de casos pre­ vios ganados por el lado del participante correspondiente. El sesgo se computa como el porcentaje de casos asignados al juez o al distrito en los que ganó el demandante. Los conteos de participación equivalen al número de casos en los que la entidad participó. A fin de generar predicciones basadas en estas características, los in­ vestigadores emplearon modelos relaciónales de aprendizaje estadístico (la regresión lógica, explicada en el Capítulo 10, y los campos condicionales aleatorios, una técnica avanzada que fue diseñada para tomar nota de los casos concurrentes que comparten información, como el mismo demandante cor­ porativo). Su mejor modelo predijo con precisión los resultados del 64% de los casos y se desempeñó sustancialmente mejor que la línea de base de clase mayoritaria (Surdeanu et al., 2011). Es interesante que el modelo haya alcanzado este nivel de precisión en la predicción de resultados vinculados con la infracción de la ley de patentes incluso sin tomar en cuenta ninguna característica relativa a los méritos de cada caso. Por ejemplo, ninguna de las características representa “el peso de

-203-

Kevin D. Ashley

las patentes enjuego” o “la similitud de la tecnología de fábrica del demandado con la tecnología de la patente” (Surdeanu et al., 2011).

En experimentos de extirpación post-hoc, los investigadores determina­ ron que tanto la identidad del juez como del estudio jurídico del demandante contribuyeron de manera significativa en la precisión predictiva, seguidas de contribuciones significativas de la identidad del demandado, del distrito, del estudio jurídico del demandado y de su abogado (en orden de magnitud decreciente). En otras palabras, las características relativas a las conductas e iden­ tidad de los litigantes parecen capturar indirectamente algunos aspectos de los méritos de un caso. Esto es especialmente significativo puesto que estas características pueden extraerse automáticamente con relativa facilidad de los casos contenidos en el corpus.

Sin embargo, la analítica textual está haciendo factible extraer y emplear características que de hecho capturan aspectos de los méritos de un caso. El empleo de características tales como los factores jurídicos podrían no sólo mejorar el desempeño predictivo sino también permitirle a un programa explicar sus predicciones de maneras que sean comprensibles para los profe­ sionales del mundo jurídico. Más aún, el empleo de características basadas en los méritos de un caso podría actuar como una prueba de cordura capaz de validar predicciones basadas en características conductuales y viceversa; una predicción que es poderosa en función de un tipo de característica, aunque débil en función de otro tipo, sugiere la necesidad de la investigación humana, un buen ejemplo de la computación cognitiva.

4.8.

LA PREDICCIÓN EN LA COMPUTACIÓN COGNITIVA

La predicción es una tarea importante en el campo jurídico y es proba­ ble que sea una prioridad en el desarrollo de apps jurídicas de computación cognitiva (AJCCs). Como lo ilustran los ejemplos anteriores, los algoritmos predictivos de­ penden de características, y los tipos de características varían en gran medida a través de los diferentes enfoques predictivos.

Es importante notar que, en la medida en que el AA y la argumentación basada en casos hayan sido aplicadas al terreno de la predicción jurídica, estos métodos computacionales no han descubierto las características que influyen en los resultados, sino que, en su lugar, han aprendido de los pesos de estas

-204-

Modelos para la predicción de resultadosjurídicos

características. Esto se aprecia en el trabajo predictivo sobre la Corte Suprema realizado por Katz et al. (2014), en los programas CATO, IBP y AGATHA, y en el enfoque sobre la conducta de los litigantes realizado por Surdeanu et al. (2011).

En gran parte de los programas predictivos, los expertos humanos en asuntos jurídicos alcanzaron a especificar las características más probables para influir en la predicción. Algunos comentaristas identificaron diversas caracterís­ ticas del programa impositivo sobre ganancias de capital que se relacionan con los méritos del problema impositivo. De modo similar, un abogado conocedor determinó los factores jurídicos empleados en CATO, IBP y AGATHA. La tarea de descubrir esas características jurídicamente significativas no ha sido automati­ zada con éxito, o, al menos, no hay publicaciones o reportes que así lo indiquen.

Sin embargo, todavía es posible que los programas anoten automática­ mente en los textos casuísticos instancias de características anteriormente descubiertas. De hecho, esta es una pregunta clave en referencia al rol de la predicción jurídica en la computación cognitiva: ¿en qué medida las ca­ racterísticas que emplean los modelos predictivos pueden ser identificadas automáticamente en los textos casuísticos? Para algunos de los programas predictivos, decidir si una característica está presente constituye una inferencia relativamente directa de las afirma­ ciones textuales informadas en la opinión del caso. Esto no es verdadero en relación con muchas de las características empleadas en el trabajo predictivo sobre la Corte Suprema. Katz et al. (2014) emplean características referidas al tipo de caso, a las actitudes judiciales y a la información cognoscitiva diseñada para relevar las tendencias históricas en materia judicial. Estas características no ofrecen información detallada sobre los hechos de un caso ni son extraídas directamente del texto del fallo.

Sin embargo, en relación con otros métodos predictivos, hay caracterís­ ticas conocidas que pueden detectarse en los textos de los casos. Por ejemplo, la lista de factores jurídicos introducidos como insumos en la Figura 4.6 estuvo basada en el análisis automatizado de una breve descripción textual de los hechos relativos al caso MBL. Un programa llamado SMILE identificó automá­ ticamente los factores en el texto y los pasó a IBP. SMILE aprendió a identificar en los textos factores de esos resúmenes factuales (aunque no perfectamente). Los trabajos de la parte SMILE de SMILE+IBP se explican en la Sección 10.4. El enfoque basado en la conducta de los litigantes de Lex Machina emplea características que también pueden ser extraídas del texto de los casos, como la frecuencia participativa y las cifras ganadoras de los jueces, las partes y los

-205-

Kevin D. Ashley

abogados, pero esas características no toman en cuenta de manera directa los méritos de las demandas jurídicas (Surdeanu et al., 2011). Anotar automáticamente los textos de los casos con las características que reflejen cada uno de sus méritos jurídicos, así como otra información de tipo argumentativa, hace factible aplicar directamente los modelos compu­ tacionales de predicción y argumentación a los textos jurídicos. Uno podría recuperar fallos judiciales de un sistema de recuperación de información jurí­ dica, procesar sus textos automáticamente para identificar tanto características de tipo argumentativa como características conductuales de los participantes, y utilizar la información para ordenar los casos de modo más eficiente, para hacer las predicciones más aconsejables y para permitir que un programa de computadora asista a los seres humanos en la resolución de problemas jurí­ dicos. Esto será desarrollado extensamente en las Partes II y III de este libro, pero primero examinemos una última clase de modelos computacionales de argumentación jurídica que combinan de manera novedosa la realización de predicciones y la formulación de argumentos, y que toma en cuenta los efectos que las decisiones propuestas ejercen sobre los valores.

206-

5 Los modelos computacionales de argumentación jurídica

5.1. INTRODUCCIÓN

n las últimas décadas, gran parte de la comunidad de investigadores en IA & Derecho puso el foco en desarrollar modelos computacionales de argumentación jurídica integrales (MCAJ). Los investigadores ahora han alcanzado a integrar a estos modelos un buen número de los modelos compu­ tacionales de razonamiento jurídico presentados en los capítulos precedentes.

E

Un modelo argumentativo consiste en una representación de los elemen­ tos de un argumento y en una especificación de su semántica. Los elementos argumentativos incluyen al propio argumento y, posiblemente, a las afirmacio­ nes o proposiciones contenidas en el argumento, así como sus interrelaciones, por ejemplo, como constituyentes de gráficos argumentativos. La semántica argumentativa es especificada a través de algún proceso bien definido por medio del cual puede determinarse el estatuto del que gozan los elementos del argumento, como por ejemplo por medio de una inspección del gráfico. Los investigadores en IA han producido una diversidad de modelos ar­ gumentativos que difieren ampliamente en los aspectos argumentativos que representan y en el modo en que especifican el estatuto de un argumento.

Por ejemplo, los sistemas argumentativos abstractos, incluyendo los modelos pioneros de Dung, abstraen una parte importante de la estructura argumentativa, simplemente representando los argumentos y atacando las rela­ ciones entre ellos (Dung, 1995). Ellos especifican los criterios para determinar el estatuto de un argumento, es decir, si un argumento resulta aceptable, en función de la ausencia de argumentos que lo ataquen y que, a su vez, no sean

207-

Kevin D. Ashley

atacados. Uno puede extender los modelos de Dung para dar cuenta de fenó­ menos argumentativos más complejos. Por ejemplo, un modelo computacional de argumentación ampliamente utilizado, ASPIC+, representa las premisas y las conclusiones y toma en cuenta tanto las relaciones de respaldo como las relaciones de ataque (Modgil y Prakken, 2014). El Marco Argumentativo basado en Valores [Value-basedArgumentationFramework] (VAF) también se muestra capaz de construir fenómenos argumentativos más complejos, argumentando sobre los valores subyacentes y extendiendo los modelos de Dung. Otros modelos argumentativos están diseñados para preservar aspectos estructurales de los argumentos que podrían hacerlos más intuitivamente acce­ sibles a los operadores jurídicos. Por ejemplo, Verheij (2009) ha desarrollado modelos de argumentación jurídica que emplean las familiares estructuras argumentativas de Toulmin, las cuales relacionan las pretensiones jurídicas y la evidencia por medio de garantías y respaldos. El modelo Carneades, discutido en la Sección 5.2, también preserva una estructura intuitivamente accesible, distinguiendo claramente las proposiciones y los argumentos que apoyan una conclusión de aquellas proposiciones y argumentos que la atacan. Este capítulo no apunta a proporcionar una explicación integral de los modelos argumentativos integrales y de sus ventajas y desventajas respecti­ vas en términos de consideraciones tales como la expresividad y la eficiencia computacional. Para un estudio legible, véase Rahwan et al. (2009).

En su lugar, el capítulo se concentra en una selección de los modelos argumentativos que han sido aplicados a la argumentación jurídica y que han sido ilustrados con ejemplos extendidos intuitivamente accesibles. Como ya se ha dicho, el modelo Carneades introducido en la Sección 5.2 y el ejemplo extendido de Carneades en acción en la Sección 5.3 ilustran cómo un modelo computacional de argumentación puede respaldar tanto a una proposición como a su contraria, además de cómo integrar la argumentación con las normas jurídicas y, por vía analógica, con los precedentes. El modelo VAF de la Sección 5.4 ilustra cómo añadir valores subyacentes al modelo argumentativo. Un mo­ delo alternativo, VJAP (Sección 5.7), toma en cuenta los efectos que producen ciertas decisiones propuestas en los intercambios entre valores y emplea sus argumentos para predecir resultados. Finalmente, el marco de la lógica por default [default logic framework] (DLF) de la Sección 5.8 modela argumentos jurídicos de tipo probatorio. Mientras tanto, el capítulo aborda cuestiones tales como el modo en que algunos modelos argumentativos computan a los ganadores y perdedores, el rol de los estándares de prueba en ciertos modelos y las posibilidades de integrar el razonamiento probabilístico.

208-

Los modelos computacionales de argumentación jurídica

El capítulo también responde las siguientes preguntas: ¿qué es un espacio de argumentación jurídica y cómo un programa lo busca? ¿De qué modo los modelos computacionales o los marcos de argumentación jurídica emplean esquemas de argumentación jurídica? ¿Cómo un programa determina la acep­ tabilidad de un argumento o evalúa su fortaleza? ¿Qué rol juega la deducción lógica en la argumentación a partir de normas jurídicas y hechos y qué es la lógica derrotable? ¿Son realistas los modelos computacionales de estándares probatorios?

5.1.1. Las ventajas de los MCAJ Como vimos en el Capítulo 2, el razonamiento jurídico comporta la aportación de argumentos que sirvan para justificar tanto una proposición como su contraria, incluso cuando las partes que sostienen estas proposiciones en conflicto argumenten a partir de los mismos hechos y normas jurídicas. Un programa computacional puede razonar deductivamente con normas jurídicas; echando mano a la deducción lógica clásica, puede trazar conclusiones mediante la aplicación de reglas de inferencia como el modas ponens. Sin embargo, la deducción lógica clásica no puede respaldar el acto de argumentar a favor de una proposición y su contraria. Esto la hace una herramienta inadecuada para modelar argumentos jurídicos.

Los intentos de modelar el razonamiento jurídico también deben eva­ luar otras dos importantes limitaciones de diseño, identificadas ambas en el Capítulo 2: 1.

El razonamiento jurídico es no monotónico; las inferencias cambian una vez que se añade información o ella se vuelve inválida. En la medida en que se añaden fuentes autoritativas y evidencias, las in­ ferencias anteriormente razonables deben abandonarse.

2. El razonamiento jurídico también es derrotable. Las demandas y/o reclamos judiciales no tienen por qué ser “verdaderos”; basta con que satisfagan un estándar probatorio dado. La conclusión de una regla derrotable sólo es presumiblemente verdadera, incluso cuando sus condiciones son satisfechas. Los argumentos que respaldan o atacan la conclusión pueden contradecirse y derrotarse entre sí.

Los modelos computacionales de argumentación jurídica satisfacen estas limitaciones de diseño. Algunos MCAJ pueden respaldar la tarea de argumentar a favor de una proposición y de su contraria incluso cuando las partes que las sostienen argumenten a partir de los mismos hechos y normas jurídicas. A -209-

Kevin D. Ashley

diferencia de la lógica clásica, los MCAJ no emplean inferencias estrictas, sino que usan argumentos de respaldo o de ataque. La semántica argumentativa de los MCAJ, la cual puede incluir criterios de aceptabilidad, estándares de prueba y esquemas argumentativos, definidos más abajo, le permite resolver argumentos en conflicto y respaldar inferencias. Juntos, estos elementos su­ ministran la “semántica” de un argumento.

5.2. EL MODELO ARGUMENTATIVO CARNEADES Como se dijo, Carneades tan sólo representa uno entre otros modelos acondicionados para argumentar jurídicamente, como ASPIC+ (Modgil y Prakken, 2014), otros modelos que extienden el modelo de Dung, o marcos dialécticos abstractos (Brewka y Gordon, 2010). En efecto, aunque Carneades y estos modelos utilizan diferentes representaciones y conceptos, ellos son funcionalmente isomórficos. No obstante, Carneades puede ilustrarse en tér­ minos jurídicamente intuitivos y admite conceptos “fuera de lo establecido” [out ofthe box] que son suficientemente útiles para modelar la argumentación jurídica (como estándares de prueba y esquemas argumentativos), por lo que vale la pena comenzar por este modelo. Carneades modela computacionalmente el proceso de presentar argu­ mentos sobre la aceptabilidad de proposiciones. Una proposición es aceptable si resulta presumiblemente verdadera a la luz del conjunto de suposiciones y argu­ mentos disponibles a una determinada altura (véase Gordon y Walton, 2009). El modelo Carneades comprende un marco argumentativo, criterios para determinar la aceptabilidad de un argumento, estándares de prueba y esquemas argumentativos (Prakken, 1995; Gordon y Walton, 2006).

Un marco argumentativo define el concepto de un argumento como una estructura que abarca una premisa, una conclusión y las excepciones. El marco también especifica los aspectos de la argumentación que son representados y los sentidos en los que, para los propósitos del modelo, los argumentos están en conflicto. Para cada etapa del proceso argumentativo, el marco de argumentación define un procedimiento de decisión para evaluar si la proposición o argu­ mento en cuestión resulta aceptable a la luz de los criterios de aceptabilidad. Los criterios proporcionan alguna base para resolver un conflicto, tal como las relaciones preferenciales para ordenar los argumentos en orden de importancia. El procedimiento permite decidir el estatuto del que goza un argumento, como

-210-

Los modelos computacionales de argumentación jurídica

por ejemplo si ha “ganado”, ha “perdido” o no ha podido resolver la disputa (Prakken, 1995). Esta determinación puede depender del estándar de prueba aplicable al problema. Un estándar probatorio es el nivel de certeza requerido para establecer la proposición a los fines del argumento (véase Weiss, 2003). En cada etapa del proceso argumentativo, un argumentador (automa­ tizado o humano) comúnmente necesita encontrar o construir argumentos adicionales que hagan aceptable una afirmación inaceptable o que hagan inaceptable una afirmación aceptable. Los esquemas argumentativos son de ayuda en la búsqueda de argumentos y contraargumentos adicionales.

Los esquemas argumentativos representan los típicos patrones que se constatan en un argumento jurídico. Los esquemas son plantillas o “planos” [blueprints] para clases típicas de argumentos jurídicos cuyas premisas pueden establecerse sobre la base de hechos supuestos o como conclusiones de otros esquemas argumentativos. Algunos esquemas o patrones comunes de la ar­ gumentación jurídica incluyen la argumentación a partir de normas jurídicas, trazando analogías con casos previos o a partir de valores subyacentes. También existen esquemas argumentativos para contrariar esos argumentos, tal como distinguir un precedente o citar un contraejemplo apremiante. Como plantillas, los esquemas argumentativos cumplen una función muy útil en los modelos computacionales. Sus “componentes son predefinidos y pueden llenarse con información inferida del conocimiento disponible” (Gordon y Walton, 2009, pp. 2, 8). En efecto, estas plantillas establecen un espacio de posibles vías alternativas mediante las cuales responder a un argumento. Utilizando “métodos heurísticos, [un programa computacional puede] buscar este espacio para conjuntos de argumentos en los que alguna afirmación o ar­ gumento que se ponga como objetivo aparezca como aceptable o inaceptable” (Gordon y Walton, 2009, pp. 2, 8).

Los esquemas argumentativos pueden incluir preguntas criticas para ayudar a definir si, y de qué manera, el esquema argumentativo se aplica en un caso específico. Cada tipo de esquema argumentativo tiene sus propias preguntas críticas (Walton y Gordon, 2005). Algunas preguntas críticas se relacionan con la aceptabilidad de las premisas del esquema. Otras preguntas señalan circunstancias excepcionales en las que el esquema podría no apli­ carse. Si la respuesta a una pregunta crítica revela una suposición o excepción equivocada, da lugar a un posible contraargumento (Prakken, 1995; Gordon y Walton, 2006; véase también Grabmair y Ashley, 2010, 2011). Además, un esquema argumentativo puede ser contradicho por aplicaciones conflictivas del mismo u otro esquema (Prakken, 2005).

-211 -

Kevin D. Ashley

Carneades construye un argumento jurídico incrementalmente mientras establece las premisas. En cualquier etapa, dadas una serie de proposiciones en el argumento y un conjunto de suposiciones, el modelo evalúa si una proposi­ ción determinada resulta aceptable. Al momento de determinar el estatuto del que goza un argumento, el modelo puede aplicar aproximaciones computacionales de estándares probatorios como la preponderancia de la evidencia. En cada etapa, el modelo también busca nuevos argumentos que hagan inaceptables afirmaciones aceptables y que hagan aceptables afirmaciones inaceptables; los últimos son contraargumentos. Los esquemas argumentativos jurídicos guían esta búsqueda.

Figura 5.1. Un diagrama argumentativo Carneades (Gordon, 2008b, c; Gordony Walton, 2009; Walton y Gordon, 2009; véase Ashley, 2012).

5.3. UN EJEMPLO AMPLIADO DE UN MCAJ EN ACCIÓN

Uno puede ilustrar el modo en que un modelo computacional de argu­ mentación jurídica puede respaldar tanto una proposición como su contraria mediante un ejemplo ampliado en el que opera el modelo argumentativo Car­ neades (Gordon et aL, 2007).

-212-

Los modelos computacionales de argumentación jurídica

Carneadas construye diagramas argumentativos (también conocidos como mapas) que representan la estructura de un argumento jurídico de un modo intuitivamente atractivo. Los diagramas diferencian entre proposiciones y argumentos que respaldan una proposición y proposiciones y argumentos que la atacan. Por esta razón, el marco argumentativo de Carneades es denominado bipartito. Además, pueden ofrecerse argumentos a favor de la proposición p y en contra de la negación de p. El argumento del ejemplo alude a algunos problemas del Derecho alemán de familia. En el diagrama Carneades mostrado en la Figura S.lblos nodos declarativos que representan proposiciones son concebidas como rectángulos; los nodos arguméntales son círculos (con un signo “+” que indica respaldo; la línea de puntos indica que hay oposición a la aplicabilidad del argumento). Los nodos declarativos en un diagrama Carneades reciben los estatutos de “afirmado”, “cuestionado”, “aceptado” y “rechazado”. El modelo infiere la aplica­ bilidad de los nodos arguméntales y la aceptabilidad de los nodos declarativos. (El contenido del argumento representado en la figura se discute más abajo). En el marco de Carneades, los argumentos pueden atacarse entre sí por medio de la refutación [rebuttal], el socavamiento [undermining] o el debilitamiento [undercutting]. Las refutaciones son “argumentos a favor y en contra de alguna conclusión... El conflicto entre las refutaciones se resuelve sopesando los argumentos y aplicando los estándares de prueba” (Gordon, 2015a, p. 34). Cuando un argumento contradice (i.e. socava) las premisas de otro argumento, al primero se lo denomina un argumento que horada o socava [undermining argument] (Gordon 2015a, p. 44). Los argumentos debilitadores son aquellos que atacan la aplicabilidad de otro argumento. En un diagrama argumentativo, un debilitador es representado como un nodo argumental cuya conclusión es otro nodo argumental en lugar de un nodo declarativo (Gordon, 2015a, p. 21).

5.3.1. El ejemplo del Derecho de familia con Carneades Tom Gordon y Doug Walton han provisto un ejemplo clásico tendiente a ilustrar un argumento jurídico estructurado que involucra un conjunto de

Las convenciones de diagramación de Carneades han evolucionado con el correr del tiempo. Al respecto, véase Gordon, 2015b. Los diagramas que se muestran aquí están basados en una versión antigua que parece especialmente fácil de entender. Agradezco a Matthias Grabmair por ayudarme a construir estos ejemplos. 213-

Kevin D. Ashley

normas más o menos derivadas de la legislación alemana en Derecho de familia (véase Gordon, 2008b, c; Gordon y Walton, 2009; Walton y Gordon, 2009):

Norma §1601-BGB: x está obligado a mantener a y si x es un pariente directo de y Norma §1589-BGB: x es un pariente directo de y si x es un ancestro de y Norma §91-BSHG: 1601-BGB excluye “x está obligado a mantener ay” si “x está obligado a mantener a y” le causaría a x una dificultad excesiva. Norma §1601-BGB: x no está obligado a mantener a y bajo §1601, a menos que y se encuentre en necesidad.

Supóngase que partimos del hecho de que George es un ancestro de Martha (su padre o abuelo) y que, dado el conjunto de normas jurídicas presentado arriba, deseamos averiguar si él tiene una obligación de mantener a Martha. Antes de imaginar cómo se desempeñaría el sistema Carneades en re­ lación con este asunto, imaginemos qué haría un programa que implementara la deducción lógica clásica, como por ejemplo el programa BNA analizado en el Capítulo 2, al momento de aplicar estas normas para determinar si George está obligado a ofrecer a Martha alguna clase de mantenimiento. Con una aplicación del encadenamiento hacia atrás y dos aplicaciones del razonamiento deductivo con modas ponens, el programa BNA concluiría que George posee un parentesco directo con Martha y que, bajo la norma §1601, posee la obligación de mantenerla. Sin embargo, el sistema no puede llegar a esta conclusión directamente a partir de la norma §1601, pues esa norma sólo habla de un “parentesco directo”. Allí es cuando el encadenamiento hacia atrás dice presente (véase la Sección 1.3.1). Como lo ilustra la Figura 5.2, mediante la aplicación del encadenamiento hacia atrás, el sistema puede encontrar una norma, la §1589, capaz de concluir que George posee un parentesco directo con Martha. Luego Carneades determina que el antecedente de la regla §1589 es satisfecho, basándose en el hecho de que George es un ancestro de Martha. Supóngase que uno luego aprende que verse obligado a mantener a Mar­ tha le causaría a George una dificultad excesiva. Como lo ilustra la Figura 5.3, tratándose de razonar deductivamente con normas, la que pasaría a aplicarse luego es la norma §91, por lo que se excluiría la obligación por parte de George de mantener a Martha. El sistema de tipo BNA, sin embargo, ya ha probado que George tenía una obligación de mantener a Martha. En otras palabras, ahora habría probado dos consecuencias inconsistentes: George está y no está obligado a mantener a Martha.

-214

Los modelos computacionales de argumentación jurídica

Norma § 1601-BGB La Personal está obligada a mantener a la Persona? si La Personal posee un parentesco directo con la Persona2

P: ¿Posee George la obligación jurídica de mantener a Martha?

Norma § 1589-BGB La Personal posee un parentesco directo con la Persona? ií La Personal es un ancestro de la Persona?

HECHOS 'George es un ancestro de Martha

Norma §91-BSHG § 1601-BGB excluye que “la Personal esté obligada a mantener a la Persona?” si “La Personal está obligada a mantener a la Persona?" le causaría a la Personal una dificultad excesiva Norma § 1601-BGB La Personal no está obligada a mantener a la Persona? bajo § 1601-BGB a menos que La Persona? se encuentre en necesidad

Figura 5.2. La deducción clásica (Gordon, 2008b, c; Gordony Walton, 2009; Waltony Gordon, 2009).

¡Poof!

Norma § 1601-BGB La Persona 1 está obligada a mantener a la Persona? si La Personal posee un parentesco directo con la Persona?

P: ¿Posee George la obligación jurídica de mantener a Martha?

Norma § 1589-BGB La Personal posee un parentesco directo con la Persona? si La Personal es un ancestro de la Persona?

HECHOS

Norma §91-BSHG § 1601-BGB excluye que “la Personal esté obligada a mantener a la Persona?” si “La Personal está obligada a mantener a la Persona?” le a la Personal una dificultad excesiva

‘George es un ancestro de Martha. *La obligación de mantener a Martha le causaría a George una dificultad excesiva

Norma § 1601-BGB La Personal no está obligada a mantener a la Persona? bajo § 1601-BGB a menos que La Persona? se encuentre en necesidad

Figura 5.3. La deducción clásica no puede probar una proposición y su contraria (véase Gordon, 2008b, c; Gordony Watson, 2009; Waltony Gordon, 2009).

Este fenómeno ocurre con frecuencia en el razonamiento jurídico, pero, como se explica en el Capítulo 2, resulta problemático para la deducción lógica clásica. La lógica clásica es monotónica; una vez que algo ha sido.probado, no puede ser “deshecho”, incluso contando con nueva información. Más aún, en un modelo clásico de deducción lógica, una habilidad para probar una propo­ sición y su contraria significa que el sistema es inconsistente y que probaría cualquier cosa. (Para una prueba resumida de esta característica “explosiva”

215-

Kevin D. Ashley

de la lógica clásica, véase la Sección 2.4.2). En otras palabras, si uno desea que una computadora formule argumentos a favor y en contra de normas jurídicas, la deducción lógica clásica fracasará. Los modelos computacionales de argumentación como el de Carneades evitan este problema mediante la utilización de razonamientos no monotónicos (también conocidos como razonamientos derrotadles), así como mediante el empleo de esquemas argumentativos apropiados.

e

Premisas R es una norma jurídica con los antecedentes A1...... An y la conclusión C. Si cada Ai en A1, An es presumiblemente verdadera.

o

Conclusión ... entonces C es presumiblemente verdadera.

o

Supuestos y excepciones ¿Se aplica alguna excepción a R? ¿No se satisface algún supuesto sobre R? ¿Se aplica en este caso alguna norma que excluya a R? ¿Se aplica en este caso alguna norma conflictiva de una prioridad mayor a la de R?



Premisas La norma § 1601-BGB es una norma jurídica con antecedentes: Si hay parentesco-directo (Personal, Persona?)

o

Conclusión ... entonces la obligación-demantener (Personal, Persona?) es presumiblemente verdadera.



Supuestos y excepciones A menos que se aplique una excepción a 1601 (Le., norma § 1601-BGB) Bajo la suposición de que se satisfagan los supuestos de 1601. Bajo la suposición de que 1601 sea una norma jurídica válida. A menos que se aplique alguna norma que excluya a 1601 (i.e., la norma § 91-BSHG) A menos que se aplique alguna norma conflictiva de una prioridad mayor a la de 1601.

Figura 5.4. Esquema relativo a argumentos formulados a partir de reglas inferenciales derrotadles (véase Gordon, 2008b, c; Gordon y Walton, 2009; Walton y Gordon, 2009).

5.3.2. La argumentación mediante normas jurídicas derrotables En un modelo computacional de argumentación, las normas jurídicas son medeladas como reglas de inferencia derrotables y los esquemas argu­ mentativos para formular inferencias jurídicas a partir de las normas también son derrotables.

Como se sugiere en el cuadro que aparece en la izquierda de la Figura 5.4, la conclusión de una regla de inferencia derrotable sólo es presumiblemente verdadera. Está sujeta a una lista de excepciones y supuestos que condicionan

-216-

Los modelos computacionales de argumentación jurídica

la aplicación de la regla (a veces referidos como preguntas críticas; véase la Sección 5.2), los cuales, si se dan, derrotan la conclusión de la regla.

Por ejemplo, la Norma § 1601-BGB sería representada como una regla de inferencia derrotable, tal como se muestra en el cuadro que aparece en la derecha de la Figura 5.4. Su conclusión, la obligación-de-mantener (x, y), sólo es presumiblemente verdadera, incluso si las premisas, parentesco-directo (x, y), se satisfacen. La conclusión está sujeta a una diversidad de supuestos y excepciones. En particular, los supuestos y excepciones de la Norma § 1601-BGB in­ cluirían una excepción basada en la norma § 1602-BGB, una exclusión basada en la norma § 91-BSHG, y supuestos más generales de que la norma es válida y no está sujeta a una norma conflictiva de mayor prioridad.

Carneades puede razonar y construir argumentos con reglas de infe­ rencia derrotables semejantes y diagramar los argumentos que formula. Si uno especifica como objetivo el de mostrar que George posee una obligación jurídica de mantener a Martha (indicada por el círculo grisáceo en la raíz nodal de la Figura 5.1), el motor de reglas de Carneades razona hacia atrás desde ese objetivo hasta encontrar reglas de inferencia derrotables que lo apoyen: § 1601 y § 1589. Mientras los argumentos son construidos y editados, ellos se visualizan en el diagrama argumentativo, tal como se muestra en la figura. Incidentalmente, el razonamiento jurídico de Carneades es un ejemplo de subsunción (véase la Sección 2.5.1), pero al momento de determinar si un concepto jurídico subsume una situación fáctica, emplea reglas derrotables y una diversidad de esquemas argumentativos, no sólo la inferencia deductiva. Por supuesto, hasta aquí esto se parece en gran medida al modo en que el programa BNA inferiría una conclusión, basándose en una norma legislativa (véase más arriba). Sin embargo, aquí hay una diferencia sutil. Carneades ha construido un argumento sobre la obligación de George de mantener a Martha aplicando un esquema argumentativo, el argumento-por-deducción. Como se verá, este es sólo uno de los esquemas argumentativos que Carneades puede aplicar. Si uno luego establece como objetivo específico derrotar ese argumento, Carneades examina la norma derrotable hasta hallar en ella la representación de excepciones, exclusiones o supuestos fallidos que puedan prevenir la presunta conclusión del argumento.

Dado el hecho de que la obligación de mantener a Martha le causaría a George una dificultad excesiva, Carneades encuentra una norma aplica­ ble que excluya § 1601, es decir: la norma § 91, y modifique el diagrama (Figura 5.5).

-217-

Kevin D. Ashley

Es decir, con una representación de las normas jurídicas como derro­ tadles, el programa puede encontrar supuestos, excepciones y exclusiones fallidas que prevengan la presunta conclusión de un argumento previo. Además, a diferencia de la deducción lógica clásica, Carneades, con sus argumentos y normas jurídicas derrotadles, puede respaldar argumentos que estén a favor y en contra de una proposición (compárense las Figuras 5.3 y 5.5).

5.3.3. Integrando la argumentación con casos y reglas

Un propósito de los modelos de argumentación computacional que se udica segundo en orden de importancia consiste en integrar en un solo marco los diferentes tipos de argumentos jurídicos aplicados por los operadores jurí­ dicos, incluyendo aquellos cuyos modelos se presentan en las páginas que van del Capítulo 2 al 4. Más allá de los argumentos deductivos a partir de normas derrotadles, los argumentos por analogía con casos previos, o a partir de los valores y propósitos que sudyacen a las normas jurídicas, pueden ser formali­ zados en su totalidad mediante esquemas argumentativos e integrados en un modelo argumentativo con preguntas críticas.

Figura 5.5. Argumentos (a favor y en contra) con reglas de inferencia derrotables (Gordon, 2008b, c; Gordon y Walton, 2009; Waltony Gordon, 2009; véase Ashley, 2012).

-218

Los modelos computacionales de argumentación jurídica

Por ejemplo, supóngase que, en el ejemplo de más arriba, encontráramos una situación, mostrada en la Figura 5.6, en donde las normas “se acabaran”. No se nos ofrece como un hecho que la obligación de mantener a Martha le causaría a George una dificultad excesiva. Además, comprobamos que la ex­ presión “dificultad excesiva” no aparece definida por una norma jurídica. Sin embargo, un nuevo hecho ha sido aprendido, a saber: que George y Martha nunca mantuvieron una relación de padre e hija. Norma § 1601-BGB La Personal está obligada a mantener a la Persona? si La Personal posee un parentesco directo con la Persona? Norma» 1589-BGB La Personal posee un parentesco directo con la Persona? si La Persona 1 es un ancestro de la Persona? Norma §91-BSHG § 1601-BGB excluye que “la Personal esté obligada a mantener a la Persona?” si “La Personal está obligada a mantener a la Persona?’’ le causaría a la Personal una dificultad excesiva

P: ¿Posee George la obligación jurídica de mantener a Martha?

HECHOS * George es un ancestro de Martha. ’ ba~obligaeión-demanteneM Martha-fe-eausaFÍa^-Geerge-una * George y Martha nunca tuvieron una relación de padre e hija. * La manutención de Martha es necesaria sólo durante un breve período de tiempo.

Norma § 1601-BGB La Personal no está obligada a mantener a la Persona? bajo § 1601 -BGB a menos que La Persona? se encuentre en necesidad

Figura 5.6. La deducción clásica (Gordon, 2008b, c; Gordon y Walton, 2009; Walton y Gordon, 2009).

Suponiendo que el objetivo todavía sea mostrar que George no está obligado a mantener a Martha, ¿puede Carneades formular cualquier otro argumento? En un país regido por el common law como Estados Unidos, los abogados revisarían los precedentes a fin de determinar si, y de qué manera, los tribu­ nales resolvieron el problema de definir “dificultad excesiva”. Suponiendo que encontraran resoluciones semejantes, ellos probablemente formularían argumentos por vía analógica tendientes a probar que el caso en ciernes debería o no resolverse en el mismo sentido en que se resolvieron los casos previos.

Por supuesto, esos argumentos también podrían conducir a nuevos ar­ gumentos. Algunos casos análogos pueden respaldar la conclusión de que ha habido una dificultad excesiva y otros casos pueden respaldar la conclusión contraria; algunos casos exhibirán una mayor similitud analógica que otros

-219-

Kevin D. Ashley

casos, lo que puede conducir a quien argumenta a diferenciarlos, así como a citar contraejemplos. Tabla 5.1. Los factores jurídicos y los precedentes relacionados con la dificultad excesiva (véase Gordon, 2008b, c; Gordony Walton, 2009; Waltony Gordon, 2009)

Los factores jurídicos del demandante (P) (favorables al hallazgo de una dificultad excesiva)

PF1

Ya-ha-proporcionado-mantenimiento-suficiente

PF2

Nunca-hubo-una-relación-paterno-filial

PF3

Causaría-daño-irreparable-a-la-familia

Los factores del demandado (D) (contrarios al hallazgo de una dificultad excesiva)

DF1

El-mantenimiento-esperado-es-por-tiempo-breve

DF2

No-ha-proporcionado-cuidado

Base de casos, cbl Miller

Smith Farmer

P gana un conflicto sobre dificultad excesiva en donde {PF2} D gana un conflicto sobre dificultad excesiva en donde {PF2, DF1}

P gana un conflicto sobre dificultad excesiva en donde {PF2, DF1, PF3]

El Capítulo 3 ilustró algunos modelos de razonamiento basado en ca­ sos que pueden formular argumentos como estos. Tales modelos pueden ser implementados como esquemas argumentativos e integrados en un modelo computacional general de argumentación como Carneades.

Supóngase que estamos usando una versión de Carneades equipada con un esquema argumentativo basado en casos del estilo CATO y que tenemos a disposición una línea de precedentes y factores jurídicos (patrones estereoti­ pados de hechos que tienden a fortalecer o debilitar una conclusión jurídica) relacionada con el problema de la dificultad excesiva. En particular, supóngase que todos los casos y factores jurídicos de la Tabla 5.1 lidian con el concepto de dificultad excesiva. Cuando Carneades recibe la instrucción de argumentar en contra de la proposición de que George tiene la obligación de mantener a Martha, el programa podría:

220

Los modelos computacionales de argumentación jurídica

1.

Buscar las preguntas críticas de § 1601.

2. La entrada “A menos que se aplique alguna norma que excluya § 1601” lo conduce a buscar una norma cuya consecuencia es que § 1601 quede excluida.

3. Habiendo encontrado § 91, procede luego a buscar una norma cuya consecuencia implique “dificultad excesiva”.

4. Habiendo encontrado la norma en el caso Miller (P gana un conflic­ to sobre dificultad excesiva si {PF2}), construye un argumento de acuerdo al esquema argumentativo basado en casos según el cual § 1601 queda excluida. Este argumento se muestra en la Figura 5.7.

Figura 5.7. El argumento (contrario) basado en casos de Carneades (Gordon, 2008b, c; Gordony Walton, 2009; Waltony Gordon, 2009; véase Ashley, 2012).

Si luego se revelara que la manutención de Martha es necesaria sólo por un breve período de tiempo, el Factor DF1 se aplicaría. Si Carneades recibiera la instrucción de respaldar la proposición de que George está obligado a mantener a Martha, una pregunta crítica asociada con el esquema argumentativo basado en casos, “A menos que se planteara un contraejemplo apremiante”, llevaría a

-221 -

Kevin D. Ashley

Carneades a citar a Smith como el caso más relevante {PF2, DF1}, en el cual no se hizo lugar a la dificultad excesiva (véase el argumento en la Figura 5.8).

Carneades puede construir todos estos argumentos. Por eso, ilustra cómo el trabajo de IA & Derecho sobre modelos computacionales de argumentación es capaz de integrar los modelos de razonamiento basados en normas y en casos que hemos visto en los capítulos precedentes.

Figura 5.8. El argumento (pro) basado en casos de Carneades (Gordon, 2008b, c; Gordony Walton, 2009; Waltony Gordon, 2009; véase Ashley, 2012).

En el ejemplo de arriba, el modelo de razonamiento jurídico basado en casos que caracteriza a CATO ha sido “enchufado” al modelo argumentativo de Carneades como un esquema argumentativo. Como ya se dijo, los esquemas argumentativos típicamente modelan patrones de argumentación tanto en el campo jurídico como en otros campos. Esto podría recibir la denominación de “Argumento a partir de Factores Jurídicos Compartidos”: si el precedente comparte los factores jurídicos con el caso actual, entonces arguméntese que el caso actual debería ser resuelto en el mismo sentido que el precedente. El modelo argumentativo también estaría equipado con esquemas ar­ gumentativos para responder a un Argumento a partir de Factores Jurídicos

-222-

Los modelos computacionales de argumentación jurídica

Compartidos, incluyendo la diferenciación o distinción de casos, la minimización o enfatización de las distinciones o la invocación de contraejemplos (Aleven, 2003). Uno también podría implementar variaciones que recojan características y argumentos basados en Hypo (Ashley, 1990) o en CABARET (Rissland y Skalak, 1991).

De hecho, muchos de los modelos computacionales de los capítulos pre­ vios pueden ser caracterizados como esquemas argumentativos y pueden ser integrados en un modelo argumentativo como el de Carneades. Por ejemplo, uno podría implementar el Esquema Argumentativo de la Construcción de Teo­ rías (McCarty y Sridharan, 1981; cf. Bench-Capon y Sartor, 2003): si puede ser construida una teoría que explica una línea de precedentes y de hipótesis sobre el mismo problema que motiva el caso actual, entonces arguméntese a favor de la aplicación de la teoría al caso actual. Uno podría también implementar el Argumento de Hechos Criteriales (GREBE, (Branting, 1991; cf. SIROCCO, (McLaren, 2003)): si se resolvió que un predicado de textura abierta en una ley había sido satisfecho por los hechos criteriales de un precedente y estos hechos criteriales son similares a los hechos del caso actual, entonces arguméntese que el predicado de textura abierta también se satisface en este caso.

5.4.

EL MODELO COMPUTACIONAL DE ARGUMENTACIÓN ABSTRACTA

Como lo ilustran los ejemplos de argumentación jurídica familiares, Carneades, con su marco argumentativo bipartito, representa una estructura argumentativa jurídica: los argumentos que respaldan o defienden una propo­ sición y aquellos otros que la atacan.

Por contraposición, un marco de argumentación abstracto, una clase diferente de marco de argumentación emplea gráficos argumentativos que contienen solamente argumentos que se atacan entre sí. Esto significa que la estructura argumentativa interna que involucra argumentos de defensa y argumentos de ataque resulta abstraída (aunque alguna estructura puede ser reconstruida, tal como se indica abajo). Inventados por Phan Minh Dung, los marcos argumentativos abstractos proporcionan ciertas ventajas, tanto desde el punto de vista teórico como desde el punto de vista de la eficiencia computacional (Dung, 1995). Un marco argumentativo abstracto se define como un conjunto de argumentos A y relaciones de ataque R entre pares de estos argumentos. Es modelado como un gráfico dirigido, es decir, un gráfico cuyos bordes están compuestos de flechas. Los nodos representan argumentos y las flechas indican -223-

Kevin D. Ashley

qué argumentos un argumento ataca. A fin de evaluar el estatuto de un argu­ mento en un marco argumentativo abstracto, incluyendo su aceptabilidad, uno considera si el argumento puede defenderse del ataque de otros argumentos en un conjunto de argumentos S, el cual constituye un subconjunto de A o su equivalente (Dung, 1995; Atkinson y Bench-Capon, 2007).

Un argumento basado en uno de los casos sobre intereses-de-propiedad-sobre-animales-salvajes de las Secciones 3.4 y 3.5.1 se ilustra en la Figura 5.9 como una clase particular de marco de argumentación abstracto, un VAF. Un VAF extiende el marco de argumentación abstracto de tal modo que los argumentos puedan ser etiquetados según su tipo. Algunos argumentos involu­ cran disputas sobre los hechos y son marcados como involucrando demandas o aserciones factuales. Otros involucran disputas sobre los valores o fines jurí­ dicos subyacentes y son marcados de acuerdo a los valores promovidos por los argumentos, si ellos se aceptan (Bench-Capon, 2003; Atkinson y Bench-Capon, 2007). Por ejemplo, la Figura 5.9 ilustra un argumento formulado en Young vs. Hitchens, en donde debía resolverse un conflicto entre el demandante Young, un pescador comercial, y el demandado Hitchens, alguien que se había desli­ zado en la red del demandante para quedarse con la pesca que el demandante ya había acorralado parcialmente. El conjunto de argumentos A se ilustra a la derecha de la figura. Los argu­ mentos del demandante Young están marcados con la letra Y#; los sostenidos por el demandado están marcados con la letra H#. Algunos de los argumentos están marcados por involucrar afirmaciones factuales. (Dado que no todos los argumentos aparecen en el texto del fallo, los autores proporcionaron algunos argumentos factuales para ilustrar cómo modelarlos). Otros argumentos están etiquetados con los valores que promueven. Los autores adoptan una lista de valores que subyacen a las regulaciones jurídicas aplicables en el dominio re­ ferido a los intereses-de-propiedad-sobre-animales-salvajes, similar a la lista ilustrada en la Figura 3.13. Las flechas a la izquierda de la Figura 5.9 representan las relaciones de ataque entre pares arguméntales. Los marcos de argumentación abstracta tienen una limitación impor­ tante: resulta incómodo representar un argumento jurídico tan sólo mediante relaciones de ataque. Una manera de lidiar con eso en un VAF consiste en re­ presentar “un atacante de un atacante del argumento defendido”. Por ejemplo, el demandante Young formula dos argumentos para respaldar su pretensión, Y4 e Y5. Ellos se representan en el diagrama como atacando la negación de P, en donde P es una pretensión favorable al demandante.

-224

Young argumenta: Yl: Llevo tres horas tirando de mis redes, (afirmación factual)

T__

Y3: Ellos eran mis peces debido a que no tenían posibilidad de escapar. Garantizar la posesión con este grado de control fomenta la pesca.

Y4: Hitchens debería ser sancionado debido a que es culpable de haber tomado mi pesca. (Consecuencia afirmada.) Y5: Hitchens debería ser sancionado por prácticas injustas, tal como su amenaza a la industria pesquera. Recurrir al valor de fomentar la pesca. Hitchens replica:

225

HO: El demandante debería perder.

Hl: Las redes de Young estaban rompiéndose: los peces estaban a punto de escapar, (afirmación factual, negando la premisa de Y2, Y3) ----- H2: Los peces estaban disponibles para ser capturados, dado que no habían sido atrapados. Argumento de línea -► brillante basado en la necesidad de claridad.

r ----- - - ------ H3: La competencia es algo esperablc en los negocios. Configurando valor para H4. ~H4: Yo no debería ser sancionado, pues eso inhibiría la competencia vigorosa. Replicar recurriendo al valor de la competencia.

Figura 5.9. El ataque de argumentos según VAF (véase Atkinson y Bench-Capon, 2007, p. 113).

Los modelos computacionales de argumentación jurídica

Y2: Los peces no tenían posibilidad de escapar, (afirmación factual, la premisa de Y3)

Kevin D. Ashley

La falta de estructura en las representaciones argumentativas de VAF constituye otro inconveniente. Mientras la Figura 5.9 ilustra mi intento de hacer que la representación sea más convenientemente legible, la interpretación que supone un diagrama Carneades no es una tarea sencilla de imitar. Los marcos argumentativos alternativos como ASPIC+ combinan los beneficios teóricos y la eficiencia de los marcos de argumentación abstracta con la conveniencia de las representaciones argumentativas estructuradas (Modgil y Prakken, 2014).

5.5.

CÓMO LOS MODELOS COMPUTACIONALES DE ARGUMENTACIÓN JURÍDICA COMPUTAN A GANADORES Y PERDEDORES

El objetivo de los modelos computacionales de argumentación jurídica ilustrados arriba es el de combinar en un modelo la argumentación sobre los hechos de un caso, la ley aplicable y los valores subyacentes, y, en la medida de lo posible, el de determinar los argumentos ganadores y perdedores. Como veremos más adelante, el foco de otros modelos computacionales es más des­ criptivo: describir o modelar en detalle las decisiones a las que arriba un juez y las justificaciones que el juez ofrece en los fundamentos de su voto.

En términos prácticos, argumentar sobre los hechos de un caso, las normas jurídicas aplicables, los valores subyacentes y, quizá, los asuntos procedimentales, requiere una jerarquía de marcos de argumentación. Cada nivel de argumentación está equipado con su propia variedad de esquemas argumentativos, los procedimientos para determinar la aceptabilidad de los argumentos, los estándares de prueba y “diferentes nociones de aceptabilidad argumentativa que se desprenden de las preferencias entre argumentos, estando ellas justificadas en un meta-nivel de argumentación”.

Las proposiciones sobre hechos, normas y valores pueden aparecer en un diagrama argumentativo basado en valores, tal como se ilustra en el argumento del caso Yoimg que aparece en la Figura 5.9. En este nivel básico, los argumentos versan sobre hechos y valores. Para resolver los argumentos conflictivos sobre hechos y valores, no obstante, el programa necesita “volverse meta” [to go meta].2 Es decir, él emerge al nivel de la resolución de un conflicto

2

Nota del traductor: aunque el significado de la expresión inglesa ‘to go meta’ no es del todo transparente, el prefijo griego ‘meta’ que ella utiliza, y que significa ‘más allá de’, probablemente haga referencia a la idea de volverse más consciente, comprensivo o trascendental. Es ese sentido, pues, el que ha pretendido preservarse mediante la ex­ presión castellana ‘volverse meta’ que aquí se ha empleado. 226-

Los modelos computacionales de argumentación jurídica

factual e invoca esquemas argumentativos para resolver las disputas factuales, tal como el esquema que formula preguntas críticas sobre el testimonio de testigos presenciales. También emerge al nivel de la resolución de un conflic­ to valorativo e invoca esquemas argumentativos para resolver disputas sobre valores, como por ejemplo mediante un esquema para argumentar a partir de valores, como ocurre con el modelo de Bench-Capon/Sartor (Sección 3.5.1) (Atkinson y Bench-Capon, 2007). Algunos ejemplos que ilustran ambos niveles de resolución de conflictos son presentados en lo que sigue.

5.5.1. La resolución de argumentos conflictivos sobre hechos Por lo pronto, como se muestra en la Figura 5.9, Hl, una afirmación factual (i.e., “Las redes de Young se rompieron; los peces estaban a punto de escapar”) ataca, siendo a su vez atacada por otra afirmación factual, Y2 (i.e., “Los peces no tenían posibilidad de escapar”). ¿Cómo un conflicto semejante sería resuelto en un VAF?

Cada conflicto sobre los hechos deberá resolverse por separado, a través de un argumento de meta-nivel, y el resultado del me­ ta-nivel arrojará para cada argumento el estatuto de justificado, discutible o infundado, [énfasis añadido] (Atkinson y Bench-Ca­ pon, 2007). El nivel de resolución conflictiva de la jerarquía del marco argumentativo estaría equipado con esquemas argumentativos para razonar sobre hechos que incluyen preguntas críticas que apuntan a evaluar jurídicamente las afirma­ ciones factuales. Estas, a su vez, proporcionan una base para el ordenamiento preferencial de las afirmaciones factuales en competencia. Por ejemplo, las pre­ guntas críticas sobre afirmaciones factuales prueban la credibilidad del testigo cuyo testimonio respalda la afirmación: ¿el testigo está sesgado? ¿Se hallaba el testigo en posición de conocer? En los contextos modernos de litigación, el testimonio de los testigos expertos estaría sujeto a preguntas críticas como: ¿es el testigo un experto en el dominio o campo relevante? ¿Es la afirmación del testigo consistente con lo que otros expertos sostienen? ¿La afirmación del testigo experto está basada en la evidencia? (véase Walton y Gordon, 2005).

Si se obtuvieran las respuestas a esas preguntas críticas,'ellas propor­ cionarían una base para resolver un conflicto factual, como el conflicto que se muestra en la Figura 5.9 entre Hl e Y2, en este caso a favor del demandante Young, dado que el demandado aparece como un testigo sesgado. Entonces, los resultados de aplicar las preferencias serían comparados en función del -227-

Kevin D. Ashley

estándar de prueba relevante. (Para una definición de los estándares de prueba formulada por Carneades, véase el lado derecho de las Tabla 5.2). Aquellos que no sobrevivan serían removidos: Qué argumentos poseen un respaldo insuficiente depende del es­ tándar de prueba aplicable en el contexto: si el estándar empleado es el de “más allá de toda duda razonable”, sólo los argumentos justificados serán retenidos; en cambio, si el estándar es el de “destellos de prueba” (o prueba de escaso valor), entonces todos los argumentos pueden ser retenidos (Atkinson y Bench-Capon, 2007).

Como resultado de este proceso, habrá un “conjunto único de argumen­ tos aceptados, que serán justificados en un grado representado por su número más débil” (Atkinson y Benc-Capon, 2007).

5.5.2. La resolución de argumentos conflictivos sobre valores

Como se muestra en la Figura 5.9, el argumento de Young supone ape­ laciones conflictivas a valores subyacentes. Por ejemplo, Y3 (i.e., “Ellos eran mis peces debido a que no tenían posibilidad de escapar. Garantizar la posesión con este grado de control fomenta la pesca”.)

ataca (—>) H2 (i.e., “Los peces estaban disponibles para ser capturados, dado que no habían sido atrapados. Argumento de línea brillante basado en la necesidad de claridad”.)

H3 (“La competencia es algo esperable en los negocios. Configuran­ do valor para H4”.) y H4 (“Yo no debería ser sancionado, pues eso inhibiría la competencia vigorosa. Replicar recurriendo al valor de la competencia”) ataca (->)

Y5 (“Hitchens debería ser sancionado por prácticas injustas, tal como su amenaza a la industria pesquera. Recurrir al valor de fomentar la pesca”.)

¿Cómo hace un VAF para respaldar/resolver argumentos sobre valores como Y3 vs. H2? De acuerdo a Atkinson y Bench-Capon (2007), “próxima­ -228

Los modelos computacionales de argumentación jurídica

mente necesitamos realizar una comparación valorativa: ¿deberíamos preferir... a fin de fomentar la pesca o la claridad?”

A los efectos de realizar esta clase de comparación, los autores necesi­ tan algún ordenamiento de los valores en competencia. Como lo manifiestan Atkinson y Bench-Capon (2007):

Necesitaremos alguna indicación de cuál es el ordenamiento correcto de los valores en competencia, y aquí los precedentes se tornan relevantes... Es posible confiar en los precedentes para mostrar que un ordenamiento particular fue utilizado en el pasado, como también es posible citar a las autoridades para conferirle un peso determinado a la adopción de un ordenamiento particular o apelar a un argumento teleológico que justifique el orden.... Hitchens puede citar aPierson, mientras que Young puede valerse de Keeble como un contraejemplo. Hitchens pue­ de distinguir Keeble, bajo el fundamento de que Keeble estaba en su propio campo y que esta fue la razón para concederle la posesión de los patos. Hay argumentos basados en casos que son similares a aquellos que vi­ mos en el ejemplo anterior de Carneades. En el VAF, sin embargo, ellos son formulados en el meta-nivel de la jerarquía del marco argumentativo, con el propósito de resolver el conflicto valorativo (una vez más, aplicando el estándar de prueba relevante). Las preferencias valorativas están basadas en el punto de vista de Bench-Capon/Sartor de que los casos inducen una teoría de prefe­ rencias entre valores. Es decir, el ordenamiento se infiere de los resultados de los precedentes en los que algunos valores fueron preferidos a sus competidores, según el modelo de construcción de teorías a partir de factores y preferencias valorativas que aparece en Bench-Capon y Sartor (2003) (véase al respecto la Sección 3.5.1).

5.5.3. La resolución de argumentos conflictivos sobre normas ju­ rídicas

Aunque el VAF en Young no incluye ejemplos de resolución de argumen­ tos conflictivos sobre normas jurídicas, los ejemplos de Carneades ofrecidos más arriba convalidan la siguiente idea. En el VAF, los argumentps conflictivos sobre normas serían resueltos en el meta-nivel con los mismos tipos de esque­ mas argumentativos para razonar con normas jurídicas derrotadles, según lo ilustrado más arriba.

-229-

Kevin D. Ashley

Además, algunos modelos computacionales de razonamiento jurídico como Carneades complementan esos esquemas argumentativos con los así llamados Cánones de Construcción o Máximas de Interpretación, principios interpretativos más generales para resolver los argumentos conflictivos sobre normas jurídicas, tales como:



Lex Specialis: Las normas más específicas tienen prioridad sobre las normas más generales.



Lex Superior: Las normas respaldadas por una mayor autoridad tienen prioridad sobre las normas respaldadas por una menor autoridad (por ejemplo, una ley federal tiene prioridad sobre una ley estatal).



Lex Posterior: Las normas de menor antigüedad tienen prioridad sobre las normas de mayor antigüedad.

En Gordon y Walton (2006), el programa Carneades aplicó el principio de Lex Specialis para resolver un conflicto entre dos normas derivadas de los precedentes, referidas al significado de la expresión “lesión corporal grave”. Una norma establecía que “varias costillas rotas no equivalen a una lesión cor­ poral grave” y otra regla sostenía que “varias costillas rotas con complicaciones equivalen a una lesión corporal grave”. Al aplicar el principio de Lex Specialis, en donde el problema supuso varias costillas rotas con complicaciones, el programa resolvió los argumentos en conflicto derivados de las dos normas a favor de la segunda norma, es decir, la más específica. Aunque la aplicación de un Canon de Construcción resuelve convenien­ temente el conflicto normativo en este simple ejemplo, el enfoque plantea algunas preguntas que se discutirán a continuación.

5.6.

¿CUÁN PRÁCTICOS SON LOS MODELOS COMPUTACIONALES DE ARGUMENTACIÓN JURÍDICA?

Dejando de lado las contribuciones importantes de los modelos compu­ tacionales de argumentación jurídica, uno razonablemente podría preguntarse si, cuándo y de qué manera estos modelos representarán una contribución práctica para el ejercicio del Derecho. En primer lugar, los ejemplos anteriores de argumentación jurídica todavía son, después de todo, ejemplos de cartulina. Las situaciones fácticas son simples y escasas desde el punto de vista numérico, y las fuentes jurídicas desde las cuales realizar un argumento suponen, como mucho, una media docena de normas o casos. Los programas ilustrados hasta ahora no han sido aplicados en relación con

-230-

Los modelos computacionales de argumentación jurídica

cientos de casos y ciertamente no lo han sido en casos que revisten un formato tex­ tual. Todos los recursos jurídicos son introducidos y representados manualmente. Los esquemas argumentativos, hasta donde alcanzan, son jurídicamente realistas, pero su aplicación puede parecer en cierto punto ad hoc. En tal sentido, considérese el principio de Lex Specialis. En el ejemplo anterior, este principio es invocado convenientemente a fin de resolver un conflicto entre dos normas derivadas de los precedentes. Sin embargo, uno podría imaginar un argumento en contra de la aplicación de este principio de interpretación legal para resol­ ver un conflicto entre normas que hayan sido elaboradas en diferentes casos por los tribunales. La confianza en la utilidad de los Cánones de Construcción puede variar entre sistemas jurídicos que respondan a la tradición del civil law o del common law. En un clásico artículo de 1949, Karl Llewellyn argumentó que los Cánones de Construcción son meros tapagujeros. En particular, cada canon tenía un “contra-canon” que conduciría a una interpretación contraria de la ley (Llewellyn, 1949). Así, el principio de Lex Specialis podría aplicarse, pero su aplicación estaría sujeta a un argumento para el cual no se hubieran provisto esquemas apropiados. En segundo lugar, los Modelos Computacionales de Argumentación Ju­ rídica no han sido evaluados empíricamente. Por supuesto, evaluar un modelo computacional de argumentación no resulta una tarea sencilla. Sin embargo, hemos visto al menos dos enfoques tendientes a evaluar programas que ge­ neran argumentos jurídicos. Uno puede solicitar que tanto los seres humanos como el programa generen argumentos sobre las mismas situaciones fácticas, invitando a un experto humano a puntuar estos argumentos en una evaluación ciega, como lo hizo Branting con GREBE (véase la Sección 3.3.3). Otro enfo­ que para evaluar un modelo argumentativo consiste en determinar cuán bien predice resultados de casos en comparación con otros enfoques. Por ejemplo, algunas versiones del modelo CATO de argumentación jurídica basada en casos fueron evaluadas por medio de una comparación de sus resultados predictivos con aquellos formulados por otros modelos, como la Predicción basada en Problemas, descripta en el Capítulo 4. Una evaluación semejante de un nuevo MCAJ, el modelo VJAP, se describe más abajo. En tercer lugar, aunque muchos de los estándares de prueba tienen nom­ bres jurídicos familiares, la operacionalización de ellos que realiza el MCRJ no parece corresponderse en demasía con las versiones jurídicas dé esos están­ dares. Como se explica más abajo, los estándares jurídicos de prueba como el de la “preponderancia de la evidencia” están referidos a conceptos que son difíciles de modelar computacionalmente.

-231-

Kevin D. Ashley

5.6.1. El rol de los estándares de prueba en los Modelos Computacionales de Argumentación Jurídica Los estándares de prueba constituyen un elemento familiar de los argu­ mentos jurídicos. Por ejemplo, “más allá de toda duda razonable”, el estándar de prueba utilizado para condenar penalmente a un acusado, demanda una prueba “tan convincente que una persona razonable no dudaría en emplear; una prueba que produzca una convicción firme... tal que no haya posibilidad de que dicha persona no sea culpable” (Weiss, 2003). Como ya se ha notado, los estándares de prueba también desempeñan un rol importante en los modelos computacionales de argumentación. “La aceptabilidad de una afirmación depende de su estándar de prueba”. El hecho de que se satisfaga el estándar de prueba de una afirmación depende de si los argumentos a favor y en contra de esa afirmación son defendibles. El que un argumento sea defendible depende de si se sostienen sus premisas. El que sus premisas se sostengan depende a su vez de si lo afirmado por ellas es aceptable, y así sucesivamente (Gordon et al., 2007, p. 884).

Una comparación entre las descripciones de los estándares de prueba jurídicos y los empleados por Carneades muestra la dificultad de desarrollar implementaciones computacionales que guarden correspondencia con al menos algunos de los estándares jurídicos. ‘Más allá de toda duda razonable’ deman­ da una evidencia “tan convincente que una persona razonable no dudaría en emplear; una prueba que produzca una convicción firme”. La implementación computacional de nociones tales como la razonabilidad de una creencia o convicción humana no es tarea sencilla. De hecho, los autores “no afirman que las definiciones de estos estándares capturen en su totalidad sus significados jurídicos”. Las versiones de Carneades, sin embargo, preservan el grado relativo de rigor de los estándares jurídicos (i.e., Más allá de toda duda razonable > Validez Dialéctica > Preponderancia de la Evidencia > Destellos de Evidencia)3. “Si una afirmación satisface un estándar de prueba, también satisfará todos los estándares de prueba más débiles” (Gordon y Walton, 2006).

Como estándar jurídico, “destello de evidencia” es arcaico. En realidad, se requiere más que un “destello de evidencia”. Por ejemplo, el test de “evidencia sustancial” en derecho administrativo requiere “tal evidencia relevante que una mente razonable pueda aceptar como adecuada para apoyar una conclusión” (Feller, 2015).

-232-

Los modelos computacionales de argumentación jurídica

Tabla 5.2. Algunos estándares de prueba en Carneades (Gordon y Walton, 2006) y sus contrapartes jurídicas (Weiss, 2003; Feller, 2015). Estándar de Pruebsi Formulación Jurídica

Versión de Carneades

Destellos de evidencia

Un mero destello de evidencia que sea suficiente para justificar una sospecha no es suficiente para fundamentar un descubrimiento en el que descansan derechos y obligaciones jurídicas. Eso requiere “evidencia relevante tal como la que una mente razonable podría aceptar como adecuada para fundamentar una conclusión”.

Una afirmación satisface este estándar si y sólo si es respal­ dada por al menos un argu­ mento defendible a su favor.

Preponderancia de la evidencia (Derecho Civil)

Este estándar requiere que la existencia de un hecho controvertible sea más probable que improbable."

Una afirmación satisface este estándar si y sólo es respaldada por al menos un argumento defendible a su favor y el argumento defendible a su favor más poderoso tiene mayor peso que el argumento más poderoso defendible en su contra, si lo hubiera. Este estándar sopesa argumentos mediante la utilización de pesos probatorios.

Validez dialéctica

No aplicable.

Una afirmación satisface este estándar si y sólo si es respal­ dada por al menos un argu­ mento defendible a su favor y ninguno de los argumentos en su contra es defendible.

Más allá de toda duda razonable (Derecho Penal)

Este estándar requiere prueba que sea tan convincente que una persona razonable no dudaría en emplear; una prueba que pro­ duzca una convicción firme... tal que no haya posibilidad de que dicha persona no sea culpable.

Una afirmación satisface este estándar si y sólo si es respaldada por al menos un argu­ mento defendible a su favor, todos los argumentos a su favor son defendibles y ninguno de los argumentos en su contra son defendibles.

-233

Kevin D. Ashley

5.6.2. La integración del razonamiento probabilístico en los Modelos Computacionales de Argumentación Jurídica Una última crítica a los Modelos Computacionales de Argumentación Jurídica podría ser que los modelos argumentativos han tendido a mezclar todas juntas cuestiones fácticas, jurídicas y valorativas que desde el punto de vista procedimental se resuelven en diferentes niveles jerárquicos o que co­ rresponden a etapas diferentes de un proceso judicial. Véase, por ejemplo, la mezcla de argumentos factuales y basados en valores en el VAF del caso Young, ilustrado en la Figura 5.9. Los Modelos Computacionales de Argumenta­ ción Jurídica también tienden a simplificar en demasía las realidades de la práctica jurídica. Obtener respuestas precisas a preguntas críticas sobre afirmaciones fácticas no es un asunto trivial. Determinar la credibilidad de los testigos representa un trabajo tanto para los jurados como para los jueces de carne y hueso. Saber qué preguntas críticas formular en un determinado contexto es el trabajo característico de un consejero legal alerta. Y esto probablemente vaya más allá de lo que es capaz de hacer cualquier Modelo Computacional. Esta crítica, no obstante, puede perder de vista el punto central de un modelo computacional de argumentación jurídica. Estos modelos, dotados de sus esquemas argumentativos y provistos previamente con sus preguntas críticas generales, más bien podrían ser pensados como herramientas para posibilitar que los abogados modelen lo que podría ocurrir sobre la base de diversas suposiciones sobre la credibilidad o consistencia de un testigo a la luz de otros testimonios.

De este modo, un MCAJ podría ser visto como una herramienta para planear un argumento jurídico. Un litigante podría usar la herramienta para explorar los posibles resultados de sus argumentos. El litigante podría añadir todos los argumentos factuales, jurídicos, normativos y procedimentales que podría anticipar, observar cuáles son los resultados que el modelo predice y evaluar la sensibilidad de las predicciones ante los diversos cambios introdu­ cidos por los argumentos y suposiciones que vayan surgiendo sobre la marcha. Al menos, ese sería el objetivo de los modeladores de argumentos jurídicos: crear una herramienta práctica para la planificación de argumentos. Este objetivo podría ser más factible si los litigantes pudieran introducir sus mejores evaluaciones de la probabilidad de éxito de sus argumentos parti­ culares a la luz de las incertidumbres del litigio. En muchos contextos prácticos, las proposiciones de un argumento jurídico son inciertas. Hay incertidumbre, por ejemplo, sobre si un hecho es verdadero, o, quizá de modo más pertinente, -234-

Los modelos computacionales de argumentación jurídica

acerca de si será aceptado como evidencia o acreditado por un juzgador de los hechos. De modo similar, hay incertidumbre sobre si un tribunal aceptará las recomendaciones del abogado sobre qué ley se aplicará, cómo se interpretará su significado y cómo se aplicará a los hechos de un caso. Al momento de planificar un argumento jurídico, sería útil integrar el razonamiento sobre estas incertidumbres en los modelos computacionales de argumentación. Por algo la probabilidad debería entrar en los estándares de prueba. Como se indica en la columna del medio de la Tabla 5.2, el estándar de la preponderancia de la evidencia se expresa en términos probabilísticos: la existencia de un hecho controvertido es más probable que improbable. Bajo la caracterización de Atkinson y Bench-Capon (2007):

En un [marco de argumentación abstracta]..., en casos en donde la información es incompleta, podemos [tener una] falta de conocimiento sobre si un hecho se da o no. Necesitaríamos... ofrecer algunos estándares intermedios entre lo que resulta más allá de toda duda razonable y lo que resulta un mero destello de evidencia. Una manera de manejar esto si la información se halla disponible sería asociar los argumentos con proba­ bilidades. Los argumentos en competencia podrían entonces ser comparados en función del éxito de sus respectivas probabilidades:

Cuando tenemos que tomar decisiones..., podemos calcular la probabilidad de [que una opción sea] la opción correcta. Este tipo de enfoque, basado en las probabilidades para cada argumento, ciertamente sería capaz de dotar de contenido a la noción de “balance de probabilidades”... Sin embargo, nosotros no creemos que ese tipo de información se encuentra normalmente dispo­ nible (Atkinson y Bench-Capon, 2007).

La integración de las probabilidades en los Modelos Computacionales de Argumentación Jurídica plantea al menos dos problemas: El primero de ellos es el de cuán bien ha de organizarse la integración. Puesto que las aserciones factuales son inciertas, el estatuto del que gozan en un argumento podría expresarse mejor por medio de las probabilidades que detentan sobre los estatutos alternativos. Si el formalismo argumentativo pu­ diera entonces computar las probabilidades sobre el estatuto de las aserciones no factuales inferidas, pero aun así propagara argumentos en consonancia con el formalismo argumentativo, esa podría ser una integración efectiva. El modelo

235 -

Kevin D. Ashley

cualitativo de argumentación podría así ampliarse hasta respaldar métodos cuantitativos para razonar sobre la incertidumbre.

Las redes bayesianas constituyen un método cuantitativo semejante para razonar sobre la incertidumbre. Ellas se usan por lo general para mode­ lar dependencias condicionales entre un conjunto de variables aleatorias. Por ejemplo, las probabilidades de que condiciones inferidas como las enfermeda­ des puedan ser computadas a partir de ciertos hechos o síntomas observables. Como se explica en la Sección 7.5.3, las redes bayesianas reducen la comple­ jidad computacional y se integran muy bien con los métodos de aprendizaje automático (AA) o machine learning (ML). Un método sistemático para reducir los gráficos argumentativos de Carneades a redes bayesianas se presenta en Grabmair et al. (2010), en donde también se analizan otros enfoques a una integración semejante. Un segundo problema es el siguiente: “¿De dónde provendrán las proba­ bilidades?”. Quienes litigan suelen tener intuiciones sobre las incertidumbres asociadas a los diversos elementos empleados en sus argumentos. Estas incluyen cosas tales como la posibilidad de hacer que un juzgador de los hechos crea en una inferencia factual cualquiera o que le asigne un valor particular a la consecuencia de una resolución propuesta. Ellos podrían estimar estas incer­ tidumbres y asignarlas como pesos a las aserciones factuales y los argumentos representados en un diagrama argumentativo. La subjetividad de fijar pesos in­ tuitivamente se corrige hasta cierto punto mediante la posibilidad de realizar una prueba sensible, es decir, permitiendo que sea el usuario quien evalúe de qué modo los cambios en los pesos asumidos afectan las predicciones y los argumentos.

Otra fuente de la que surgen las probabilidades es ofrecida por los datos externos contenidos en los cuerpos y bases de datos. En el Capítulo 4 hemos visto las probabilidades que se derivan de aquellas características que resumen la información sobre los casos, los tribunales, los jueces, sus antecedentes y las tendencias judiciales (véase la Figura 4.3). Más abajo, veremos las probabili­ dades que se derivan de algunas resoluciones anteriores vinculadas a valores en conflicto (aunque tomando en cuenta un conjunto de casos más extenso y una mayor sensibilidad contextual que las tomadas en cuenta en el enfoque de Bench-Capon y Sartor (2003), analizado en la Sección 3.5.1). Sin embargo, constituye una pregunta aparte si estos dos enfoques sobre la utilización de datos externos para proporcionar probabilidades a los Modelos Computacionales de Argumentación Jurídica pueden derivar esas probabilidades de manera directa de los textos jurídicos. El enfoque que se desprende del trabajo predictivo de Katz et al. (2014) sobre la Corte Suprema

236-

Los modelos computacionales de argumentación jurídica

de los Estados Unidos probablemente sea incapaz de emplear directamente los textos correspondientes a los casos reunidos en los cuerpos y bases de datos, pues depende del diseño de propiedades como las actitudes y tendencias de los jueces. Y ellas, probablemente, no puedan extraerse automáticamente de los textos casuísticos. Dos modelos computacionales restantes de argumentación jurídica pue­ den funcionar mejor en este sentido. El modelo de predicción argumentativa basado en juicios de valor (PAJV) [valué judgment-based argumentative prediction model -VJAP) que se discute en lo que sigue (al igual que el enfoque de Bench-Capon y Sartor (2003)) confía en la asignación manual de los factores jurídicos. El DLF (definido en la Sección 5.8), el cual modela la argumenta­ ción jurídica en materia de evidencias, también confía, entre otras cosas, en la asignación manual de los factores evidencíales. Echando mano a las técnicas de la analítica textual explicadas en las Partes II y III, ambos tipos de factores pueden llegar a ser automáticamente extraídos de los textos casuísticos y prestar asistencia en la predicción de resultados.

5.7.

EL MODELO DE PREDICCIÓN ARGUMENTATIVA BASADO EN JUICIOS DE VALOR

Grabmair ha implementado el modelo PAJV, un modelo orientado a ge­ nerar argumentos y predicciones que tomen en cuenta los valores que subyacen a las normas jurídicas. Él ha implementado los esquemas argumentativos en un programa computacional que predice los resultados de los casos basándose en los argumentos resultantes y ha probado el programa en el ámbito de la ley de secretos comerciales, el mismo ámbito de aplicación utilizado en Hypo, CATO y los programas de IBM (véase Grabmair y Ashley, 2010, 2011; Grabmair, 2016).

Su enfoque está basado en un supuesto intuitivamente plausible sobre el razonamiento jurídico: al momento de arribar a una decisión, los jueces con­ sideran los efectos que tal decisión tendría en los valores aplicables y evalúan si ellos son preferibles a los efectos que producirían decisiones alternativas. Un juez debe formular un juicio de valor, es decir, una determinación de que en una situación de hecho particular los efectos positivos de una decisión superarán a los efectos negativos. Semejantes juicios de valor, según se cree, poseen una dependencia contextual elevada; es decir, ninguna jerarquía valorativa abstracta determina el juicio de valor aplicable en un caso particular. En su lugar, el razonamiento 237-

Kevin D. Ashley

jurídico supone realizar un mapeo y aplicar los juicios de valor de un contexto factual a otro contexto factual. Esto es realizado por medio de un argumento según el cual tanto el conjunto de hechos de un caso fijado como objetivo como el contexto factual originario del caso fuente son instancias de un concepto abstracto en una norma jurídica, el cual, dados los efectos que se generan en valores aplicables, justifica que ambos deban tener un resultado particular.

Apropiación-Indebida-SecretosComerciales

Información-Secretos-Comerciales

F8 Ventaja-Competitiva (P) F11 Conocimiento-Vertical (D) F15 Producto-Único (P) F16 Información-lngenieria-lnversa (D) F20 Información-Conocida-ACompetidores (D) F24 Información-Obtenible-Otra-Parte

F7 Trajo-Herramientas (P) F8 Ventaja-Competitiva (P) F14 Materiales-Utiiizados-Restringidos (P) F17 Información-GeneradaIndependientemente (D) F18 Productos-Idénticos (P) F25 Información-lngenieria-lnversa (D)

F4 Acuerdo-No-Divulgación (P) F6 Medidas-de-Seguridad (P) F10 Secretos-Divulgados-Extraños (D) F12 Divulgaciones-ExtrañosRestringidas (P) F19 Sin-Medidas-de-Seguridad (D) F27 Divulgación-Lugar-Público (D)

F2 Empleado-Sobornado (P) F3 Empleado-Único-Desarrollador (0) F7 Trajo-Herramientas (P) F14 Materiales-Utilizados-Restringidos (P) F17 Informaclón-GeneradaIndependientemente (D) F22 Técnicas-Invasivas (P) F25 Información-lngenieria-lnversa (Dj F26 Engaño (P)

F1 Divulgación-En-Negociaclones (D) F4 Acuerdo-no-específico (P) F5 Acuerdo-No-Divulgación (D) F13 Acuerdo-No-Competencia (P) F21 Conocla-Información-Confidenclal (P) F23 Renuncia-Confidencialidad (D)

Figura 5.10. El modelo de dominio PAJV (Gabmair, 2016) Con el propósito de respaldar estos argumentos, Grabmair preparó un modelo de dominio de los conceptos abstractos, es decir, de los ILC emplea­ dos en las normas para resolver una disputa, del conjunto de valores y efectos valorativos subyacentes a la regulación de los secretos comerciales y de los esquemas argumentativos que estén disponibles tanto para quienes presenten una demanda por la apropiación indebida de un secreto comercial como para quienes se opongan a la misma.

238-

Los modelos computacionales de argumentación jurídica

Los ILC son términos jurídicos de textura abierta cuyos significados frecuentemente presentan algún grado de vaguedad o ambigüedad (véase la Sección 2.2.1), por lo que están sujetos a argumentación. Un concepto jurídico intermedio como “propiedad, ciudadanía, tutela, fideicomiso, posesión, etc.” “se erige como un medio entre los requisitos y las consecuencias”. Resulta “intermedio” en el sentido de que alguna regla o norma al inicio de una cadena de reglas o normas especifica los requisitos fácticos que deben darse para que los términos jurídicos precedentes se apliquen, y esos términos jurídicos, a su vez, son los requisitos que aparecen en otras reglas o normas que en última instancia implican las consecuencias legales o normativas (Lindahl, 2004; Wyner, 2008).

5.7.1. El modelo de dominio PAJV Para construir el modelo de dominio PAJV, Grabmair adaptó el modelo de dominio del programa IBM (Figura 4.4). Como lo muestra la Figura 5.10, él modificó la lógica del problema de la Apropiación-Indebida-de-Información, introdujo un nuevo subproblema o categoría, Agravio [Wrongdoing] y re­ organizó o añadió algunos factores jurídicos que el modelo original había omitido. Los problemas y subproblemas, así como sus conexiones lógicas en el dominio del modelo PAJV, abarcan los ILC y las normas jurídicas vinculadas con la definición de una demanda por apropiación indebida de secretos comerciales:

rtsm: demanda-por-apropiación-indebida-de-secreto-comercial < A > quien califica para el asegurado luego de haber sido des­ calificado, < /A >

< C > los términos del asegurado son añadidos conjuntamente.

-406-

La extracción de información de los textos legislativos y regúlatenos

< T2 > Por el monto de pensión fijado en esta ley < /T2 > < A > cuando hay un cambio notable en el estándar de vida de la nación o en otras situaciones, < /A > < C > una revisión del monto de la pensión debe actuarse con prontitud para hacer frente a las situaciones. < /C > Figura 9.3. Una muestra de oraciones legislativas anotadas en función de sus partes lógicas: antecedentes < A >, consecuentes < C >y tópicos (Bach et al., 2013)

Por ejemplo, para la disposición “Los proveedores deben proporcionar un medio para que el consumidor monitoree el progreso del reclamo”, las representaciones semánticas identificaron individuos, eventos, relaciones y relaciones temporales. La herramienta identificó el verbo debe, pero no indicó al sujeto de la obligación ni tampoco el alcance del operador modal. Finalmen­ te, la representación no capturó la aplicación de la norma a los proveedores, en general. Para tener algún éxito én la extracción automática de reglas lógicas de los textos legislativos, parece necesario concentrarse en un área reducida del Derecho e identificar estructuras lógicas características de esa área que puedan usarse como plantillas para las reglas.

Por ejemplo, un proyecto aplicó el AA para extraer estructuras lógicas de párrafos de la legislación en un corpus que involucraba la Ley Nacional de Pensiones de Japón. Los estudios sistemáticos de las disposiciones de múltiples oraciones en el corpus habían identificado cuatro tipos de relaciones entre las oraciones principales y subordinadas, así como sus estructuras lógicas asocia­ das para usar como plantillas (Takano et al., 2010). Los autores en Back et al. (2013) presentaron un marco de dos etapas para extraer de los párrafos reglas lógicas que impusieran obligaciones sobre agentes específicos bajo condiciones específicas. El programa aprende primero un clasificador para identificar las “partes lógicas”, incluyendo los antecedentes (A), los consecuentes (B) y los tópicos (T) que figuran en las leyes. La Figura 9.3 muestra dos ejemplos de oraciones legislativas anotadas para esas partes lógicas. A partir de las partes, el programa luego aprende un clasificador que selecciona una plantilla apropiada con la cual combinar las partes en estructuras lógicas y una regla, completa.

Dado un nuevo párrafo legal, el primer clasificador identifica sus partes lógicas, el segundo clasificador selecciona las plantillas lógicas aplicables y el sistema confecciona la regla lógica basándose en las plantillas. Los autores demostraron algún éxito con un subconjunto de estructuras lógicas identifi­ -407

Kevin D. Ashley

cadas en la mencionada ley japonesa, pero la segunda fase del sistema, tras identificar las plantillas de estructura lógica en un párrafo de esa ley, trabajó considerablemente mejor con las partes lógicas suministradas como insumos por expertos humanos que con las partes que el sistema identificó automáti­ camente (Back et al., 2013, p. 3:27).

La extracción de reglas mediante la focalización en áreas reducidas de la regulación jurídica y la identificación de estructuras lógicas características de esas áreas también han sido aplicadas al momento de modelar regulaciones que gobiernan el diseño de productos tales como edificios.

9.6. LA EXTRACCIÓN DE REQUISITOS PARA EL DISEÑO DE PRODUCTOS COMPATIBLES CON LAS LEYES El cumplimiento de las regulaciones, discutido en la Sección 2.5.1, constituye una preocupación práctica importante en muchas industrias que involucran el diseño de productos, sistemas y otros artefactos. Por ejemplo, los códigos de construcción especifican restricciones sobre los diseños arquitec­ tónicos de los edificios, como la regla de que “los patios [courts] (es decir, las áreas abiertas rodeadas por paredes) no deben medir menos de 3 pies de ancho”. Los códigos regulatorios gobiernan el diseño de productos en muchas áreas de la ingeniería civil, eléctrica y ambiental. Los códigos varían amplia­ mente entre regiones, comunidades y niveles gubernamentales. Incluso a pesar de que las regulaciones pueden limitar el diseño de un producto o sistema, los ingenieros industriales o en sistemas podrían no estar al tanto de qué regulacio­ nes se aplican. De modo inverso, el equipo jurídico podría no comprender los aspectos técnicos de los diseños propuestos, lo que podría impedirles apreciar las implicaciones regulativas de los mismos.

Consideraciones de este tipo han llevado a los investigadores a intentar extraer reglas automáticamente de los textos regulatorios, de modo tal que ellas puedan aplicarse de manera más o menos automática a fin de evaluar si los diseños propuestos satisfacen las restricciones legales. Por ejemplo, un enfoque extrae automáticamente la información de un corpus de regulaciones sobre la construcción y la transforma en cláusulas lógicas que podrían usarse directamente para verificar automáticamente que cumplen con las leyes (Zhang y El-Gohary, 2015). Los autores desarrollaron un enfoque multinivel que involucra:

408-

La extracción de información de los textos legislativos y regúlatenos

1.

La clasificación de textos (TC): la TC basada en el AA identifica las oraciones que contienen los tipos de requisitos relevantes para verificar el cumplimiento legislativo automático (i.e., los requisitos regulatorios en la industria de la construcción),

2. La extracción de información: el método semántico NLP, basado en reglas, identifica en las oraciones relevantes las palabras y oracio­ nes que llevan información de destino y las etiqueta con etiquetas informativas predefinidas, y 3.

Reglas de transformación de información (ITr): Los algoritmos semán­ ticos de NLP (ITr) emplean reglas de coincidencia de patrones para transformar la información extraída en oraciones lógicas con las que un programa lógico puede razonar. Las reglas emplean información sintáctica y también alguna información semántica.

Por ejemplo, TC reconoce como relevante para validar que los diseños de construcción cumplen automáticamente con las leyes una oración como la siguiente: “los patios no deben medir menos de 3 pies de ancho”. Él etiqueta palabras y frases etiquetadas, tales como:

Sujeto: Patio Atributo para la validación del cumplimiento normativo: Ancho Relación comparativa: No menos que Valor cuantitativo: 3 Unidad cuantitativa: Pies Referencia cuantitativa: No aplicable.

Luego, una regla ITr se dispara; su lado izquierdo identifica un patrón normativo: Sujeto + verbo modal + negación + ser + relación comparativa + valor cuantitativo + unidad cuantitativa + preposición + atributo para la validación de cumplimiento normativo. El lado izquierdo de esta regla es: “Generar predicados para la instancia informativa ‘sujeto’, para la instancia informativa ‘atributo’ y para la instancia informativa ‘tiene’”.

Una vez que las reglas ITr han generado elementos, un mecanismo de consumo y generación combina los elementos en una cláusula lógica:

cumplidor-ancho-de-patio(Patio) si ancho(Ancho), patio(Patio), tiene(Patio, Ancho), más-grande-que-o-igual(Ancho, cantidad(3, pies)) -409-

Kevin D. Ashley

Las reglas para la coincidencia de patrones de ITr fueron desarrolladas tomando como referencia dos capítulos del Código Internacional de Cons­ trucción y evaluadas sobre la base del texto de un tercer capítulo, que ofició como el estándar de oro. En ese tercer capítulo, 62 oraciones que contenían requisitos cuantitativos fueron identificadas automáticamente, a partir de las que se construyeron manualmente 62 cláusulas lógicas que involucraron un total de 1.901 elementos lógicos. Un experimento evaluó el nivel de precisión y exhaustividad de las reglas para la coincidencia de patrones del sistema ITr al momento de generar esos 1.901 elementos lógicos, para lo cual se basó en las etiquetas automáticamente extraídas del tercer capítulo. Se pusieron en funcionamiento dos versiones del experimento, una con un conjunto de etiquetas informativas más pequeño y una con un conjunto más inclusivo. La última versión produjo mejores resul­ tados: un nivel de precisión del 98,2%, un nivel de exhaustividad del 99,1% y una medida F1 del 98,6% (Zhang y El-Gohary, 2015). Los autores determinaron que los errores al momento de identificar los elementos lógicos de las oraciones fueron causados por problemas para identificar las etiquetas producidos en el proceso de El, por errores en el procesamiento de oraciones con estructuras expresivas poco habituales, por errores de coincidencia debidos a características morfológicas, por problemas con ciertas reglas para la coincidencia de patrones y por la am­ bigüedad estructural que presentaban los textos regulatorios en el uso de conjunciones. Por ejemplo, el alcance de “y” en “los segmentos del muro de corte brindan soporte lateral a los pilares del muro y dichos segmentos tienen una rigidez total...” no está especificado. Dicha conjunción puede unir “pilares del muro” y “dichos segmentos”, así como la cláusula ante­ cedente y la siguiente. Este constituye un ejemplo interesante del desafío de lidiar con la ambigüedad semántica en el universo de las leyes jurídicas (Sección 2.2.2).

Más allá del enorme desempeño constatado, existen algunas limitaciones. Primero, el experimento se concentró solamente en el procesamiento de los requisitos cuantitativos. Estos son importantes en un código de construcción y en muchos códigos de ingeniería similares, pero incluso esos códigos emplean otros tipos de requisitos, no expresados en términos cuantitativos, que pueden ser más difíciles de analizar. Segundo, el experimento se limitó a evaluar un capítulo del Código Internacional de Construcción, debido en parte a la difi­ cultad de crear manualmente el estándar de oro.

-410-

La extracción de información de los textos legislativos y regulatorios

9.6.1. La implementación del cumplimiento normativo mediante regulaciones extraídas El proyecto de Zhang y El-Gohary (2015) acerca de la construcción de requisitos cuantitativos constituye un buen ejemplo de lo que implica extraer directamente reglas lógicas complejas de los textos regulatorios. Al igual que el enfoque de xmLegesClassifier y Extractor (Sección 9.3), combina el AA en el paso (1) para extraer los tipos de requisitos regulatorios y las reglas de KE en el paso (2) para extraer palabras y frases con las que operacionalizar una regla. No obstante, este trabajo da el importante paso adicional (3) de construir realmente una regla semejante, para que sea aplicada directamente al momento de evaluar el cumplimiento normativo. El proyecto se concentra en un tipo relativamente restringido de disposición regulatoria. Todavía no existe un enfoque general para extraer automáticamente las reglas lógicas de los textos que contienen regulaciones jurídicas. AA y KE dan un paso en esa dirección, si bien acomodar las partes extraídas en reglas lógicas demanda reglas especializadas y plantillas adaptadas a los patrones lógicos característicos de los tipos específicos de regulación.

El proyecto en Governatori y Shek (2012) que trata sobre el manejo de reclamos de los consumidores en el rubro de las telecomunicaciones (Sección 2.5.5) ejemplifica lo que es razonar con reglas lógicas para verificar automá­ ticamente el grado de cumplimiento normativo que presenta una institución del mundo real. Como tal, ilustra una forma ingeniosa de aplicar directamente las reglas lógicas en un contexto comercial de tipo realista. Los autores dieron cuenta del diseño de un entorno tecnológico que incorporó los requisitos regu­ latorios de reglas derrotables de construcción (todavía) manuales, tendientes a gobernar los sistemas de comunicaciones. Los diseñadores humanos que empleen las herramientas pueden diseñar un sistema de comunicación que garantice cumplir con las reglas lógicas extraídas de las regulaciones. Resulta interesante imaginar otros escenarios en los que las reglas lógicas extraídas automáticamente de los textos regulatorios podrían ser aplicadas directamente para monitorear el cumplimiento normativo en el mundo real de los negocios. En algunos contextos, las regulaciones jurídicas gobiernan los documentos corporativos, lo cual sugiere otra forma de aplicar directamente las reglas extraídas. Por ejemplo, el reglamento de aplicación de .la Ley sobre el Deber de Verdad en los Actos de Préstamo [Truth in Lending Act], Regula­ ción Z, 12 CFR Parte 226, especifica determinados requisitos regulatorios que deben satisfacerse si varias “palabras disparadoras” aparecen en propagandas. De acuerdo a la regulación, la mención de un Porcentaje de Tasa Anual en la -411-

Kevin D. Ashley

propaganda de una tarjeta de crédito dispara un requisito para formular ciertas revelaciones correspondientes. En este contexto de cumplimiento normativo, uno podría imaginar la posibilidad de extraer las reglas lógicas para monitorear estos requisitos publicitarios directamente de los textos regulatorios, a fin de aplicarlas directamente a los textos o transcripciones publicitarias (Deisher-Edwards, 2015).

9.6.2. Los enfoques semiautomáticos para mejorar la anotación humana tendiente a posibilitar el cumplimiento normativo

Los investigadores también han entrevisto técnicas semiautomáticas para extraer derechos y obligaciones de los textos regulatorios, como por ejemplo de la Ley de Responsabilidad y Portabilidad del Seguro de Salud de los Estados Unidos [Health Insurance Portability and Accountability Act] (HIPAA). Las téc­ nicas automáticas mejoran el desempeño de los anotadores humanos (Breaux et al., 2006). En Kiyavitskaya et al. (2008), los investigadores emplearon una herramienta de anotación semántica semiautomática, Cerno (véase Zeni et al., 2013), con una extensión para los textos regulatorios, Gaius T, que permite extraer derechos, obligaciones o excepciones de la disposición de la Regla de Privacidad de HIPPA. Cerno emplea una gramática contextualmente libre, es decir, reglas que describen cómo formular oraciones de los símbolos disponibles en un lenguaje que satisfacen la sintaxis del lenguaje, para generar así el árbol de análisis de un texto cuyos constituyentes son los elementos textuales del lenguaje jurídico. Las reglas de anotación analizan entonces los textos en cuestión, anotándolos mediante etiquetas que indican la presencia o ausencia de ciertos conceptos. Los conceptos son seleccionados de una ontología de dominio. Cada uno tiene un vocabulario asociado de indicadores, abarcando palabras literales y nombres de entidades analizadas que deben (o no deben) estar presentes. Finalmente, las reglas de transformación seleccionan algunos de los fragmentos textuales anotados y generan como resultados plantillas cuyos campos son llenados sobre la base de las anotaciones. A fin de extender la herramienta para anotar textos regulatorios, los autores analizaron manualmente un fragmento de la Regla de Privacidad de HIPAA y generaron listas de indicadores para cuatro conceptos principales:

1.

Derecho: una acción para la que un interesado cuenta con un permiso condicional;

-412-

La extracción de información de los textos legislativos y regulatorios

2. Obligación: una acción que un interesado debe realizar condicional­ mente; 3.

Restricción: la parte de un derecho u obligación que describe una única condición, sea previa o posterior; y

4. Excepciones: las cuales eliminan de un dominio la consideración de ciertos elementos (Kyyavitskaya et aL, 2008, p. 5). Al aplicar la herramienta a otros fragmentos de la Regla de Privacidad de HIPAA (así como a una disposición legal italiana), los investigadores compara­ ron los números de derechos, obligaciones, restricciones y referencias cruzadas identificadas por el sistema con aquellos otros números identificados por un ser humano. Los resultados fueron más o menos comparables. La evaluación demostró la necesidad de añadir una mayor cantidad de frases normativas para identificar las restricciones. Además, el sistema tuvo alguna dificultad a la hora de identificar a los sujetos y objetos de las restricciones, así como para identificar a los sujetos de las conjunciones y disyunciones.

De manera significativa, los investigadores compararon los resultados de dos grupos de anotadores humanos no expertos o legos: por un lado, quienes trabajaron con textos que Gaius T ya había anotado; y, por otro lado, quienes no lo hicieron así. El primer grupo alcanzó una tasa de productividad 10% superior a la tasa del segundo grupo, una tasa de rapidez 12% superior y una tasa de precisión en las anotaciones producidas semejante a la tasa del segundo grupo, que sí trabajó con los textos anotados automáticamente (Kiyavitskaya et al., 2008, p. 9).

De modo similar, en Yoshida et al. (2013), los autores demostraron que los seres humanos que anotaron las leyes en términos de diversas plantillas se desempeñaron con mayor precisión y eficiencia cuando tuvieron el respaldo de una herramienta que permitió destacar los términos en los documentos correspondientes a las plantillas. Los autores definieron tres plantillas a fin de capturar la información de los textos legales. Una plantilla definicional es usada para anotar las defini­ ciones de los términos jurídicos empleados en una ley. Una plantilla funcional identifica los tipos de procesos funcionales que demanda (o permite, etc.) una disposición legal. Una plantilla de datos identifica aquellos datos o información que una ley le demanda ingresar en el proceso funcional a la parte regulada. Los mismos autores asociaron diversas palabras, conceptos y frases con cada uno de los tres tipos de plantillas. Por ejemplo, la frase “de aquí en más será referido/a como...”, aparecida entre paréntesis, sugiere la aplicación de una

413-

Kevin D. Ashley

plantilla definicional. Términos sustantivos como “Notificación” o términos verbales como “informar a” sugieren la utilización de la plantilla de datos para especificar la información que la ley demanda presentar. Términos verbales como “abonar” sugieren procesos legales para la anotación con una plantilla funcional. Reconocimiento de desempleo

Artículo 15 (1) El subsidio básico se abonará en función de los días de desempleo de la persona que califica como beneficiaría (de.aquí en más será, referida como.“beneficiaria. calificada”., excepto en el apartado siguiente al apartado 4 inclusive)

(2) Una beneficiaria calificada deberá solicitar empleo... de con­ formidad con las disposiciones de la Ordenanza del Ministerio de Salud, Trabajo y Bienestar Figura 9.4. Sugerencias terminológicas para la anotación de plantillas (véase Yoshida et al., 2013)

Su herramienta pre-procesa textos legislativos para la anotación huma­ na, identificando las diversas palabras, conceptos y frases que les sugieren a los anotadores aplicar la plantilla asociada. Como lo ilustra la Figura 9.4, la herramienta utiliza una línea de subrayado para sugerir la plantilla de datos, una doble línea de subrayado para la plantilla funcional y una línea de puntos para la plantilla definicional. Un ser humano selecciona la plantilla asociada con la señal y manual­ mente completa la información requerida. La plantilla definicional solicita el término y la definición. En el contexto de la Figura 9.4, el término sería “beneficiaria calificada” y la definición sería “una persona que califica como beneficiaria”. La plantilla funcional solicita el proceso, cualquier calificación modal y las condiciones, por ejemplo “se abonará” o “en función de los días”. La plantilla de datos solicita el identificador del artículo, el actor, la acción, los datos y la fuente, el calificador modal y las condiciones, como “Artículo 15 (2)”, “funcionario público”, “insumo” [input], “datos relativos a la aplicación de empleo de la beneficiaria calificada”, “deberá”, “luego de perder el empleo”. En un pequeño experimento, dos grupos, cada uno compuesto por dos funcionarios públicos y un estudiante, anotaron múltiples disposiciones de una ley japonesa con la que no estaban familiarizados, un grupo con la he­ rramienta y el otro grupo sin ella. El objetivo de la tarea era el de anotar las

-414

La extracción de información de los textos legislativos y regúlatenos

funciones legislativas en las disposiciones, las que sumaban un total de 22, según determinación los investigadores. Los participantes en el grupo que empleó la herramienta completaron la tarea más rápidamente (un promedio de 9,5 horas vs. 11 horas) y alcanzaron un mayor grado de precisión y cobertura al momento de identificar las funciones.

Estos dos proyectos ilustran la utilidad de las herramientas que emplean reglas de ingeniería del conocimiento y plantillas para anotar parcialmente los textos en respaldo de la anotación humana. No sólo estas herramientas hacen más eficiente el trabajo de los anotadores humanos, sino que ellas también les permiten a quienes no son expertos realizar las anotaciones tan bien como quienes sí lo son. Esto podría contribuir a satisfacer la necesidad creciente de realizar anotaciones para indexar las leyes que garanticen la recuperación conceptual (Sección 6.5), así como de compilar conjuntos de entrenamien­ tos para que el AA automatice las anotaciones. Por lo pronto, la herramienta antes descripta, que ayuda a quienes no son expertos a anotar las leyes en términos de sus actores, acciones, calificadores modales y condiciones, habría sido de ayuda para anotar las leyes de salud pública para el AA, la anotación automática y la construcción de redes legislativas como las que se describen más adelante en la Sección 9.7.1. El apoyo computarizado para la anotación humana de leyes y casos para el AA, incluyendo la anotación de estudiantes o por medio del crowdsourcing, también se discute en las Secciones 10.6 y 12.5.2.

9.7.

LA EXTRACCIÓN DE INFORMACIÓN FUNCIONAL PARA COMPARAR REGULACIONES

Un componente importante del cumplimiento normativo en el sector comercial es la necesidad de comparar aquellas regulaciones que aparentemente tienen propósitos similares en diversas jurisdicciones. Muchas industrias e instituciones comerciales se extienden a través de múltiples Estados y tras­ cienden las fronteras internacionales. En áreas como los seguros, el cuidado de la salud, la seguridad informática y la regulación del ámbito privado, estas instituciones están sujetas a múltiples leyes estatales. Mientras los objetivos generales de los diferentes marcos regulatorios de jurisdicción estatal y na­ cional podrían ser similares, las regulaciones podrían resultar diferentes entre sí de una multiplicidad de formas. Mantener un registro de las diferencias y factorizarlas en planes que permitan cumplir con las regulaciones constituyen preocupaciones de todos los días.

-415-

Kevin D. Ashley

Travis Breaux ha desarrollado un modelo semántico para automatizar la extracción de requisitos de los textos jurídicos, así como un lenguaje para especificar los requisitos legales que es lo suficientemente general como para permitir la comparación de regulaciones entre jurisdicciones diferentes. Él y sus colegas desarrollaron un método de requisitos en marca de agua [requirements water marking method] para comparar el rigor de los estándares en materia de privacidad y seguridad entre jurisdicciones (Gordon y Breaux, 2013). Los investigadores estudiaron de qué modo los autores de las regulacio­ nes emplean “patrones de diseño legislativo” para imponer restricciones que impactan en el diseño de sistemas informáticos de escala industrial. Su modelo demuestra cómo las definiciones jurídicas, los requisitos y las excepciones, trabajando de manera coordinada, le dan forma a una regulación, relajando o restringiendo el alcance lógico de las limitaciones jurídicas (Breaux y Gordon, 2013). Un ejemplo de un patrón de diseño jurídico semejante es el de una “sus­ pensión”, “en la cual un permiso... constituye una excepción a una obligación... [;] la satisfacción de las condiciones del permiso causa que la obligación sea suspendida” (Breaux y Gordon, p. 11).

La comparación entre los instrumentos jurídicos también es importante. El lenguaje que especifica los requisitos en materia de privacidad de Breaux (Eddy) modela los requisitos jurídicos aplicados a flujos de datos complejos que involucran a múltiples partes (Breaux et aL, 2014) y ha sido utilizado para comparar las políticas actuales para la protección de datos en el mundo corporativo (Breaux et al., 2015).

También pueden compararse las representaciones en red de las leyes estatales que versan sobre algún tópico concreto (Sección 2.6). Los diagramas en red representan gráficamente determinados aspectos de las regulaciones. Uno puede comparar esos diferentes aspectos de las leyes estatales tanto en un sentido gráfico (Grabmair et al., 2011) como cuantitativo, en términos propios de la analítica de red [network analytis] como densidad, inclusión, grado, rigor, reciprocidad y centro-y-autoridad (Ashley et aL, 2014). Por ejemplo, la red legislativa ilustrada en la Figura 2.10 compara las leyes de Pensilvania y Florida que regulan la vigilancia en lo concerniente a emergencias públicas de salud. Un enfoque en red similar podría ser útil en otros dominios regulatorios en los que las múltiples jurisdicciones estén dotadas de sistemas normativos paralelos. Además, los empleados, los diseñadores de sistemas de negocio, los agentes de campo y otras personas sin formación jurídica podrían recuperar las fuentes legislativas que sustancien un vínculo en el diagrama tan sólo haciendo clic en el mismo (Ashley et al., 2014).

416-

La extracción de información de los textos legislativos y regulatorios

9.7.1. El aprendizaje automático para la construcción de redes legislativas Las representaciones en red de los esquemas regulatorios vigentes en diversas jurisdicciones requieren una considerable cantidad de datos sobre las leyes de esas jurisdicciones. En el proyecto mencionado anteriormente, el personal de la Escuela de Salud Pública utilizó consultas de LexisNexis para recuperar las leyes de 12 Estados vinculadas con emergencias de salud pública.

Ellos codificaron manualmente los textos de las disposiciones estatales correspondientes a nueve clasificaciones en una suerte de plantilla que cap­ tura: los agentes actuantes del Sistema Público de Salud [Public Health System] (PHS) a los que, con algún nivel prescriptivo, la disposición ordena realizar una determinada acción con respecto a algunos agentes receptores bajo ciertas condiciones, con ciertos objetivos y propósitos referidos al tipo de emergencia o desastre en un determinado marco temporal. Los conceptos codificadores, destacados en cursiva, son explicados de la siguiente manera:

Relevancia: ¿Es la disposición relevante a los efectos del análisis de la Escuela de Salud Pública? Si la respuesta es “sí”: Agente actuante del PHS: ¿A quién le ordena actuar la disposición? Acción: ¿Qué acción ordena la disposición? Agente receptor del PHS: ¿A quién ordena la disposición destinar la acción? Prescripción: ¿Con qué nivel prescriptivo es ordenada la acción? ¿"Puede”, “debe”? Objetivo: ¿Con qué objetivo se ordena la acción? Propósito: ¿Con qué propósito se ordena la acción? Tipo de emergencia o desastre: ¿Es la emergencia/el desastre una epidemia, un choque de trenes, un accidente nuclear, etc.? Marco temporal: ¿En qué marco temporal la acción debe/puede realizarse? Condición: ¿Qué circunstancias gobiernan si la acción se realiza?

La tarea de codificación sería más factible si el AA pudiera extraer cierta información de los textos legales. A partir de un conjunto de entrenamiento manualmente codificado para cada Estado, el sistema de AA podría aprender a clasificar las disposiciones estatales tanto en función de su relevancia como en función de cada una de las nueve categorías codificadas.

-417-

Kevin D. Ashley

Esa es la hipótesis que subyace a la línea de trabajo que se constata en Grabmair et al. (2011), Savelka et al. (2014) y Savelka y Ashley (2015), trabajos ya mencionados en la Sección 9.2. En particular, el trabajo analiza tres asuntos que se plantean al momento de extraer información de las disposiciones legales mediante el empleo del AA:

1.

Representar las disposiciones en “fragmentos” o unidades clasificables mecánicamente,

2. Seleccionar el algoritmo de aprendizaje que se aplica, y

3.

Tratar con datos de entrenamiento escasos.

La fragmentación y representación de textos legislativos El primer asunto no sólo pasa por llegar a una decisión sobre cómo dividir las disposiciones legislativas, que pueden ser un poco extensas, en fragmentos que sean manejables y significativos para su clasificación, sino también por cómo representarlas de la mejor manera posible.

Para cualquier oración correspondiente a una subsección de una ley, su significado no sólo depende de la composición de la oración, sino también del contexto en el que se sitúa, compuesto por otras oraciones en esa subsección, por otras subsecciones en esa sección, por otras secciones en la ley y también quizá por otras leyes. Además, algunas subsecciones pueden ser partes de listas o de otras estructuras internas de una disposición, la cual tal vez descanse en el significado de cualquier ítem de la lista.

La pregunta es cómo operacionalizar este contexto de una forma que sea computacionalmente razonable, y resulta que hay demasiadas opciones. En Savelka et al. (2014) y Salvelka y Ashley (2015), cada documento legislativo, es decir, cada disposición de la ley, fue vista como un gráfico de árbol y dividida en partes o fragmentos más pequeños que comprendieron los elementos textuales en una ruta que fue de una raíz nodal a una hoja nodal. Por ejemplo, la Figura 9.5 muestra la disposición de una ley de Florida particionada en siete subárboles, uno de los cuales aparece destacado en negrita. Este es el fragmento que corresponde a la hoja nodal 5, correspondiente al quinto ítem de la lista en la subsección (b) de la disposición. A los efectos del AA, ese es el fragmento que representa la Ley de Florida §101.62 (1) (b) 5. El enfoque del gráfico de árbol tiene dos virtudes. (1) Cada uno de los fragmentos puede ser referido únicamente por medio de una cita. (2) Como un corte longitudinal a través del árbol, el fragmento captura una parte del

-418

La extracción de información de los textos legislativos y regulatorios

contexto legislativo de un texto de hoja nodal. Otros aspectos del contexto le­ gislativos son omitidos, como los nodos de hoja fraternales. Uno puede emplear un gráfico de árbol legislativo como un marco para definir las variaciones que capturan una mayor parte del contexto legislativo, por ejemplo, mediante la inclusión de nodos de hojas contiguos en el fragmento. El siguiente asunto es el de cómo representar cada fragmento o “unidad textual” a los efectos del AA. De modo similar a lo que muestra la configura­ ción del AA (Sección 8.3) en Savelka et al. (2014) y Savelka y Ashley (2015), las palabras vacías y otras palabras particulares que figuraban en títulos tales como “Título”, “Parte” o “Capítulo” fueron eliminadas, los dígitos numéricos fueron reemplazados con un token estándar, las palabras fueron puestas en letra minúscula y en su forma normal y los códigos clasificatorios asignados por los anotadores humanos expertos fueron incluidos.

Cada unidad textual fue luego representada como un vector de términos de n dimensiones, en donde cada dimensión correspondió a un término único en la colección documental y en donde una magnitud correspondió al peso tf/ idf de ese término (véase la Sección 6.4). Esto es similar a la representación que se halla en Francesconi y Passerini (2007).

9.7.2. La aplicación de un algoritmo de AA para textos legislativos Al trabajar con un corpus de leyes de emergencia de salud pública, los investigadores aplicaron tanto una SVM (Sección 8.5.2) como árboles de de­ cisión (Sección 4.3.1) (Grabmair y Ashley, 2011; Savelka et al., 2014; Savelka y Ashley, 2015).

Si aquí se toma en cuenta la efectividad en la extracción de infor­ mación de los textos legislativos, no parece haber ninguna diferencia discernible. Como ya se dijo, no obstante, los árboles de decisión se prestan a la inspección humana con mayor facilidad que los modelos de SVM, lo que determinará qué características son más importantes para discriminar las instancias positivas y negativas. Dada la naturaleza exploratoria del trabajo, el carácter interpretativo de los modelos impulsó a los investigadores a emplear árboles de decisión. Considérese con algo más de detalle el proceso de aprender un árbol de decisión para clasificar las unidades textuales de la sección anterior en virtud de la relevancia que tienen para el estudio de la Escuela de Salud Pública. (El proceso es similar para aprender árboles de decisión para cada una de las otras nueve categorías). Una unidad textual se representa como un vector de carac­ -419-

Kevin D. Ashley

terísticas con un valor tf/idf para cada uno de los términos pertenecientes a un conjunto ordenado. Los vectores de características son sumamente extensos, ya que abarcan miles de entradas correspondientes a todos los términos que están presentes en el corpus. No obstante, muchas de las entradas tienen un valor igual a 0, lo cual indica que el término correspondiente no está presente en la unidad textual. Estatuto de Florida §101.62 Estatutos Anotados de Florida TÍTULO 9. ELECTORES Y ELECCIONES (Capítulos 97-107) CAPÍTULO 101. MÉTODOS DE VOTACIÓN Y PROCEDIMIENTO Estatuto de Florida §101.62 (2010) § 101.62. Solicitud de papeletas de votos en ausencia 1) (a) El supervisor deberá aceptar una solicitud de voto en ausencia de un elector en persona o por escrito. Una solicitud se considerará suficiente para recibir una boleta de voto en ausencia para todas las elecciones hasta la próxima elección general programada regularmente, a menos que el elector o la persona designada por el elector indique en el momento de realizar la solicitud las elecciones para las que el elector desea recibir una boleta de voto en ausencia. Dicha solicitud podrá considerarse cancelada cuando cualquier correo de primera clase enviado por el supervisor al elector sea devuelto por no haber sido entregado. (b) El supervisor puede aceptar una solicitud escrita o telefónica para una boleta de voto en ausencia del elector o, si el elector lo indica directamente, un miembro de la familia inmediata del elector o el tutor legal del elector. A los fines de esta sección, el término “familia inmediata” tiene el mismo significado que se especifica en el párrafo (4) (b). La persona que hace la solicitud debe revelar: 1. El nombre del elector para quien se solicita la papeleta. 2. El domicilio del elector. 3. La fecha de nacimiento del elector. 4. El nombre del solicitante. 5. El domicilio del solicitante. 6. El número de licencia de conducir del solicitante, si está disponible. 7. La relación del solicitante con el elector.

Figura 9.5. La partición de la disposición legislativa en fragmentos de un subárbol Al momento de aprender un árbol de decisión de las unidades textuales en un conjunto de entrenamiento, el algoritmo primero toma una caracterís­ tica sobre la base de la cual dividirá [split] los datos. Digamos que se trata del intento de dividir los datos entre las unidades textuales que son relevantes para una consulta dada y aquellas que no lo son. Primero, supongamos que las características son binarias, como en el árbol de decisión sobre fianzas ilustrado en la Sección 4.3.1. Los valores de características en el árbol de decisión de la Figura 4.2 son “sí” o “no”, los cuales indican, por caso, que el delito involucró o no involucró la presencia de drogas o que el delincuente tenía o no tenía an­ tecedentes penales. En donde las características son binarias, un algoritmo sólo puede dividir los datos basándose en la igualdad del valor de una característica y las condiciones de prueba o testeo. El algoritmo añade al árbol un nodo de 420-

La extracción de información de los textos legislativos y regúlatenos

decisión que prueba el valor de la característica: si la respuesta es “sí”, toma la rama derecha; si la respuesta es “no”, toma la rama izquierda. CO (500 unidades textuales)

C7 (0 reí., 10 irrel.

C8 (5 reí., 0 irrel.

unidades textuales)

unidades textuales)

unidades textuales)

Figura 9.6. Árbol de decisión para clasificar los textos legislativos como relevantes (reí.) o irrelevantes (irrel.) para el estudio de la Escuela de Salud Pública

Por contraposición, los vectores de características que representan las unidades textuales pueden tener valores numéricos como los valores tf/idf. La prueba o test en un nodo de decisión sería algo semejante a esto: si la medida tf/ idf de una característica seleccionada tomar a la derecha; de otro modo, tomar a la izquierda. A los efectos de apreciar un árbol de decisión hipotético para clasificar las unidades textuales que representan las disposiciones legislativas como relevantes o irrelevantes, véase la Figura 9.6. Las pruebas en cada rama se muestran en los rectángulos.

Más allá de la determinación del umbral, el algoritmo también debe determinar cuál de todas las características se presta mejor para ser probada en un determinado punto. Esto requiere alguna medida (como la entropía o impureza de Gini; véase Kakwani (1980)) de la homogeneidad de la clasi­ ficación buscada dentro de los subconjuntos de datos si ella fuera dividida tomando como referencia esa característica. El algoritmo inspecciona una característica tras otra y determina cuán bien puede efectuarse una división a partir de los datos referidos a esa medida. El algoritmo elige aquella división que maximiza el valor esperado de la información obtenida en virtud de esa división, comparada con las otras. Una vez que computa la mejor ca­ racterística disponible para la división, se vuelca a esta tarea insertando una rama en el árbol de decisión. 421

Kevin D. Ashley

Luego de haber realizado la división, el algoritmo repite el mismo pro­ ceso para los nodos que han sido creados en las ramas, aunque ahora toma en cuenta sólo las partes del conjunto de datos que pertenecen a ese nodo. El algoritmo procede de esta manera hasta que se satisface una determinada condición, como por ejemplo cuando un árbol alcanza un determinado nivel máximo de profundidad.

Cuando uno inspecciona el árbol de decisión resultante (Figura 9.6), alcanza a apreciarse justo debajo del nodo raíz (CO) que una característica co­ rrespondiente a la palabra “emergencia” fue seleccionada para proporcionar una oportunidad para la mejor división posible. Uno también puede comprobar el valor tf/idf con el que se establece la línea de corte de la división. Por ejemplo, si el mismo fuera simplemente “ 0”, significaría que la palabra aparece efecti­ vamente en el texto. Uno puede ver que, sobre un total de 500 documentos, digamos, 400 fueron enviados a la rama de la izquierda como irrelevantes (Cl) y 100 cumplieron con la condición de la división, por lo que fueron enviados a la rama de la derecha (C2). El algoritmo repite el mismo proceso en el nodo C2, pero ahora toma en cuenta sólo las unidades textuales asociadas con C2, de las cuales 70 fueron relevantes y 30 fueron irrelevantes. A partir del nodo C2, uno puede comprobar que la palabra “salud” fue seleccionada como la segunda oportunidad para la división. Si las unidades textuales alcanzan para la palabra “salud” valores tf/idf superiores a los de un determinado umbral, ellas son asignadas a la rama derecha; si eso no sucede, son asignadas a la rama izquierda. Uno puede una vez más pasar a la derecha y descubrir que la bifurcación conduce en última instancia a la hoja nodal C6, la cual contiene unidades tex­ tuales etiquetadas como relevantes, es decir, documentos con valores tf/idf que superan los umbrales mencionados para las palabras “emergencia”, “salud” y “epidemia”. De modo similar, uno puede inspeccionar todos los recorridos del árbol. Debe notarse que 10 unidades textuales en el nodo C6 demostraron ser relevantes. De hecho, todos los nodos finales que van del C5 al C8 contienen unidades textuales con resultados uniformes, aunque ese no necesariamente debería ser el caso. Si la condición final fuera una profundidad de un máxi­ mo determinado para el árbol, las hojas nodales probablemente contendrían unidades textuales con resultados mixtos, lo que impediría realizar cualquier tipo de clasificación.

Una vez que los árboles de decisión fueron construidos para 10 categorías (relevancia, agente actuante, prescripción, acción, objetivo, propósito, tipo de emergencia, agente receptor, marco temporal y condición), la clasificación de las unidades textuales se realizó en dos pasos. En el primer paso, todas las

--422

La extracción de información de los textos legislativos y regulatorios

unidades textuales se clasificaron en función de su relevancia para el análisis de la salud pública. En el segundo paso, las unidades textuales relevantes se clasificaron nuevamente en función de las categorías restantes.

9.7.3. La evaluación del algoritmo de AA en textos legislativos y el manejo de los datos de entrenamiento dispersos

En los experimentos, el sistema ha sido evaluado por medio de la comparación entre las clasificaciones del AA y un estándar de oro correspon­ diente a las clasificaciones generadas manualmente por anotadores expertos provenientes de la Escuela de Salud Pública. Estas evaluaciones se han llevado a cabo como validaciones cruzadas, similares a las descriptas con antelación (Grabmair et al., 2011; Savelka et al., 2014). Para el corpus de Pensilvania, el desempeño entre nueve categorías varió considerablemente (Grabmair et al., 2011). Para todas las categorías, con la sola excepción de Acción, el AA alcanzó medidas F1 superiores o iguales a la medida correspondiente a dos líneas de base: el código más frecuente (MFC) para un atributo y un MFC mejorado con palabras clave. Las medidas F1 del AA variaron en rangos que van de un 24% para el objetivo, sin dudas un valor bajo, a un 86% para el marco temporal, con un promedio para las nueve cate­ gorías de Fl= 54%. Una de las razones que explican el desempeño relativamente bajo radicó en el problema de la escasez de datos de entrenamiento. El libro de códigos de anotación de los expertos en salud pública es bastante detallado y el número de códigos disponibles para un atributo determinado puede ser demasiado amplio. Como resultado, el número de instancias de un determinado código puede ser muy bajo.

Con el objetivo de mitigar el problema de la dispersión de datos y mejorar el desempeño de los clasificadores, los investigadores realizaron exploraciones utilizando datos provenientes de otras jurisdicciones. Es decir, a los efectos de incrementar la cantidad de datos, ellos combinaron los datos de entrenamiento de un Estado con los datos de otros Estados. Vista superficialmente, esta idea parece atractiva, pero los textos legisla­ tivos provenientes de diferentes jurisdicciones a menudo difieren de diversas formas, incluso cuando tratan sobre un mismo asunto. Los legisladores de los diferentes Estados pueden emplear terminología y patrones estructurales dife­ rentes. Por ejemplo, el corpus de textos legislativos relevantes de Pensilvania (PA) contenía 1.7 veces más disposiciones que el corpus de disposiciones

-423-

Kevin D. Ashley

de Florida (FL), aunque ellas sólo le insumieron un 70% del espacio que le insumieron al otro Corpus. Como resultado, los textos legislativos de Florida tienden a ser más largos que los de Pensilvania. Los textos legislativos de Florida también parecieron estar más fragmentados; el corpus de Florida generó 11.131 unidades textuales, mientras el corpus de Pensilvania generó tan sólo 6.022 unidades. Hubo 4.764 términos únicos (excluyendo las palabras vacías) en el corpus de Pensilvania y 6.569 términos en el corpus de Florida. De este modo, el hecho de si podían combinarse conjuntos de entrenamientos de jurisdicciones diferentes para mejorar el desempeño terminó siendo una cuestión empírica. En Savelka y Ashley (2015), los investigadores describieron un marco para facilitar la transferencia de modelos predictivos para la clasificación de textos legislativos entre múltiples jurisdicciones estatales. Para cada uno de los Estados definidos como objetivos, incluyendo Florida, se crearon conjuntos de entrenamiento y de prueba a través de validaciones cruzadas quíntuples que utilizaron un muestreo aleatorio y fueron repetidos 20 veces. Es decir, el programa se ejecutó 100 veces, en cada una de las cuales se utilizó cerca del 20% del corpus como datos de entrenamiento y cerca del 80%.como datos de prueba, aunque reasignando de manera aleatoria las disposiciones para cada uno en cada ejecución.

La Figura 9.7 muestra diagramas de caja para todas las ejecuciones en el experimento de Florida. Cada racimo de los ocho diagramas muestra la progresión en el desempeño, medido en función de la medida F1 en cada una de las ocho tareas. El primer diagrama en cualquiera de los racimos resume las 100 ejecuciones del experimento en las que no se utilizaron conjuntos de datos estatales adicionales. El segundo diagrama describe las 300 ejecuciones del experimento en las que fue necesaria la utilización de conjuntos de datos estatales adicionales. El octavo diagrama de caja resume las 100 ejecuciones del experimento en las que se utilizó la totalidad de los siete conjuntos de datos estatales adicionales. Como puede apreciarse claramente a partir de las tendencias generalmen­ te alcistas a la derecha de cada diagrama, para todas las tareas el desempeño de los clasificadores tiende a mejorar mientras más sean los conjuntos de datos estatales que se utilicen. Para el corpus de Florida, el promedio de medidas F1 para nueve categorías pasó de un 54%, cuando no se emplearon datos estatales adicionales, a un 58%, cuando se utilizaron datos adicionales provenientes de siete Estados. El desempeño mejoró incluso cuando los datos de entrenamiento adicionales provenían de diferentes Estados, en los que varían tanto los sistemas legislativos como los lenguajes empleados. Los resultados también muestran

424-

La extracción de información de los textos legislativos y regúlatenos

que el desempeño no empeora cuando se utilizan conjuntos de datos adicio­ nales. En el peor de los casos, el desempeño llega a emparejarse (Savelka et al., 2014; Savelka y Ashley, 2015). Resultados (medidas Fi) Agente actuante (AA)

Prescripción (PR) Acción (AC) Objetivo (GL)

Propósito (PP) Tipo de emergencia (ET)

Agente receptor (RA)

Condición (CN) Marco temporal (TF)

Figura 9.7. El diagrama de caja resume los resultados de todos los experimentos en cada una de las tareas correspondientes a Florida (FL). Cada diagrama describe el desempeño en fun­ ción de una medida F1 dentro de un solo experimento. Las tareas incluyeron la identificación del agente actuante (AA), de la prescripción (PR), de la acción (AC), del objetivo (GL), del propósito (PP), del tipo de emergencia (ET), del agente receptor (RA), de la condición (CN) y del marco temporal (TF) (Savelka y Ashley, 2015)

9.7.4. La aplicación de LUIMA para el enriquecimiento de la repre­ sentación de textos legislativos Los proyectos descriptos anteriormente (específicamente, Francesconi y Passerini, 2007; Francesconi, 2009; Bach et al., 2013; Zhang y El-Gohary, 2015), con sus enfoques multinivel o en pipelines, con sus representaciones multicapas de los textos legislativos y sus modos de combinar reglas KE con AA, sugieren la utilidad de aplicar el enfoque LUIMA introducido en la Sección 6.8 para realizar anotaciones de leyes.

-425-

Kevin D. Ashley

Los anotadores basados en reglas podrían enriquecer la representación de los textos de las disposiciones legislativas con anotaciones situadas al nivel de las oraciones o de las suboraciones. El sistema tipo LUIMA (Grabmair et al., 2015) podría ser adaptado al dominio dispositivo de las emergencias en salud pública, incluyendo: tipos de nivel de oración para normas jurídicas, tipos de nivel de suboración para la Premisa y el Consecuente (véase Bach et al., 2013) y tipos de suboración y mención para agentes del sistema público de salud, conceptos del sistema público de salud, acciones de los agentes, propiedades de los agentes/conceptos, elementos regulatorios y pistas idiomáticas.

Los investigadores planean probar la hipótesis de que, al anotar semánti­ camente las disposiciones legales y clasificarlas en función de las anotaciones, se puede superar a los sistemas de clasificación que no tienen en cuenta dicha semántica. Por ejemplo, el sistema podría anotar una palabra como “enfermería” para mencionar a un agente que desempeña un rol activo en una disposición y es del tipo “hospital”, o una frase como “cerrar suministro de agua” para men­ cionar una acción, del tipo “restringir”, que un agente debería llevar a cabo. Las anotaciones podrían proporcionar n-gramas de palabras como características para los clasificadores de AA. El objetivo de los clasificadores consiste en asignar disposiciones con categorías/etiquetas para un número previamente especificado de atributos. Por ejemplo, el sistema puede etiquetar una disposición específica como una “obligación” o como preocupada por “las emergencias relativas a la contami­ nación del aire”.

Si el enfoque fuera exitoso, las etiquetas asignadas a una disposición legal podrían actuar como un tipo de proyección de esa disposición a nivel conceptual más general del sistema tipo mientras las anotaciones semánticas se encargan de localizar los conceptos en el texto de la disposición. Esto significa que el sistema podría elegir como apropiada una terminología más abstracta o más específica. Los anotadores podrían analizar consultas ingresadas por un usuario a fin de determinar qué conceptos son mencionados, y, de manera opcional, expandir las consultas de manera acorde. Por ejemplo, si la consulta contu­ viera la palabra “Ébola”, el sistema podría determinar que se menciona una “enfermedad infecciosa”, ampliando la consulta y recuperando las disposicio­ nes legales que contengan menciones de la palabra “enfermedad infecciosa”, aunque no contengan la palabra exacta “Ébola”. Esto ayudaría a asegurar que las disposiciones relevantes no sean excluidas de los resultados simplemente porque un usuario haya sido demasiado específico en la consulta.

-426-

La extracción de información de los textos legislativos y regúlatenos

El sistema también podría utilizar las etiquetas y anotaciones para medir cuánto se acerca semánticamente cada una de las disposiciones recuperadas a la consulta y ordenarlas de manera acorde. Si un usuario ingresa una consulta como “el hospital debe informar el Ébola”, el sistema probablemente le adju­ dicaría un lugar privilegiado a una disposición que contenga una “obligación” para un agente del tipo “hospital”, relacionada con una “enfermedad infecciosa” en donde la acción requerida esté semánticamente relacionada con la “infor­ mación”. Este sería el caso incluso a pesar de que la disposición no contuviera ninguna o sólo muy pocas de las palabras que aparecen en la consulta.

Esto también permitiría que el sistema, con el objetivo de garantizar con mayor poder de síntesis sobre qué versa la oración, resumiera cada disposición como una oración compuesta por las etiquetas de anotación. Este resumen generalizado podría ser de ayuda para que un usuario realice evaluaciones preliminares de la relevancia de las disposiciones recuperadas.

9.8.

CONCLUSIÓN

Como hemos visto, la extracción automática de reglas lógicas de textos legislativos no sólo comporta la aplicación de NLP, sino que plantea desafíos adicionales.

Si un tema surge del trabajo informado en este capítulo es la importancia de identificar estructuras o patrones recurrentes en leyes y regulaciones que se vinculan con las formas y el significado de las reglas normativas, incluyendo:



estructuras lógicas que caracterizan la legislación en general o leyes específicas,



patrones o plantillas de términos, roles gramaticales de palabras, tipos de conceptos, verbos modales y otros elementos característicos de las reglas normativas en general o que se presentan en leyes específicas, o



patrones de diseño jurídico presentes en definiciones coordinadas, requisitos y exenciones que resultan características de ciertos do­ minios regulados.

Los programas de automatización y la comprensión humana de las reglas normativas se beneficiarán de la identificación de esos patrones, de la creación de reglas para componer elementos en patrones o para descomponer patrones en elementos y del desarrollo de técnicas para la visualización de los patrones. El enriquecimiento de la representación de los textos legislativos con un sistema tipo jerárquico como LUIMA, que captura aspectos de estos patrones, -427-

Kevin D. Ashley

probablemente sea útil para el AA. En los capítulos siguientes, examinaremos algunos esfuerzos que se han hecho para emplear las anotaciones de LUIMA para extraer información asociada con patrones argumentativos obtenidos de casos jurídicos.

-428-

10 La extracción de información argumentativa de los textos judiciales [Legal Case Texis]

10.1. INTRODUCCIÓN l Capítulo 8 explicó de qué modo el AA puede ser aplicado a los textos jurídicos y el Capítulo 9 exploró algunos de los métodos existentes para extraer información de los textos legislativos y regulatorios. Este capítulo continúa la discusión, pero se concentra en la utilización del AA, las técnicas de NLP y las reglas manualmente construidas para extraer información de los textos correspondientes a las decisiones judiciales, poniendo el foco princi­ palmente en la información de tipo argumentativa.

E

La información contenida en un caso judicial es de tipo argumentativa si versa sobre los roles que desempeñan las oraciones u otra clase de información en el argumento presentado en dicho caso. Esto incluye el rol que cumplen las oraciones en el reconocimiento que hacen los jueces de la existencia de una norma jurídica en abstracto, en la aplicación de una norma a un hecho específico o en los pronunciamientos judiciales de tipo fáctico o normativo. También incluye roles más generales, como el lugar que ocupan en tanto proposiciones pertenecientes a un argumento, premisa o conclusión, así como en los esquemas argumentativos (Sección 5.2) que justifican las conclusiones a partir de ciertas premisas, esquemas como Jos que trazan analogías entre ciertos hechos y los hechos de un caso anterior, o como los que distinguen unos hechos de los otros. Finalmente, abarca información que afecta la fortaleza de un argumento, como los factores jurídicos, los patrones

-429-

Kevin D. Ashley

fácticos estereotipados que fortalecen una pretensión en disputa (Sección 3.3.2) o los factores probatorios (Sección 5.8).

En varios puntos a lo largo de ese libro se ha sostenido que la información de tipo argumentativa respaldaría la recuperación de información jurídica de naturaleza conceptual si los programas de recuperación de información fueran capaces de identificarla. El capítulo siguiente proporciona evidencia preliminar a favor de esta hipótesis. Aquí discutimos las técnicas de la analítica de textos que pueden extraer esta información de los textos judiciales. En particular, este capítulo describe una arquitectura para la aplicación de un sistema tipo y un pipeline para la anotación de textos que permitirían el procesamiento de los textos judiciales a los fines de obtener información de tipo argumentativa sobre los roles de las oraciones. De este modo, continúa la discusión de LUIMA (Legal UIMA), la caja de herramientas para la extracción de información semántica específicamente jurídica que está basada en un marco UIMA y que fue dise­ ñada para automatizar la marcación conceptual de los documentos jurídicos. El capítulo revisa luego la tarea de anotar manualmente los textos jurídicos, una tarea que es necesaria para crear conjuntos documentales de entrenamiento para la clasificación del AA. Ostensiblemente una tarea para los anotadores humanos con algún nivel de pericia en el campo, la descom­ posición inteligente de las tareas de anotación puede hacer que las soluciones colaborativas para la anotación sean posibles. El capítulo procura responder preguntas como las siguientes: ¿cómo funciona la extracción de información de los textos judiciales? ¿Qué rol des­ empeñan NLP, los sistemas tipo UIMA y el AA? ¿Cómo podría automatizarse la marcación conceptual de los documentos jurídicos? ¿En qué consiste la anotación manual de textos, qué herramientas la respaldan, cómo puede ser manejada y de qué modo puede evaluarse su fiabilidad? ¿Qué tipos de infor­ mación argumentativa pueden extraerse de los textos judiciales? ¿La anotación puede volverse colaborativa?

10.2. LA INFORMACIÓN ARGUMENTATIVA EN LOS CASOS JUDICIALES Una parte del trabajo en torno a la extracción de información de los textos judiciales se ha centrado en la extracción de tópicos y temas. Los pro­ gramas han categorizado los casos judiciales por medio de categorías legales occidentales (i.e. finanzas y banca, bancarrota) en Thompson (2001) y por medio de tópicos generales (i.e. servicios de pensión excepcionales, retiro) en Gon^alves y Quaresma (2005). Otro sistema recuperó documentos basán­ -430-

La extracción de información argumentativa de los textos judiciales

dose en consultas que expresaban las referencias cruzadas entre los temas de los documentos (i.e. “¿qué órdenes hablan sobre ruidos extraordinariamente molestos y hacen referencia a decretos que aluden a la prueba de sonidos?” (Mimouni et al., 2014). En 1991, los investigadores exploraron el uso de esquemas argumen­ tativos para asistir en la representación de casos para la recuperación de información jurídica de naturaleza conceptual (Dick y Hirst, 1991). En épocas más recientes, el procesamiento semántico automático de la información argu­ mentativa disponible en textos judiciales fue emprendido para la recuperación de información jurídica, incluyendo la extracción automática del historial de tratamiento de casos “confirmados” o “revocados en parte” (Jackson et al., 2003), de aquellos delitos y principios jurídicos ya aplicados en casos penales que pudieran generar resúmenes (Uyttendaele et al., 1998), de sentencias ju­ diciales (McCarty, 2007) y de esquemas argumentativos del corpus Araucaria, como la argumentación sobre la base de ejemplos y la argumentación de la causa al efecto (Feng y Hirst, 2011). Otros programas, basándose en decisiones judiciales anotadas manualmente, no sólo asignaron roles retóricos a las ora­ ciones de ciertos casos, como el rol de identificar el caso, el de establecer los hechos del caso, el de argumentarlo, el de informar sobre el historial del caso y el de formular los argumentos, la ratio decidendi o la decisión final (Saravanan y Ravindran, 2010), sino que también determinaron el rol de una oración en el caso como si describiera la ley aplicable o los hechos (Hachey y Grover, 2006). Por supuesto, en algunas ocasiones, se produce una superposición entre la información relativa a un tópico y la información de tipo argumentativa. En Zhang et al. (2014) “los asuntos jurídicos” son minados a partir de una base de datos de naturaleza jurídica, cada uno de los cuales abarca una proposición o principio jurídico para la que el caso podría citarse en un argumento. Como se notó en la Sección 7.7, un sistema anota semánticamente los asuntos jurídicos en textos de casos mediante una combinación de AA y anotación manual. El resultado es una biblioteca de asuntos jurídicos estandarizados y una serie de vínculos o enlaces a las discusiones judiciales de estos asuntos (Zhang, 2015).

Este capítulo se centra en tres proyectos que han extraído diferentes tipos de información argumentativa de los textos judiciales mediante la utilización del AA, NLP y reglas de extracción: 1.

El sistema de Mochales y Moens identificó oraciones que desem­ peñaron un rol en un argumento, las etiquetó como premisas o

-431-

Kevin D. Ashley

conclusiones y extrajo la estructura de un argumento de los textos judiciales (Moens et al., 2007; Mochales y Moens, 2011).

2. SMILE extrajo factores jurídicos sustantivos, los patrones fácticos estereotipados que fortalecen o debilitan la pretensión jurídica de una de las partes en una disputa (Ashley y Büninghaus, 2009). 3. El sistema LUIMA extrae información argumentativa sobre las normas jurídicas citadas en un caso y sus aplicaciones a los hechos (Grabmair et al., 2015).

Los capítulos 11 y 12 discutirán de qué modo esta información extraída de los casos judiciales puede mejorar la recuperación de información jurídica de naturaleza conceptual, permitiendo la recuperación de argumentos y el cumplimiento de otras tareas propias de la computación cognitiva.

10.3. LA EXTRACCIÓN DE ARGUMENTOS DE LAS PRETENSIONES JURÍDICAS En el trabajo pionero de Mochales y Moens sobre minería de la argu­ mentación jurídica, la información extraída de los textos jurídicos abarcó una unidad básica de argumentos, a saber: sus proposiciones o pretensiones [c/aims] (Moens et al., 2007; Mochales y Moens, 2011). De acuerdo a estos autores, “una pretensión es una proposición, una idea que puede ser tanto ver­ dadera como falsa, presentada por alguien como verdadera” (Mochales y Moens, 2011, p. 1). Este trabajo es un precursor del sistema Debater de IBM, el cual, en un contexto que todavía no era jurídico, empleó técnicas independientes del dominio para “detectar las pretensiones relevantes” sobre un tópico (Levy et al., 2014).

Los argumentos involucran cadenas de razonamiento, en donde las pre­ tensiones también se usan como premisas para la derivación de pretensiones adicionales. La pretensión final de un argumento se considera su conclusión. Específicamente, los autores definieron el término argumento como “un conjunto de proposiciones, todas las cuales constituyen premisas, con la sola excepción de una, la conclusión, [que] sigue un esquema argumenta­ tivo” (Mochales y Moens, 2011, p. 5). Como se discute en la Sección 5.2, los esquemas argumentativos son plantillas o planos para diferentes tipos de argumentos relativos a un campo o dominio más o menos específico, algunos de los cuales pueden implementarse en un modelo computacional de argumento.

-432-

La extracción de información argumentativa de los textos judiciales

10.3.1. El aprendizaje automático para la clasificación de oraciones como proposiciones, premisas y conclusiones Los investigadores aplicaron automáticamente el AA (1) para clasificar las oraciones como proposiciones de un argumento (o no) y (2) para clasificar las proposiciones argumentativas en tanto premisas o conclusiones.

Ellos trabajaron con dos cuerpos. El primero fue el corpus de Araucaria, el cual abarcó 641 documentos que habían sido anotados de acuerdo a una me­ todología específica como parte de un proyecto de la Universidad de Dundee (Reino Unido) (Reed y Rowe, 2004; Mochales y Moens, 2011, p. 8). Incluyó cinco informes de tribunales, cuatro registros legislativos, así como noticias de diarios, artículos de revistas y paneles de discusión. El corpus abarcó 3.798 oraciones, incluyendo un número igual de oraciones que fueron proposiciones argumentativas o proposiciones no argumentativas. El segundo corpus, un conjunto de 47 documentos legales del Tribunal Europeo de Derechos Humanos, abarcó un total de 2.571 oraciones. Los tres anotadores pasaron más de un año anotando los argumentos del tribunal en el corpus, con un juez encargado de resolver los desacuerdos. Los anotadores obtuvieron un buen nivel de acuerdo con respecto al etiquetado (un 75% de acuerdo, según el coeficiente kappa de Cohén, una medida estándar del nivel de acuerdo, tal como se define en la Sección 10.6.1).

10.3.2. La representación de textos A los efectos de extraer información de tipo argumentativa, Mochales y Moens representaron las oraciones como vectores de características. Como ya se explicó en las Secciones 7.5.2 y 8.5.1, los vectores de características y los vectores de términos se utilizan ampliamente para representar textos, pero aquí ellos representan las oraciones a los efectos de detectar argumentos.

Para aprender a identificar las oraciones como proposiciones de un argumento, las oraciones fueron representadas en términos de características generales de un campo o dominio, sobre la base de información extraída de los textos, incluyendo: o

Cada palabra, par de palabras, pares y triples de palabras sucesivas,



Las partes discursivas que incluyen ciertos adverbios, verbos o au­ xiliares modales (verbos que indican una permisión u obligación, como “puede”, “debería”, “debe”),



Ciertos patrones de puntuación,

-433

Kevin D. Ashley

a

Ciertas palabras clave que indican la presencia de argumentación, como “pero”, “en consecuencia” y “debido a”,



La profundidad de los árboles de análisis y el número de subcláusulas (medidas que dan cuenta de la complejidad de una oración), y



Cierta estadística textual, incluyendo la extensión de las oraciones, el promedio de extensión de las palabras y el número de marcas de puntuación (Mochales y Moens, 2011).

Los valores de características se representan típicamente como caracte­ rísticas binarias, las cuales señalan la presencia o ausencia de una característica en una oración.

Al objeto de clasificar las proposiciones argumentativas como premisas o conclusiones, los autores emplearon un conjunto enriquecido de características que representan las oraciones, incluyendo:

°

La extensión de una oración relativa a un umbral y a su posición en el documento (dividido en siete segmentos),



El tiempo y el tipo verbal principal,



Las categorías de las oraciones anteriores y sucesivas,



Una clasificación de la oración como argumentativa o no previa al procesamiento,



El tipo de patrones retóricos que ocurren en la oración y en las oraciones que la rodean: respaldo, en contra, conclusión o ninguno,



El tipo de patrones argumentativos en la oración, como por ejemplo “véase”, “mutatis mutandis”, “habiendo llegado a esta conclusión”, “por una mayoría”,

°

Si la oración cita un artículo de la ley o incluye una definición jurídica, y

°

El tipo de agente que oficia de sujeto en la oración, por ejemplo, el solicitante, el defendido, el tribunal u otro (Mochales y Moens, 2011).

10.3.3. La aplicación de algoritmos de aprendizaje estadístico Luego de haber representado las oraciones como vectores de caracterís­ ticas, Mochales y Moens aplicaron tres algoritmos de aprendizaje estadístico utilizados en la clasificación de textos:

1. El clasificador de Naive Bayes,

2. Un clasificador de máxima entropía [máximum entropy classifier], y 3.

SVM. -434

La extracción de información argumentativa de los textos judiciales

Los primeros dos algoritmos fueron aplicados para predecir si una oración era una proposición argumentativa. Actuando de modo similar a los sistemas presentados en capítulos previos, ambos algoritmos predicen la instancia de una categoría Y basándose en los valores X de las características del vector de características. Calculan la probabilidad de una clasificación Y tomando como referencia los valores de características X y seleccionan la etiqueta Y más probable. En el proceso de calcular las probabilidades, ambos algoritmos estiman los parámetros o pesos asociados con cada una de las características en el vector de características, aunque lo hacen de formas diferentes.

Naíve Boyes Naíve Bayes utiliza un enfoque indirecto para estimar los pesos de las características. Estima la probabilidad de Y a partir de X de manera indirecta, esti­ mando la probabilidad de Y y la probabilidad de X a partir de Y, y luego utiliza una fórmula llamada Regla de Bayes para computar la probabilidad de Y a partir de X. El clasificador de Naíve Bayes emplea un atajo conveniente que reduce la complejidad computacional de los cálculos. Realiza una suposición simplificadora, según la cual las características individuales son condicionalmente independientes unas de otras. Esta suposición limita el número de parámetros que deben estimarse cuando se modela la probabilidad de X a partir de Y (Mitchell, 2015, p. 3). De hecho, esta suposición frecuentemente no se satisface, que es la razón por la cual el algoritmo recibe la denominación de ndive [ingenuo]. Si algunas de las características no son independientes, el algoritmo Naíve Bayes puede producir errores. Por ejemplo, las dos palabras en la frase “Buenos Aires” rara vez aparecen separadas. A pesar de que no sean independientes, Naíve Bayes añadirá la evidencia de cada término en la frase, realizando efectivamente un doble conteo. Dado este fenómeno, sería preferible emplear una técnica dife­ rente que estime los parámetros de manera más directa a partir de los datos (Mitchell, 2015, p. 10).

Un clasificador de máxima entropía

También conocido como regresión logística multinomial, un clasifica­ dor de máxima entropía en el procesamiento lingüístico asigna una clase a un documento mediante el aprendizaje de qué características correspondientes

-435-

Kevin D. Ashley

al insumo [input] son más útiles para discriminar entre diferentes clases. Computa una probabilidad a partir de una función exponencial de un conjunto ponderado de estas características observadas (Jurafsky y Martin, 2015). Se basa en el principio de que cuando no se conoce nada más, la probabilidad distributiva debe mantenerse tan uniforme como sea posible, es decir, debe tener una entropía máxima (Nigam et aL, 1999).

En el contexto de la clasificación de textos, un documento puede repre­ sentarse mediante un conjunto de palabras y el número de veces en que cada palabra aparece en el documento (véase la Sección 8.3). Los documentos en los datos de entrenamiento tienen todos etiquetas asignadas. El clasificador de máxima entropía puede estimar la distribución condicional de una etiqueta de clase. Dados los datos de entrenamiento etiquetados, para cada clase puede estimar el valor esperado de estos conteos de palabras, es decir, los pesos de las características (Nigam et al., 1999). Por ejemplo, supóngase que hay cuatro clases de documentos, inclu­ yendo la clase “cuerpo docente” [faculty], y a uno se le dice que el 40% de los documentos que contienen la palabra “profesor” pertenecen a la clase “cuerpo docente”. Esa información actúa como una restricción. Sin ninguna otra infor­ mación, si un documento contiene la palabra “profesor”, uno conjeturaría que tiene un 40% de posibilidades de tratarse de un documento del cuerpo docente, y un 20% de posibilidades de pertenecer a cada una de las clases restantes. Si el documento no contiene la palabra “profesor”, uno conjeturaría que tiene un 25% de posibilidades de pertenecer a cada una de las cuatro clases. Este sería un simple modelo de máxima entropía (Nigam et al., 1999).

Los datos de entrenamiento fijan muchas de esas restricciones que se im­ ponen sobre la distribución condicional. A cada restricción le corresponde una característica de los datos de entrenamiento que también debería estar presente en la distribución que aprende el algoritmo. El algoritmo aplica una técnica itera­ tiva para formular una función de un clasificador textual que se ajusta a todas las restricciones derivadas de los datos etiquetados (Nigam et al., 1999). En efecto, el modelo aprende los pesos de las características que se corresponden con las restricciones. Intuitivamente, elige aquellos pesos que dotan de mayor verosi­ militud a las clases de los ejemplos de entrenamiento, en un proceso llamado estimación de máxima verosimilitud condicional (Jurafsky y Martin, 2015).

Un clasificador de máxima entropía no realiza ninguna suposición sobre la independencia de las características. A diferencia de Naive Bayes, cuando se encuentra con la frase “Buenos Aires”, el uso de restricciones lo conduce a descontar el peso de la evidencia y a evitar el doble conteo de la misma. Como

-436-

La extracción de información argumentativa de los textos judiciales

resultado, uno puede utilizar bigramas y frases con una máxima entropía (Nigam et al., 1999). Como se muestra en el experimento que se informa más abajo, el clasificador de máxima entropía arrojó mejores resultados que Naive Bayes.

La máquina de respaldo vectorial (SVM) Para las oraciones en el corpus ECHR, clasificadas como proposiciones de un argumento, los autores aplicaron una SVM para clasificarlas como pre­ misas o conclusiones. Como se explica en la Sección 8.5.2, destinada a la aplicación del AA a los textos, una SVM es un tipo de algoritmo de AA que identifica en el espacio de vectores de características un límite de híper-plano entre las instancias positivas y negativas de una clase o categoría (Noble, 2006). Aquí, el espacio vectorial es el espacio de vectores de características que representan las ora­ ciones en función del conjunto enriquecido de características mencionadas anteriormente.

Los resultados para la identificación de proposiciones argumentativas

Al momento de identificar proposiciones argumentativas, Mochales y Moens alcanzaron precisiones del 74% en el corpus de Araucaria, y del 80% en el corpus de ECHR. Parece que ellos obtuvieron los mejores resultados me­ diante la combinación de “pares de palabras seleccionadas por su etiquetado como partes del discurso (POS-tag), verbos y estadísticas sobre la extensión de las oraciones, el promedio de longitud de las palabras y el número de mar­ cas de puntuación” (Moens et al., 2007). Al determinar si las proposiciones argumentativas en el corpus de ECHR fueron premisas o conclusiones, ellos obtuvieron medidas Fl del 68% para las premisas y del 74% para las conclu­ siones (véase la Sección 4.4.4).

Los investigadores examinaron 98 oraciones que fueron erróneamente clasificadas como proposiciones argumentativas o no argumentativas. Ellos determinaron que el 21% de los errores podrían haber sido clasificados co­ rrectamente si el contenido discursivo previo se hubiera tomado en cuenta. Otro 47% de los errores involucraron señales textuales capaces de indicar ar­ gumentos pero que terminaron resultando ambiguas. Estas incluyeron verbos modales como “debe”, la palabra “pero” y el adverbio “más”. Algunos errores se produjeron donde los pasos argumentativos se dejaron implícitos o donde se hubiera necesitado CSK para detectar el argumento.

437-

Kevin D. Ashley

10.3.4. La gramática argumentativa para la estructura del árbol discursivo Finalmente, los autores realizaron experimentos tendientes a determinar si un programa podía extraer parte de la estructura discursiva de un argumento de manera directa de un documento. Ellos representaron la estructura argumen­ tativa del discurso como un árbol de triples arguméntales. Cada triple abarca un nodo raíz a los que van adheridos por medio de vínculos de respaldo una hoja nodal que oficia de premisa y una hoja nodal que oficia de conclusión. El nodo raíz de un triple argumental puede ir ligado al nodo raíz de otro triple en una cadena de razonamiento.

Ellos eliminaron 10 de los casos ECHR de la evaluación y construyeron manualmente un conjunto de reglas para identificar y vincular los triples, construyendo así la estructura argumentativa de un argumento. Este conjun­ to de reglas equivale a un tipo de gramática para detectar la estructura de la argumentación y clasificar las proposiciones en la estructura. Los autores evaluaron la gramática aplicándola para analizar gramatical­ mente los textos de los documentos ECHR restantes y detectar sus estructuras argumentativas. Los árboles argumentativos que la gramática argumentativa generó como resultado se compararon manualmente con las estructuras iden­ tificadas por los anotadores humanos en función de si toda la información argumentativa había sido incluida, de si los argumentos individuales estaban bien formulados y de si las conexiones entre argumentos eran correctas.

Utilizando la gramática para analizar los textos del corpus ECHR, los autores obtuvieron un 60% de precisión en la detección de estructuras argu­ mentativas. Las estructuras mantuvieron una medida F1 de aproximadamente el 70% al momento de clasificar las premisas y conclusiones. La Figura 10.1 ilustra un extracto de la estructura del árbol extraída automáticamente del texto de un caso regulatorio por medio de la gramática argumentativa (Mochales y Moens, 2011, p. 19). La conclusión general de la Comisión se halla en la parte superior. Es respaldada por dos argumentos, cada uno de los cuales aparece representado por una conclusión, seguida de las premisas: dos premisas respaldan el primer argumento y tres premisas respaldan el segundo. Esas estructuras argumentativas generadas automáticamente son útiles. Ellas pueden resumir efectivamente los argumentos de un documento jurí­ dico complejo tomando en cuenta las cuestiones, posiciones y argumentos principales, así como la evidencia confirmatoria. Sin embargo, a los efectos

438

La extracción de información argumentativa de los textos judiciales

de determinar si un documento sería relevante y útil para formular un nuevo argumento en otro escenario, un programa necesitaría mayor información sobre lo que significan las premisas y las conclusiones, así como sobre los tipos de esquemas argumentativos que están siendo empleados.

Conclusión: En virtud de estas razones, la Comisión... declara admisible la solicitud, sin prejuzgar los méritos. Premisa:

Conclusión: Se sigue que la solicitud no puede descartarse por ser manifiestamente infundada.

Premisa: Considera que los reclamos del solicitante plantean serias cuestiones fácticas y normativas bajo la convención... Premisa: La Comisión ha tomado conocimiento de los envíos de las partes.

Conclusión: En estas circunstancias, la Comisión encuentra que la solicitud no puede declararse inadmisible por no haber agotado los recursos internos. Premisa: La Comisión recuerda que el artículo X de la Convención tan sólo requiere el agotamiento de esos recursos, los que se vinculan con los incum­ plimientos de la convención alegados y ... pueden proporcionar ... una compensación. Premisa: La Comisión nota que, en el contexto de la sección sobre los poderes, el secretario dispone de una discreción muy amplia. Premisa: La Comisión recuerda que, en el caso de Tem­ ple vs. the United Kingdon,... la Comisión sostuvo que el recurso a un poder puramente discrecional... no constituía un recurso interno efectivo.

Figura 10.1. Extracto de la estructura de un árbol argumentativo extraído automáticamente de un caso (véase Moens et al., 2007, Fig. 5)

10.3.5. La identificación de instancias de esquemas argumentativos Basándose en el trabajo de Mochales y Moens (2011), Feng y Hirst (2011) identificaron automáticamente instancias de esquemas argumentativos -439-

Kevin D. Ashley

en textos del corpus AraucariaDB, disponible Online, el cual, como ya se dijo, contiene algunos casos jurídicos. Los investigadores supusieron que los com­ ponentes argumentativos, como las proposiciones y las conclusiones, habían sido anotados con éxito mediante el empleo de las técnicas arriba indicadas. Ellos se concentraron en la tarea de anotar cinco tipos de esquemas argumen­ tativos, expuestos en la Tabla 10.1 Los esquemas argumentativos de la Tabla 10.1 son similares a los que se emplean en el Derecho. Todos ellos están relacionados con los esquemas del modelo de predicción argumentativa basado en juicios de valor (VJAP), los cuales modelan la argumentación a partir de un antecedente judicial análogo (véase la Sección 5.7.3). El antecedente citado es utilizado como un ejemplo que comparte una propiedad con el problema actual, es decir: que una com­ pensación en los valores subyacentes se dará o se evitará si ellos se resuelven en el mismo sentido, esto es, si ambos se clasifican como instancias de un determinado concepto jurídico intermedio. Con el objetivo de anotar esquemas argumentativos, Feng y Hirst (2011) identificaron conjuntos de características textuales generales y esquemática­ mente específicas. Las características generales incluyen el lugar que ocupa la conclusión en el texto y las posiciones y longitud de las premisas y la conclu­ sión. Algunas de las características específicas del esquema se muestran en la Tabla 10.1, incluyendo frases características o construcciones lingüísticas.

Ellos emplearon un algoritmo de árboles de decisión (Sección 4.3.1) para realizar las clasificaciones, basándose en estas características, a saber: C4.5 (Quinlan, 2004) tal como se implementa en el paquete Weka (Machine Learning Group de la Universidad de Waikato, 2015). La última columna de la Tabla 10.1 muestra una pequeña porción de los resultados informados en Feng y Hirst (2011, p. 992), y específicamente el mejor promedio de precisión en la clasificación de un argumento como una instancia del esquema que reviste interés o como otra instancia.

Los autores atribuyeron el desempeño más pobre obtenido en la iden­ tificación de argumentos a partir de las consecuencias y de la clasificación verbal al número relativamente pequeño de instancias de entrenamiento de estos esquemas, así como al hecho de que ellos no consideraron obvias ciertas frases claves o patrones, como sí ocurrió con los otros esquemas (Feng y Hirst, 2011, p. 993). En este sentido, la clasificación de esquemas argumentativos de naturaleza jurídica puede resultar más fácil para el AA. Las citas frecuen­ tes a los antecedentes y a las normas jurídicas en los textos judiciales pueden ofrecer señales más obvias sobre los esquemas argumentativos que se basan

-440-

La extracción de información argumentativa de los textos judiciales

en consecuencias ilustradas en un caso análogo o en clasificaciones derivadas de un determinado concepto normativo. Tabla 10.1. Algunos esquemas argumentativos anotados automáticamente (Fengy Hirst, 2011) Esquema argumentativo

Significado

Características específicas del esquema (extractos)

Mejor promedio de precisión en la clasificación (%)

Ejemplo

El caso a tiene la propiedad F y también la propiedad G. En consecuencia, generalmente, si x tiene la propiedad F, entonces también tiene la propiedad G.

Las frases que incluyen por ejemplo, tal como, por caso

90,6

Causa-efecto

Generalmente, si ocurre A, entonces ocurrirá B.

Las frases que incluyen resultado, relacionado con, conducen a

70,4

Argumento de:

En este caso, ocurre A. En consecuencia, en este caso, ocurrirá B.

Medios para fines

Tengo un fin G. Llevar a cabo la acción A es un medio para conseguir G.

Las frases que incluyen deseo, propósito, objetivo; cuatro verbos modales: debería, podría, debe, necesita

90,8

Consecuencias

En consecuencia, debo (en términos prácticos) llevar a cabo esta acción A.

Conteos de proposiciones positivas y negativas en la conclusión y en las premisas

62,9

Similitud máxima entre los pares de palabras centrales extraídos de la conclusión y la premisa; conteos de cópula (i.e. un a es F), expletivo (i.e. hay, es) y relaciones de dependencia del modificador negativo (i.e. no un F) devueltas por el analizador

63,2

Si A (no) se lleva a cabo, posiblemente (no) se producirán buenas (malas) consecuencias. Clasificación verbal

En consecuencia, A (no) debe llevarse a cabo.

a tiene la propiedad F. Para todos los x, si x tiene la propiedad F, entonces x puede clasificarse como teniendo la propiedad G. En consecuencia, a tiene la propiedad G.

-441-

Kevin D. Ashley

Para que un programa de computación sea capaz de razonar con argu­ mentos sobre casos o de predecir resultados, es necesario extraer una mayor cantidad de información. Además de marcar las premisas argumentativas, las conclusiones y los esquemas en los fallos judiciales, uno debería anotar características sustantivas como los factores que fortalecen o debilitan un ar­ gumento jurídico, o que puedan usarse para predecir los resultados de un caso (Sección 4.5.2). Por fortuna, es probable que los programan puedan identificar los factores en los textos de los casos.

10.4. LA EXTRACCIÓN DE FACTORES JURÍDICOS DE NATURALEZA ARGUMENTATIVA

SMILE es una interfaz en lenguaje natural del programa IBP descripto en la Sección 4.5.2 (Ashley y Brüninghaus, 2009). Sirve como un “puente” entre las descripciones en lenguaje natural de los problemas y el modelo computacional de IBP para predecir resultados judiciales. SMILE aprende cómo identificar los factores jurídicos en breves descripciones textuales de los problemas sobre la base de un conjunto de entrenamiento conformado por oraciones ejemplares que describen factores. Como se ilustra en la Figura 10.2, uno ingresa la descripción textual de un pro­ blema que involucra la ley de secretos comerciales. SMILE la representa como una lista de factores y la ingresa a IBP, el cual, a su vez, predice el resultado basándose en el insumo de SMILE y explica la predicción.

10.4.1. Tres representaciones para aprender a partir de los textos

SMILE empleó un conjunto de entrenamiento compuesto por textos judiciales clasificados manualmente. En lugar de ser compendios de todas las opiniones judiciales, ellos deben verse más bien como buscapiés [squibs], breves resúmenes narrativos de los hechos que importan en un caso y del pronuncia­ miento del tribunal, que son básicamente las cuestiones que los estudiantes de primer año de abogacía preparan cuando resumen los casos judiciales.

De hecho, los estudiantes de abogacía, que fueron contratados especial­ mente para la terea, recibieron la instrucción de incluir todos los hechos que parecieron importantes para la decisión del juez. Una guía puso al tanto a los escritores de buscapiés sobre los 26 factores que representan los problemas en la ley de secretos comerciales. A ellos se los animó a que identificaran e incluyeran las descripciones fácticas en las opiniones relacionadas con cual­ -442

La extracción de información argumentativa de los textos judiciales

quier factor aplicable. En particular, se les pidió lo siguiente: (1) que copiaran y pegaran las descripciones fácticas de las opiniones judiciales que estuvieran relacionadas con ciertos factores particulares, (2) que las incorporaran tal como estaban en una narrativa legible, y (3) que insertaran delimitadores en la narrativa, indicando el comienzo y fin de las oraciones asociadas con cada factor. Un investigador revisó cada buscapié buscando precisión y razonabilidad, proporcionando una retroalimentación apta para la revisión.

Al momento de construir SMILE, los investigadores tuvieron la necesi­ dad de atender la importante pregunta de qué hace una buena representación para aprender a partir de los textos. Por ejemplo, considérese la oración de un caso sobre secretos comerciales que el lector ya ha visto en la Sección 1.4.4: “Newlin copió algunos archivos de ICM y los llevó con él a DTI” [“Newlin copied some files from ICM and brought them with him to DTI”]. Esta oración, un ejemplo del Factor F7, Herramientas Invocadas, debe representarse como una instancia de entrenamiento desde la cual un programa puede aprender cómo identificar el factor.

Los investigadores emplearon tres representaciones que incrementalmente toman en cuenta una mayor cantidad de información semántica y sintáctica (Ashley y Brüninghaus, 2009).

La primera representación es la más simple, una representación BOW, introducida en la Sección 7.5.2 sobre recuperación de información de natura­ leza jurídica. La oración se representa como un vector de características, en donde las características simplemente son las palabras de la oración (véanse las Secciones 7.5.2 y 8.3). Una representación BOW de la oración anterior sim­ plemente es una lista de las palabras en la oración ordenadas alfabéticamente: “a algunos archivos con copió de dti él icm llevó los newlin y” [“and brought copied dti files from him icm newlin some them to with”].

La segunda representación, Roles-Reemplazados (RR), es un vector de características similar a BOW, aunque con una diferencia importante. Las características referidas a los nombres de las partes y a las instancias de la in­ formación sobre el producto son reemplazadas con términos más generales que identifican sus roles, como “demandante”, “demandado” o “información”. En RR, el ejemplo anterior sobre F7 es representado como: “a algunos con copió demandado demandante él ellos llevó información y” [“and brought copied defendant him information plaintiff some them to with”]. La tercera representación, Patrones Preposicionales o ProP, es una en la que las oraciones fueron analizadas para identificar “quién hizo qué”. Es­ pecíficamente, el análisis identifica cuatro relaciones sintácticas a considerar: 443-

Kevin D. Ashley

sujeto-verbo, verbo-objeto, verbo-frase proposicional y verbo-adjetivo. Luego, la parte y los nombres de los productos son reemplazados por roles, como en RR. Finalmente, los sinónimos son sustituidos por nombres y verbos que utili­ zan una ontología pequeña. De este modo, la anterior oración del ejemplo fue representada como un vector de características en términos de las siguientes características, ordenadas en una suerte de orden alfabético anidado [nested alpha arder]:

((demandado copiar) (persona copiar)) ((copiar información))

((copiar_de persona) (copiar_de demandante)) ((demandado llevar) (persona llevar))

((llevar ellos)) ((llevar_a demandado) (llevar_a persona))

(llevar_con ellos)) (Ashley y Brüninghaus, 2009). Como se explicó detalladamente en la Sección 7.5.2, un programa puede comparar las oraciones que aparecen representadas como vectores de carac­ terísticas en BOW, RR o ProP a fin de determinar su similitud. Computa la distancia euclidiana entre los puntos finales de los vectores; mientras ella sea menor, las oraciones estarán más cerca y serán más similares. Al momento de aprender un clasificador para cada factor, los investi­ gadores aplicaron tres algoritmos de AA: un algoritmo de árbol de decisión que utiliza C4.5 (Quinlan, 2004) (Sección 4.3.1), Naive Bayes, tal como se implementa en Rainbow (McCallum, 2004) (Sección 10.3.3), y un algoritmo k-nearest neighbor (k-NN), implementado en un programa llamado Timbl (Daelemans et al., 2004) (Sección 4.2).

El flujo del sistema se detalla en la Figura 10.2. Primero, todos los textos se descomponen en oraciones. Se recogen las instancias positivas y negativas que corresponden a cada factor Fi. En cada caso de entrenamiento, todas las oraciones a partir de las que podría inferirse razonablemente que un factor jurídico se aplicó en el caso han sido marcadas manualmente como instancias positivas de ese factor. El resto de las oraciones fueron tratadas en su totalidad como instancias negativas del factor. Luego las oraciones son representadas como BOW, RR o ProP, para crear un vector espacial de instancias.

Los primeros dos algoritmos de A A, C4.5 y Naive Bayes, aprenden un clasificador para cada factor en la fase de entrenamiento. En una fase posterior,

444-

La extracción de información argumentativa de los textos judiciales

el programa aplica cada clasificador factorial a las oraciones de un problema, representadas como BOW, RR o ProP. El algoritmo nearest neighbor (o de vecino más cercano) funciona de manera diferente. En SMILE, los investigadores eligieron k = 1. Es decir, cada nueva oración de un problema fue clasificada en el mismo sentido como la oración que mayor similitud guarda con ella. Cada oración del problema, repre­ sentada como un vector de características con BOW, RR o ProP, es añadida al espacio vectorial de instancias negativas y positivas de cada factor. El programa encuentra la oración con mayor similitud apelando a la métrica euclidiana de similitud ya mencionada, asignándole su clase a la nueva oración, como una instancia positiva o negativa del factor. El programa clasifica el nuevo texto judicial como conteniendo todos los factores para los que tenga al menos una oración que haya sido una instancia positiva del factor.

Figura 10.2. Una visión general de SMILE e IBP (véase Ashley y Büninghaus, 2009)

-445-

Kevin D. Ashley

10.4.2. ¿Cuán bueno fue el funcionamiento de SMILE?

En un experimento LOO de validación cruzada (véase la Sección 4.4.3), los investigadores determinaron que k-nearest neighbor, con k = 1, se desem­ peñó mejor que otros dos algoritmos, por lo que utilizaron este experimento para evaluar qué representación funcionó mejor. Las representaciones RR y ProP alcanzaron medidas F1 entre factores que promediaron el 26% y el 28%, respectivamente. Estas medidas son bajas, pero cada una de las representa­ ciones RR y ProP se desempeñaron mejor que BOW, alcanzando un promedio de medidas F1 superior (Sección 4.4.4), por lo que la diferencia fue estadísti­ camente significativa. RR resultó mejor que ProP, pero esa diferencia no fue significativa. En otras palabras, tanto la inclusión de conocimiento subyacente sobre los roles como la de tecnologías NLP poco profundas para identificar “quién hizo qué” condujeron a una mejor indexación textual de tipo clasificatoria (Ashley y Büninghaus, 2009).

A fin de evaluar el efecto que las tareas de SMILE producen en las predic­ ciones que realiza IBP a partir de los casos, los investigadores llevaron a cabo un segundo experimento. Ellos compararon los resultados judiciales que IBP predijo en relación con casos cuyos factores SMILE había asignado a un texto judicial con aquellos resultados relativos a los mismos casos, pero en donde los factores hubieran sido asignados por seres humanos. Los insumos de IBP fueron los resultados de SMILE para los buscapiés descriptivos de los casos. También ellos compararon las predicciones de SMILE + IBP con una línea de base consistente en el lanzamiento de una moneda sesgada, en donde la pro­ babilidad de que ganara el demandante fuera igual a la fracción del número de casos en que el demandante ganó, sobre el número de casos contenidos en la colección. La precisión de las predicciones de SMILE + IBP fue del 63%, menor que la de IBP (93%), pero mayor que la de la línea de base consistente en el lanzamiento de la moneda sesgada (49%) (Ashley y Brüninghaus, 2009). Al menos hasta donde sabemos, SMILE + IBP fue el primer programa de IA & Derecho en predecir los resultados de casos judiciales ingresados como textos. SMILE analizó las descripciones textuales de los hechos judiciales rele­ vantes e IBP predijo el resultado del caso utilizando un razonamiento basado en casos y un modelo lógico de cuestiones jurídicas. Además, IBP explicó luego su análisis en términos de su enfoque para el testeo de hipótesis. Para una muestra de las predicciones de IBP, véase la Figura 4.6.

Con la ayuda de avances como los que se describirán en el Capítulo 11, una versión mejorada del enfoque SMILE + IBP, combinada con la recuperación de información conceptual de naturaleza jurídica, podría ser útil para que los - 446 —

La extracción de información argumentativa de los textos judiciales

seres humanos predigan los resultados de los problemas, evalúen las predic­ ciones y construyan argumentos tanto a favor como en contra de las mismas.

10.4.3. La anotación de componentes factoriales

En trabajos posteriores, Wyner y Peters aplicaron un enfoque de pipelines para las anotaciones [annotation pipeline approach], con el propósito de identificar en los textos de los fallos aquella información sobre factores jurí­ dicos relativos a los secretos comerciales (Wyner y Peters, 2010, 2012). Ellos desarrollaron un esquema para anotar los componentes factoriales de grano fino con el entorno para la anotación de textos de GATE. Estos componentes de grano fino, a veces denominados factoroides [factoroids], abarcaron términos y frases empleadas en las descripciones de los factores jurídicos sobre secretos comerciales presentes en CATO (Sección 3.3.2). Los investigadores aumentaron la lista con sinónimos de los términos obtenidos de WordNet,1 una base de datos léxica disponible online para el idioma inglés, la cual contiene sinónimos, definiciones y ejemplos, y funciona como una suerte de diccionario.

Por ejemplo, para el factor jurídico Fl, Revelación-En-Negociaciones (D), ellos identificaron manualmente términos como los siguientes:

Demandante, revelar, producto, información, negociación, de­ mandado, obtener, medios legítimos, mostrar, falta de interés, mantener, secreto, empresa conjunta, acuerdo de licencia, venta de un negocio, adquirir, conocimiento, empleo. Ellos expandieron algunos de estos conceptos, como “revelar” o “revelación”, con sinónimos provenientes de WordNet: Anunciar, traicionar, romper, sacar, comunicar, confiar, revelar, descubrir, divulgar, exponer, donar, impartir, informar, filtrar, dejar salir, soltar, hacer conocido, transmitir, develar, decir, anuncio, traición, comunicación, confianza, revelación, divul­ gación, exposición.

Las listas combinadas sirvieron como una “lista de diccionario geográ­ fico” de términos relacionados cubiertos por un concepto y de utilidad para la anotación de nuevos documentos (Wyner y Peters, 2010, p. 40). Utilizando un lenguaje de anotación basado en reglas de GATE llamado JAPE (como el

https: //wordnet.princeton.edu/ -447-

Kevin D. Ashley

lenguaje RUTA de UIMA, referido en la Sección 10.5.3), Wyners y Peters desarrollaron reglas para marcar oraciones de acuerdo con los conceptos aplicables. Cuando GATE encuentra en un texto aquellas palabras que figuran en la lista del diccionario geográfico, dispara una regla correspondiente que anota la oración con el concepto que la cubre, por ejemplo, el tipo “revelación”. Luego de que los conceptos básicos de los factores jurídicos sobre secre­ tos comerciales fueron marcados, reglas compuestas anotaron las oraciones en términos de tipos conceptuales más complejos, como Revelaciónlnformación [Disclosurelnformation], y, en última instancia, como factores jurídicos, inclu­ yendo Revelación-Información-Negociación (Wyner y Peters, 2010, p. 41).

10.5. LA EXTRACCIÓN DE EVIDENCIAS FÁCTICAS Y NORMAS JURÍDICAS CITADAS El sistema LUIMA extrajo de los textos judiciales información de tipo argumentativa sobre las normas jurídicas y sus aplicaciones a los hechos (Grabmair et al., 2015). Este fue el primer paso en un experimento tendiente a evaluar la hipótesis del proyecto LUIMA: mediante la anotación semántica de documentos judiciales en virtud de los roles que las proposiciones desempeñan en un argumento jurídico y la recuperación de ellos mediante las anotaciones, un programa puede superar el desempeño de sistemas que confían en el empa­ rejamiento textual y en técnicas para la recuperación de información jurídica.

Esta sección describe de qué modo LUIMA utiliza anotadores de AA y basados en reglas para anotar documentos judiciales con información semántica que incluye los roles de las oraciones. Luego de esto, el Capítulo 11, referido a la recuperación de información conceptual, explica cómo LUIMA utiliza esta información para propiciar la recuperación de argumentos, es decir, cómo LUIMA identifica y anota aquella información semántica y de tipo argumen­ tativa y la emplea para mejorar la recuperación de información de naturaleza jurídica (Ashley y Walker, 2013). El trabajo incluye un subconjunto del Corpus V/IP y el modelo de ar­ gumentación jurídica de tipo probatorio descripto en la Sección 5.8. Como ya se ha explicado, el marco de la lógica por default, o DLF, modela los roles que desempeñan las proposiciones en el razonamiento de un juez para respaldar sus conclusiones jurídicas. Por ejemplo, el rol de una proposición puede ser el de determinar la norma jurídica para resolver una cuestión o para probar un descubrimiento fáctico que respalde la conclusión de que una condición de la norma jurídica es satisfecha en un caso particular. -448-

La extracción de información argumentativa de ios textos judiciales

10.5.1. La aplicación del sistema tipo LUIMA

En el proyecto LUIMA, los investigadores aplicaron su versión extendida del sistema tipo UIMA al dominio jurídico. Tal como se dijo en su momento en los capítulos 1 y 6 (Sección 6.8), un sistema tipo UIMA constituye una clase de ontología que no sólo se concentra en los tipos de conceptos y relaciones que son importantes en sus dominios aplicativos correspondientes, sino tam­ bién en cómo estos conceptos y relaciones se expresan en los textos. LUIMA distingue entre los conceptos jurídicos y las diferentes formas en las que estos conceptos son mencionados (Grabmair et al., 2015). Como se explicó en la Sección 6.8, en el sistema tipo LUIMA, de natura­ leza jerárquica, los tipos de nivel superior se componen a partir de los tipos de nivel inferior. Específicamente, una jerarquía de tipos suboracionales respalda las anotaciones a nivel de oración en la parte superior de la jerarquía.

Como se muestra en la Tabla 6.6, las anotaciones de los términos tipo [Term type annotations], como TérminoDemandante [PlaintiffTerm], TérminoEnfermedad [IllnessTerm] y TérminoVacuna [ VaccineTerm], se ubican en el nivel más bajo. El segundo nivel incluye menciones tipo, como por ejemplo la MenciónVacuna [VaccinationMention] en “vacuna MMR”. Las formulaciones tipo comprenden el tercer nivel, tal como ocurre con la FormulaciónjurídicaEstándar [LegalStandardFormulation] “la carga probatoria recae sobre el demandante”. El nivel más alto está conformado por oraciones jurídicas tipo, como se ilustra en la Tabla 6.7.

Aquí serán materia de análisis tan sólo tres de estos tipos de anotación a nivel de oración: 1.

OraciónNormafurídica [LegalRuleSentence]: formula una norma ju­ rídica en abstracto, sin aplicarla a los hechos particulares de un caso.

2. OraciónDescubrimientoBasadoEnEvidencia[EvídenceBasedFíndingSentence]: informa el descubrimiento del juzgador de los hechos acerca de si la evidencia en un caso particular prueba que la condición o conclusión de una norma ha sido satisfecha.

3.

OraciónCita [CitationSentence]: acredita y hace referencia a docu­ mentos y fuentes, tales como las decisiones de los tribunales, las leyes, .. las regulaciones, los documentos gubernamentales, los tratados, los escritos académicos o los documentos probatorios.

La aplicación de la clasificación en niveles superiores del sistema LUIMA, incluyendo el nivel de oración, depende de que se detecte la presencia o ausencia de anotaciones de nivel inferior, representadas como características -449-

Kevin D. Ashley

binarias. Por ejemplo, una regla de anotación detecta la FormulaciónJurídicaEstándar, según la cual “la carga probatoria recae sobre el demandante”, así como otras oraciones similares, mediante la detección de una cadena de anotaciones especificadas de nivel inferior: (1) una MenciónDemandante [PlaintiffMention], (2) una clase de expresiones que sean sinónimas de “la carga probatoria recae”, y (3) una clase de verbos que señalan la producción de evidencias (i.e. mostrar, producir, establecer, etc.) (Grabmair et al., 2015).

10.5.2. La preparación de los casos paradigmáticos [Gold Standard Cases]

A los fines de realizar una evaluación inicial de la hipótesis de LUIMA, los investigadores seleccionaron 10 casos del Corpus V/IP introducido en la Sección 5.8. Denominados casos paradigmáticos [gold standard cases], estos casos ya habían sido utilizados en un estudio previo: Cusati, Casey, Werderitsh, Stewart, Roper, Walton, Thomas, Meyers, Sawyer y Wolfe (Ashley y Walker, 2013).2 Todos los casos lidiaban con el problema de probar, en el marco del Programa Nacional de Compensaciones por Lesiones causadas por Vacunas (NVICP), que la vacunación causó la lesión reclamada por el solicitante, la parte lesionada o su representante legal. Los solicitantes ganaron cinco de los casos; el gobierno demandado ganó los restantes cinco.

Los investigadores adoptaron un proceso sistemático para anotar las instancias de OracionesNormaJurídica, OracionesDescubrimientoBasadoECusati vs. Secretary of Health and Human Services, No. 99-0492V (Office of Special Masters, United States Court of Federal Claims, 22 de septiembre de 2005); Casey vs. Secretary of Health and Human Services, Office of Special Masters, No. 97-612V, 12 de diciembre de 2005; Werderitsh vs. Secretary of the Department of Health and Human Services, Office of Special Masters, No. 99-319V, 26 de mayo de 2006; Stewart vs. Sec­ retary ofthe Department of Health and Human Services, Office of Special Masters, No. 06-287V, 19 de marzo de 2007; Roper vs. Secretary of Health and Human Services, No. 00-407V (Office of Special Masters, United States Court of Federal Claims, 9 de dic­ iembre de 2005); Walton vs. Secretary ofthe Department of Health and Human Services, No. 04-503V (Office of Special Masters, United States Court of Federal Claims, 30 de abril de 2007); Thomas vs. Secretary ofthe Department of Health and Human Services, No. 01-645V (Office of Special Masters, United States Court of Federal Claims, 3 de enero de 2007); Meyers vs. Secretary of the1 Department of Health and Human Services, No. 04-1771V (Office of Special Masters, United States Court of Federal Claims, 22 de mayo de 2006); Sawyer vs. Secretary of the Department of Health and Human Services, No. 03-2524V (Office of Special Masters, United States Court of Federal Claims, 22 de junio de 2006); Wolfe vs. Secretary of Health and Human Services, Office of Special Masters, No. 05-0878V, 9 de noviembre de 2006. 450-

La extracción de información argumentativa de los textos judiciales

nE videncias y OracionesCita en los ejemplos de los casos paradigmáticos. Las anotaciones fueron realizadas por el Laboratorio de Investigación en Derecho, Lógica y Tecnología de la Universidad de Hofstra (LLT Lab). Se hicieron todos los esfuerzos para garantizar que el proceso fuera confiable y preciso (Walker y Vaziroba, 2014). Un estudiante y miembro del equipo, entrenado en Derecho y en el sistema tipo de nivel de oración, se encargó de marcar inicialmente cada decisión judicial. Otro estudiante con un entrenamiento similar revisó luego las anotaciones iniciales para notar las diferencias que pudiesen surgir, las cuales serían resueltas por el primer y el segundo revisor. Finalmente, un profesor de Derecho (Walker) revisó esas anotaciones y las certificó como las anotaciones paradigmáticas [gold standard annotations]. Como se describe en la Sección 10.6.2, el LLT Lab utiliza y refina los protocolos para proporcionar un entrenamiento adecuado y asegurar la calidad (Walker et al., 2011).

10.5.3. LUIMA-Annotate De los tres módulos del sistema LUIMA que se describirán en el siguiente capítulo, LUIMA-Annotate, plasmado en la Figura 10.3, es el módulo que se caracteriza por anotar los textos judiciales apelando a dos métodos:

1.

La anotación de suboraciones basada en reglas, en la cual una per­ sona construye manualmente una gramática de reglas de anotación basándose por lo general en la inspección de algunos ejemplos.

2.

AA, en el cual un algoritmo de A A, a partir de un conjunto de en­ trenamiento de ejemplos anotados por seres humanos, construye automáticamente un modelo que distingue entre ejemplos negativos y positivos. Esto se parece a la codificación predicativa de la Sección 8.4.2.

Cuando es ingresado un documento de, pongamos por caso, el servicio CLIR (a la izquierda de la Figura 10.3), el sistema debe identificar en dónde termina una oración y en dónde comienza otra. La división de oraciones ocurre como un paso inicial en la Mención Basada en Reglas & Anotadores de Formulación [Rule-Based Mentían & Formulation Annotators].

La división de oraciones es una tarea sencilla para los lectores humanos, aunque no necesariamente para las computadoras. La puntuación ambigua de los documentos jurídicos presenta desafíos para los divisores automáticos de oraciones. Por ejemplo, las abreviaturas y citas de los documentos jurídicos emplean los puntos (“.”) de formas tales que no siempre constituyen un indi­ cador del final de una oración. Un divisor de oraciones puede interpretarlos -451-

Kevin D. Ashley

como indicando el final de una oración, y esto hará que el AA subsiguiente sea menos efectivo. El divisor de oraciones Lingpipe se las ingenia para manejar fenómenos comunes relacionados con el empleo de puntos, como por ejemplo en la expresión “Inc.” (S.A), que significa ‘incorporated’ (sociedad anónima) (Alias-i, 2008); los investigadores añadieron un módulo para manejar los em­ pleos jurídicos más específicos de los puntos, tal como “v.” (vs.), que significa ‘versus’. La evaluación de la efectividad del módulo será materia de trabajos posteriores (Grabmair et al., 2015).

Figura 10.3. Un esquema de LUIMA-Annotate (Grabmair et al., 2015)

LUIMA-Annotate también se encarga de marcar cierta información presuposicional [presuppositional Information]. La información presuposicional incluye conceptos fácticos y lingüísticos, así como menciones relacionadas específicamente con el dominio regulado, si se trata de una lesión por vacuna­ ción, de una apropiación indebida de secreto comercial o de algún otro asunto jurídico (Ashley y Walker, 2013).

De manera específica, LUIMA-Annotate identifica en las decisiones judiciales entidades como las siguientes: •

Términos: TérminoVacuna, TérminoEnfermedad, TérminoCausalidad.

-452-

La extracción de información argumentativa de los textos judiciales



Menciones: MenciónVacuna, la cual incluye un AcrónimoVacuna emparejado con un TérminoVacuna (“Vacuna MMR”), MenciónEventoVacuñación, MenciónCausalidad.



Normalizaciones: NormalizaciónVm, Normalizaciónlm (esto es, el nombre normalizado de la vacuna o enfermedad mencionada en una oración).

Puesto que las vacunas o las enfermedades pueden expresarse por medio de una multiplicidad de variaciones, acrónimos y abreviaturas, las expresiones estandarizadas o normalizadas son incluidas como parte del proceso de stemming y lematización [lemmatization] (véanse las Secciones 8.3 y 9.3.2). De este modo, el hecho de que una oración sea sobre la “vacuna MMR” se representa en los documentos o consultas en función de un término MenciónVacuna o MenciónEventoVacunación, un nombre normalizado para la vacuna mencio­ nada o para el texto de la mención, como por ejemplo: sobre:MenciónVacuna o sobre-.MenciónEventoVacunación o NormalizaciónVm:#mmr o contenido: “Vacuna MMR” (Che et al., 2015).

Para anotar las citas, los investigadores desarrollaron expresiones regulares (regex), secuencias de caracteres que definen los patrones de búsqueda para patrones de coincidencia de cadenas de diferentes tipos de citas en los documentos jurídicos, incluyendo antecedentes judiciales, disposiciones legislativas, expedientes judiciales y referencias generales (Che et al., 2015).

Reglas manualmente construidas para la anotación de suboraciones

Las oraciones son anotadas automáticamente en términos de las mencio­ nes y tipos de suboraciones. Esta anotación es realizada mediante reglas que han sido programadas a mano en UIMA RUTA, un lenguaje de reglas diseñado especialmente para el emparejamiento textual que facilita el rápido desarrollo de los anotadores UIMA. Uno de los investigadores, también entrenado en Derecho (Grabmair), desarrolló algunas de las reglas de anotación basándose en intuiciones sobre lo que sería útil a través de los distintos dominios jurídicos. Él desarrollo reglas adicionales basándose en las partes de tres de los casos paradigmáticos V/ IP (Roper, Cusati y Thomas). Él extrajo manualmente términos, menciones y

-453

Kevin D. Ashley

formulaciones de los tres textos judiciales y construyó las reglas RUTA para extraer todo esto de manera automática. Luego, intentó expandir el alcance de las reglas para anticipar variaciones en la redacción y estructura a partir de sus intuiciones. Al construir las reglas a partir de los tres casos, él no consultó las anotaciones de nivel de oración de los tres documentos prepa­ rados por los anotadores de los casos paradigmáticos. Estas precauciones se toman como para no “contaminar” los datos o el modelo al examinar esos datos durante la creación o el entrenamiento del sistema que luego será usado en la evaluación. Como ejemplo de una regla manualmente construida para la anotación de suboraciones, aquí puede apreciarse la regla que utilizó RUTA para anotar la FormulaciónJurídicaEstándar:

si (MenciónDemandante TérminoRelaciónDeDeber “¿también?” (“probar” / “mostrar” / “establecer)) ENTONCES

marcar (FormulaciónJurídicaEstándar)

Esta regla significa: SI: la expresión incluye una instancia en la que se menciona al demandante, una instancia de un término que expresa una obli­ gación, un “también” opcional y uno de tres verbos alternativos entonces: anotar la expresión como una FormulaciónJurídi­

caEstándar

Por ejemplo, si la regla detecta una mención del demandante, un térmi­ no como “deber”, un “también” y, digamos, un “mostrar”, entonces anotará la oración como expresando un estándar jurídico.

En la etapa actual del desarrollo de LUIMA, el sistema tipo se compone de 8 tipos de términos, 14 tipos de menciones y 13 tipos de formulaciones. La base de reglas abarca 7 anotadores del diccionario (incluyendo abreviaturas sobre vacunas (Centros para el Control y Prevención de la Enfermedad, 2015)) y 49 reglas sobre entidades, como la FormulaciónJurídicaEstándar, MenciónVacuna, MenciónEstándarDePrueba, MenciónEstándarDePruebaSatisfecho y MenciónEstándarDePruebaNoSatisfechó. No todas estas reglas y tipos han estado directamente implicadas en el proceso de anotación del experimento inicial, discutido más abajo (Grabmair et al., 2015).

-454-

La extracción de información argumentativa de los textos judiciales

Los anotadores de oración del aprendizaje automático

LUIMA-Annotate empleó el AA para la anotación de oraciones. Las tres clasificaciones que debía aprender incluían si una oración era una instancia de una (1) OraciónNormaJurídica, de una (2) OraciónDescubrimientoBasadoEnEvidencias o de (3) ninguna de las dos, es decir, “NoAnotada”, que fue tratada como una etiqueta separada para fines técnicos. El conjunto de datos abarcó 5.909 oraciones, de las cuales 82 fueron instancias de OracionesDescubrimientoBasadoEnEvidencias, 227 fueron instancias de OracionesNormaJurídica y las restantes fueron NoAnotadas.

A los fines del AA, los textos de las oraciones se representaron como vec­ tores de características, tal como ocurrió en el West History Project (Sección 8.5.1), en el trabajo de Michales y Mones (Sección 10.3) o en SMILE (Sección 10.4). En LUIMA, los vectores de características incluyeron la información de la frecuencia tf/idf (véase la Sección 6.4) para todas las secuencias de pala­ bras posibles que llegaran hasta cuatro palabras de extensión contenidas en la oración. Los investigadores también intentaron enriquecer esta representación vectorial de una oración mediante la adición de características relacionadas con una selección de tipos suboracionales de LUIMA. Cada característica aña­ dida constituye una variable binaria, la cual indica si la oración contiene una expresión que ha sido anotada como una instancia del tipo particular.

Aquí puede apreciarse un ejemplo de cómo una oración de muestra ha sido representada a los fines del AA. La oración dice que “(el) Dr. Winston concluyó que [Dr. Winston concluded that] el solicitante sufría de gastroparesia, un desorden en el que se constata un retraso en el vaciamiento gástrico”. Este vector de características incluye la información de la frecuencia tf/idf de todas las secuencias de un elemento (“Dr.”), de dos elementos (“Dr. Winston”), de tres elementos (“Dr. Winston concluyó”) y de cuatro elementos (“Dr. Winston concluyó que”). Puesto que los términos escritos en cursiva son anotados como el TérminoDemandante y el TérminoEnfermedad, respectivamente, el vector también incluye los valores de 1 para cada uno de los términos en cuestión (Grabmair et al., 2015).

Esta oración obtenida de la decisión judicial en Roper, uno de los casos paradigmáticos, fue anotada manualmente como una OraciónEvidencia, y no en cambio como una OraciónDescubrimientoBasadoEnEvidencias, debido a que informaba una conclusión, no del Perito Judicial, sino del Dr. Winston, un testigo experto. Como tal, sería tratada como NoAnotada a los efectos de este

455-

Kevin D. Ashley

ejercicio de A A, en el cual los tres clasificadores no incluyeron OracionesEvidencia (una tarea que demandará futuro trabajo). Como se muestra en la parte inferior izquierda de la Figura 10.3, la de­ cisión del caso Roper, como así también las de los otros casos paradigmáticos, fueron anotadas manualmente para tres oraciones tipo, OraciónNormaJurídica, OraciónDescubrimientoBasadoEnEvidencias y NoAnotada, e ingresadas como insumos en LUIMA-Annotate. Luego de que se aplicaron las reglas para la mención de suboraciones y para la formulación de anotaciones, los casos se trataron como datos para entrenar al Clasificador de Oraciones (Grabmair et al., 2015).

10.5.4. La evaluación de LUIMA-Annotate Los investigadores evaluaron cuán bien se desempeñó LUIMA-Annotate. En particular, el experimento testeó cuán exitoso fue su trabajo para asignar anotaciones de dos niveles de oraciones, OraciónNormaJurídica y OraciónDescubrimientoBasadoEnEvidencias, a 10 casos paradigmáticos. El experimento fue ejecutado como una validación cruzada LOO (véase la Sección 4.4.3). En otras palabras, hubo 10 ejecuciones, una ejecución para cada caso paradigmático. En cada ejecución, las diferentes oraciones perte­ necientes a cada uno de los documentos paradigmáticos hicieron las veces de conjunto de testeo; las oraciones correspondientes a los nueve documentos restantes fueron usadas como datos de entrenamiento. Las oraciones anotadas actuaron como ejemplos positivos de sus anotaciones; las oraciones no anotadas actuaron por su parte como ejemplos negativos. Para cada ejecución se computaron y promediaron valores correspon­ dientes a cuatro medidas: precisión, exhaustividad, exactitud y la medida Fl (definida en la Sección 4.4.4) (véase la Tabla 10.2). No sólo se aplicaron tres algoritmos de AA, Naive Bayes (Sección 10.3.3), la regresión logística (Sección 10.3.3) y los árboles de decisión (Sección 4.3.1), mediante el Divisor Stanford (Finkel et al., 2003-2014), sino también el paquete Weka, un repositorio de herramientas de software para la minería de datos (Machine Learning Group de la Universidad de Waikato, 2015). Dado que la regresión logística fue la que mejor funcionó de los tres algoritmos de AA, fue seleccionada para la anotación de oraciones de nivel almacenadas en una piscina más grande de documentos, situada en el pipeline del sistema principal (como se describe en la Sección 11.4) (Grabmair et al., 2015). -456-

La extracción de información argumentativa de los textos judiciales

Los investigadores también evaluaron si la adición de tipos de suboracio­ nes a los n-gramos en la representación de las oraciones mejoró el desempeño, por ejemplo, los valores de 1 correspondientes al TérminoDemandante y al TérminoEnfermedad en el ejemplo anterior. Las características adicionales no mejoraron el desempeño. Por caso, compárese la Regresión Logística y la Regresión Logística + Tipo en la Tabla 10.2. Probablemente la mayoría de los patrones para la anotación de reglas como la FormulaciónJurídicaEstándar sea de la misma extensión que un n-gramo de cuatro elementos, por lo que su contribución fue mínima (Grabmair et al., 2015).

Como se discute en el Capítulo 11, las anotaciones de LUIMA pueden mejorar la recuperación de información jurídica.

Tabla 10.2. Las medidas de desempeño en la clasificación de oraciones (los valores más altos se destacan en negrita) Algoritmo de AA + Característica adicional

Exactitud

Precisión

Exhausti­ vidad

Macro-F

Naíve Bayes

0.88

0.15

0.75

0.14

Naíve Bayes + Tipo

0.89

0.16

0.75

0.15

Árbol de Decisión

0.97

0.53

0.28

0.23

Árbol de Decisión + Tipo

0.97

0.53

0.29

0.23

Regresión Log.

0.96

0.66

0.38

0.31

Regresión Log. + Tipo

0.96

0.66

0.38

0.31

10.6. LA ANOTACIÓN DE DATOS DE ENTRENAMIENTO

Los esfuerzos para extraer información de tipo argumentativa de los textos judiciales dependen del desarrollo de conjuntos de entrenamiento de alta calidad. Para este propósito, adquirirá una importancia creciente la creación de conjuntos de documentos anotados manualmente que puedan usarse como estándares paradigmáticos. Los documentos anotados manualmente pueden usarse como datos tanto para el entrenamiento como para la evaluación de los anotadores automatizados. Dado el tamaño de muchos cuerpos, los seres humanos todavía nece­ sitarán marcar una gran cantidad de documentos, incluso a pesar de que sólo una fracción del cuerpo tenga que anotarse manualmente. 457 -

Kevin D. Ashley

Idealmente, habrá datos anotados suficientes como para reservar algu­ nos de ellos y formar un conjunto de testeo intocable con el cual evaluar el modelo de AA entrenado en el resto de los datos. Si no, la separación entre los conjuntos de entrenamiento y testeo puede reforzarse por medio de LOO o de una validación cruzada de pliegue-k [k-fold cross validation]. Además de la gran cantidad de documentos anotados que se necesitan para lograr un experimento conclusivo o un sistema estable, las anotaciones también deben tener una calidad suficiente. La obtención de buenas anotacio­ nes manuales demanda que cada texto sea asignado a muchos seres humanos para que los anoten independientemente, así como la comparación de sus ano­ taciones, lo que permite ver la medida en que ellos acuerdan, es decir, la medida de fiabilidad de sus anotaciones. En las instancias en las que los anotadores difieren, uno puede dar cuenta del desacuerdo en el diseño del experimento o bien resolver el conflicto acudiendo a algún método. Si los seres humanos no pueden acordar en sus anotaciones, quizá debido a la gran ambigüedad del significado de la etiqueta, digamos, entonces un programa de AA tampoco será capaz de aprender cómo aplicar la etiqueta. En este sentido, la fiabilidad del anotador humano impone un límite superior sobre el éxito de las técnicas de AA automatizadas.

Un entorno respaldado computacionalmente puede brindar apoyo a equipos de personas encargados de marcar los textos. Implementa un proce­ dimiento sistemático para guiar y coordinar los esfuerzos de los anotadores y monitorear su fiabilidad.

10.6.1. La anotación en Debater de IBM El equipo de Debater de IBM ha desarrollado un enfoque sistemático para anotar manualmente los conjuntos de entrenamiento, como para que el AA sea capaz de extraer la información de los textos (Levy et al., 2014).

Como se mencionó en el Capítulo 1, Debater extrae los alegatos argu­ mentativos a favor o en contra de un tema de artículos de Wikipedia y la evidencia de respaldo existente. Más específicamente, detecta afirmacio­ nes dependientes del contexto [context-dependent claims] (CDC), que son enunciados generales y concisos que directamente respaldan o disputan un tema dado. También detecta aquella evidencia dependiente del contexto [context-dependent evidence] (CDE), que equivale al segmento de un texto que directamente respalda una CDC en el marco de un tema o tópico determinado (Aharoni et al., 2014a). Al detectar las afirmaciones, Debater emprende una

-458-

La extracción de información argumentativa de los textos judiciales

tarea similar a la realizada por Mochales y Moens (2011), aunque no todavía con los textos jurídicos.

Dado un tema y ciertos artículos relevantes, el componente de una ora­ ción selecciona las 200 mejores oraciones. Un componente de límites delimita la afirmación que aparece como candidata en cada oración. Mediante el empleo de puntajes para oraciones y límites, un componente de ranking selecciona luego las 500 mejores CDC. Como LUIMA, el proyecto de Debater emplea AA, aunque Debater lo hace en cada uno de los tres pasos: en la selección de la oración, en la fijación de los límites y en el ordenamiento jerárquico de las afirmaciones que se ofrecen como candidatas. El AA de Debater depende de la habilidad de los anotadores humanos para realizar una anotación de alta calidad de un conjunto de documentos de entrenamiento. A los anotadores se les pide etiquetar los fragmentos textuales como CDC si y sólo si ellos satisfacen las siguientes exigencias. El fragmento del texto debe:



Fortaleza: Expresar un contenido poderoso que directamente respalde/dispute el tema.

®

Generalidad: Expresar un contenido general que pueda manejarse con una idea relativamente amplia.

®

Fraseo: Formular un enunciado gramaticalmente correcto y semán­ ticamente coherente.

°

Espíritu del texto: Mantener el espíritu del texto original.



Unidad temática: Manejarse con un tema o tópico, o, a lo sumo, con dos temas o tópicos relacionados (Aharoni et al., 2014a).

El equipo de Debater desarrolló una forma sistemática de organizar el esfuerzo humano de anotación para maximizar la fiabilidad. Como ya se dijo, la fiabilidad en la anotación está referida al nivel de acuerdo que pueden alcanzar los codificadores humanos (por lo general) independientes en la asignación de una etiqueta a la misma pieza textual. Una medida estándar del acuerdo de los etiquetadores viene dada por el coeficiente kappa (/ Original markups

v annotalor!

secrecy within the plant. But the events just related took place before that. 15

An inspection of the machines manufactured by the plaintiff and its predecessor would dísdose everything which the drawings of those machines set out. It is true one would have to have a machine and have it cleaned and not in

operation in order to take the measurements. But we think it is indicated that any skilled engineer could form a set of drawings or bfueprlnts for himseif if he had opportunlty wíth the parts of the machine before him. The court was corred in

saying that Ihere was no basis for injunctive relíef against Yokana. If the plaintiff is entitled to damages for the acceleration of Yokana's plans due to the fact that he had the drawings and did not have to measure the completed

machine, it is to be remembered that the court retained jurisdiction for the award of any damages to which the plaintiff is

|7 Fio-Piasnl(iW?scicsed-!nfofrnatfon-to-out3!d

anno!atar2

f7 FiO-Piajntftkfesclcsed-infofmabon-tcKJutSfd 117 F27-Di5Closed'informaítcn-in-pubiic-forum 117 Fy-Defendant-titred-plaintifí-employee

found to be entitled.

Figura 10.5. Una anotación de los factores y componentes de un caso de secretos comercia­ les mediante el empleo de GATE Teamware (Wynery Peters, 2010)

WebAnno ha sido diseñada para conectar fácilmente las plataformas de crowdsourcing o colaboración colectiva, de modo tal que las tares de anotación más simples puedan ser manejadas por un gran número de anotadores sin las habilidades necesarias (Yimam et aL, 2013). Algunas de las ventajas y desafíos de la anotación colaborativa son discutidas en la Sección 12.5.2.

-463-

Kevin D. Ashley

H-HAhnotatíóri BBB WabAnno | Home

Factor Annolalion for Trade Secret Misapproprialion • Summer 2016/Mason v. Jack Daniel DistiHery, 518 So. 2d 130 - Ala_ Court of Civil Appeals 1987.txt

Annotauon FirLfñrqüFProaücn PláTrittffl NoTPtaTfflir : • Then he began serving toe beverage in masón jars wito labels proclaiming. 'Lynchburg Lemonade. only at Tony Mason's, Huntsville' and advertised Lynchburg Lemonade as a house speciafty. He had T-shirts printed wito toe ñame. Lynchburg Lemonade. on toem, and he changed toe ñame o! his band, which pedorros at his restauran! and lounge, to Tony Masón and toe Lynchburg Revue. ■ ■: Masón testified toat Lynchburg Lemonade became “the most popular drink we had." He estimated toat it comprised about a toird of his total sales of alcoholic dnnks.

;Ft5 Untqw-Prcdj«) PUffitiffl Ho~| Coürc Obviously. toe exclusive sale of Lynchburg Lemonade was of great valué to Masón. We might reasonably ínter, moreover. toat the beverage could also have been valuadle lo his competrtors in toe Huntsville area. Í9 Hi^Securtty^Wcajünis | Oéfehtfáflt f Hó fO¿r¿rwí3nt: The tíefendants contend. however. that protecting toe secrecy of toe recipe for Lynchburg Lemonade. a quite important factor in determining toe existence of a trade secret. was tacking.

Serjrity-Mcasures f Pbiritltf ] Ye jTCoúrf We find evidence to the contrary. |Fóftcüflty-Meásures | PüInülYfrtó'fPijwtiff; Masón testified regarding toe precautions he took to protect toe secrecy of Lynchburg Lemonade.

Sctyilty-Mcasurcs l Piatnlftf | No | Pumtífh He testified toat he toíd only a few oí his employees—toe barrendera—the recipe. F6 Sccürfty-Measures t Pialrr.lt' | Mo ( Pülriríff He staled toat each one was specificatly mslructed not to teil anyone the recipe.

(FO.wurtttMeí Jures I Pt¿l(S>ff | No P’Ltfñd K ; To prevent customers from learning the recipe, toe beverage was mixed in toe “back" of the restauran! and lounge. Mason’s testimony was largely confirmed by toat of his employees and past employees

The testimony also reflectad that Mason's efforts to keep the recipe to Lynchburg Lemonade a secret were apparentfy successful. until Winston Randle iearned ihe recipe.

;FJ5'.t^fqug¿?xcabct (Pulntltf | HoTCóurtl it appears that one could not order a Lynchburg Lemonade In any estabiishment other toan toat of toe plaintiff.

üchn sci ts Ln:ví.-fs:Ui’. □íirwtadl - (kimputer üscrf.'j Dypartour.! •• VVefcAnna ■- 2.3 1 Í2Ü15-O4-G7 10:43:53, brnid 6c4t:o3b8483131c47e2b7!2i:9rx>etMt)íi