La progresiva incorporación de sistemas de inteligencia artificial en los sistemas de justicia constituye uno de los fenómenos más disruptivos del derecho procesal contemporáneo. En el ámbito de la actividad probatoria, la inteligencia artificial generativa presenta un potencial significativo como herramienta de apoyo para el análisis de información y la sistematización de elementos probatorios. Estudios empíricos recientes sobre su implementación en estudios jurídicos y departamentos legales muestran que estas tecnologías pueden alcanzar niveles relevantes de eficiencia incluso en tareas que requieren un alto nivel de juicio humano. En efecto, la investigación desarrollada por el laboratorio UBA IALAB evidenció que la inteligencia artificial generativa alcanza aproximadamente un 71 % de eficiencia en actividades que demandan valoración jurídica o análisis complejo, lo que demuestra su capacidad para asistir y complementar el trabajo profesional en procesos que implican interpretación, evaluación y toma de decisiones (Corvalán & Ferre, 2024, p. 27).
Asimismo, el estudio señala que la inteligencia artificial generativa muestra niveles considerables de eficiencia en tareas de complejidad media y alta (62 % y 73 % respectivamente), lo cual resulta particularmente relevante en contextos jurídicos donde la actividad probatoria exige revisar grandes volúmenes de información, identificar patrones documentales y organizar elementos de convicción de manera sistemática. En este sentido, la investigación concluye que el uso de estas herramientas no implica la sustitución del juicio jurídico humano, sino más bien la configuración de un modelo colaborativo entre inteligencia artificial y profesionales del derecho, donde la tecnología funciona como instrumento de apoyo en la gestión y análisis de información relevante para la toma de decisiones jurídicas (Corvalán & Ferre, 2024, pp. 26 y 27).
Por tanto, la IA está impulsando cambios profundos en cómo se brinda asesoría legal y cómo se administra justicia. Sin embargo, la experiencia comparada muestra que, al menos en los sistemas occidentales, su implantación institucional no se ha orientado prioritariamente a sustituir la decisión judicial, sino a reforzar tareas previas o auxiliares: clasificación de expedientes, selección de casos, agrupación de litigios repetitivos, revisión documental, elaboración de resúmenes, apoyo en la redacción y, en algunos contextos, predicción de riesgos procesales o penitenciarios. En otras palabras, la IA se ha expandido sobre todo en la periferia operativa del razonamiento jurisdiccional, y mucho menos en su núcleo decisorio, precisamente porque la fijación de los hechos y la justificación de la decisión siguen estando sometidas a exigencias de racionalidad, motivación y control intersubjetivo que no pueden agotarse en una inferencia algorítmica (Gascón Abellán, 2010, pp. 49, 61 y 67; Ferrer Beltrán, 2022, p. 61; Canale & Tuzet, 2021, pp. 94-95).
Uno de los casos más citados en América Latina es el de Argentina, donde el sistema Prometea fue desarrollado en el ámbito del Ministerio Público Fiscal de la Ciudad de Buenos Aires. Según la literatura especializada recogida en la ficha aportada, se trata de una herramienta creada para optimizar la justicia mediante funciones de automatización y predicción, aplicada en asuntos de resolución relativamente sencilla, como infracciones menores, accidentes de tránsito o controversias vinculadas con políticas sociales. Su utilidad radica en acelerar tareas repetitivas y estandarizables, permitiendo que el trabajo humano se concentre en los casos que demandan mayor deliberación jurídica (Marcazzolo Awad, 2023, p. 77).
En Colombia, la Corte Constitucional implementó Pretoria, un sistema que apoya el trámite de selección de tutelas. La propia Corte lo describe como una herramienta inteligente capaz de seleccionar, leer y elaborar resúmenes de miles de providencias en segundos, así como categorizar expedientes según criterios previamente definidos y generar estadísticas útiles para la gestión judicial. No se trata, por tanto, de una inteligencia artificial que “decida” el caso, sino de una infraestructura orientada a filtrar información, priorizar asuntos y hacer más eficiente la etapa de preselección y estudio, especialmente en un tribunal sometido a una altísima carga de expedientes. Esa misma experiencia colombiana resulta relevante porque, paralelamente, la Corte ha desarrollado criterios orientadores sobre el uso adecuado de la IA en clave de debido proceso y control judicial.
El caso de Brasil es particularmente significativo por su escala institucional. En el Supremo Tribunal Federal, el proyecto Victor, creado en 2018, fue diseñado para apoyar la triage de recursos extraordinarios y la identificación de piezas procesales y temas de repercusión general. Más recientemente, el propio STF informó que había ampliado el uso de inteligencia artificial en apoyo de la actividad jurisdiccional. En el Superior Tribunal de Justiça, por su parte, el proyecto Athos fue incorporado para identificar recursos con el mismo asunto y facilitar su eventual tratamiento como repetitivos, contribuyendo así a la uniformización de la jurisprudencia. Además, el Conselho Nacional de Justiça estableció que las soluciones de IA en desarrollo o en uso dentro del Poder Judicial brasileño deben registrarse en Sinapses, que funciona como catálogo de sistemas y como mecanismo de gobernanza y clasificación de riesgos. Esto revela una doble tendencia: expansión del uso institucional de IA para gestión y tratamiento masivo de litigios, y, al mismo tiempo, fortalecimiento de reglas de supervisión y trazabilidad.
En Estados Unidos, la experiencia ha sido más intensa y más controvertida en materia penal. Allí se han utilizado sistemas algorítmicos de evaluación de riesgo, como COMPAS, para auxiliar decisiones vinculadas con la imposición de penas, la libertad provisional, la probation o la libertad condicional. La lógica de estos instrumentos consiste en cuantificar la probabilidad de reincidencia a partir de variables personales, sociales y criminológicas. Sin embargo, la experiencia estadounidense también ha puesto de relieve los principales riesgos de estos sistemas: sesgo algorítmico, falta de transparencia, opacidad derivada del secreto empresarial, dificultades para el contradictorio y posibles afectaciones al derecho de defensa y a la imparcialidad judicial.
Los casos Malenchik v. State of Indiana y State v. Loomis son paradigmáticos precisamente porque admitieron su empleo como herramienta de apoyo, pero no como sustitutivo de la decisión judicial, y abrieron el debate sobre la legitimidad constitucional de basar una resolución penal en una “caja negra” algorítmica (Marcazzolo Awad, 2023, pp. 78-90).
En Reino Unido, el enfoque institucional ha sido más prudente. La Judiciary of England and Wales emitió una guía oficial para titulares de función judicial en la que reconoce usos potencialmente útiles de la IA, como la síntesis de grandes volúmenes de texto, la ayuda en la preparación de presentaciones y ciertas tareas administrativas. También identifica expresamente el Technology Assisted Review (TAR), es decir, herramientas de aprendizaje automático usadas en el disclosure para localizar documentos potencialmente relevantes dentro de grandes conjuntos de datos. Pero, al mismo tiempo, advierte que los chatbots públicos no trabajan con bases autoritativas, pueden producir respuestas inexactas o sesgadas y no son un medio confiable para realizar investigación jurídica que no pueda ser verificada de forma independiente. La línea británica, entonces, no es la automatización de la decisión, sino la admisión de herramientas de asistencia bajo estricta responsabilidad humana.
En España, el Consejo General del Poder Judicial aprobó en enero de 2026 una instrucción dirigida a la carrera judicial en relación con el uso de inteligencia artificial. Según la nota oficial, los jueces solo pueden emplear aplicaciones de IA, incluida la generativa, que hayan sido facilitadas por las administraciones competentes en materia de Justicia y sometidas al control del CGPJ, o bien proporcionadas directamente por el propio órgano de gobierno judicial. La misma comunicación oficial alude expresamente a la elaboración de borradores de resoluciones judiciales, lo que muestra que el uso institucional autorizado se orienta a tareas de apoyo en la redacción, pero dentro de un entorno controlado y no mediante herramientas abiertas o no auditadas. El modelo español, por tanto, enfatiza la gobernanza tecnológica, la seguridad institucional y la reserva frente al uso libre de IA por parte de jueces en la producción de decisiones.
Incluso cuando la IA no es empleada directamente por el tribunal para decidir, varios sistemas judiciales ya han comenzado a regular su incidencia en la actividad procesal. Un ejemplo interesante es Canadá, donde el British Columbia Civil Resolution Tribunal, que se presenta como el primer tribunal en línea del sistema público de justicia de esa provincia, reformó en 2026 sus reglas para prohibir expresamente la presentación de casos inexistentes o evidencia falsa creada o alterada por herramientas de inteligencia artificial. Este dato es relevante porque muestra una segunda dimensión del fenómeno: la IA no solo como instrumento de apoyo para jueces o funcionarios, sino también como fuente potencial de distorsión probatoria que obliga a rediseñar reglas procesales de autenticidad, lealtad y fiabilidad de la información aportada por las partes.
Vistas en conjunto, estas experiencias comparadas permiten advertir que la IA ya cumple funciones concretas en ministerios públicos, cortes constitucionales, tribunales supremos y órganos de gobierno judicial. Pero también muestran que su uso se concentra en operaciones como selección, clasificación, agrupación de litigios repetitivos, revisión de documentos, elaboración de resúmenes, estadísticas y apoyo a la gestión. Esta constatación es importante para el proceso penal, porque indica que la frontera tecnológicamente más plausible no está en reemplazar la valoración judicial de la prueba, sino en asistir la construcción del contexto cognoscitivo dentro del cual el juez o la jueza deben decidir. Y allí surge el problema central: aun cuando la IA pueda mejorar la eficiencia en el tratamiento de grandes volúmenes de información, la valoración probatoria sigue siendo una actividad racional, contextual y justificable, guiada por la lógica y por estándares de corroboración, no por automatismos cerrados (Ferrer Beltrán, 2022, pp. 61 y 292; Gascón Abellán, 2010, pp. 63 y 67).
En esa medida, la experiencia extranjera no autoriza a concluir que la inteligencia artificial pueda asumir por sí sola la fijación judicial de los hechos. Más bien confirma que, cuanto más se aproxima una herramienta algorítmica al núcleo de la decisión sobre hechos, prueba y responsabilidad, mayores son las exigencias de transparencia, explicabilidad, contradicción y motivación. Esto es especialmente cierto en materia probatoria, donde la verdad jurídica no se identifica ni con la mera coherencia interna de un sistema ni con la simple aceptabilidad pragmática de una salida automatizada, sino con una reconstrucción racional de los hechos sustentada en elementos de juicio contrastables y en una justificación susceptible de control público (Gascón Abellán, 2010, pp. 61-67; De Paula Ramos, 2019, pp. 99-100).
Por ello, en el proceso penal —estructurado sobre garantías como la inmediación, la contradicción y la valoración racional de la prueba— el desafío no consiste solo en determinar si la IA puede incorporarse, sino en delimitar en qué momento de la actividad probatoria puede hacerlo sin afectar la estructura epistemológica de la decisión judicial. La comparación internacional sugiere, en suma, que el uso más legítimo y extendido de la IA se encuentra hoy en la gestión del conocimiento jurídico y probatorio, no en la sustitución del razonamiento judicial que debe fundamentar la sentencia.
La inteligencia artificial aplicada al derecho ha evolucionado desde sistemas de apoyo a la gestión documental hacia herramientas capaces de analizar información compleja y detectar patrones en grandes volúmenes de datos jurídicos. Este desarrollo se explica, en parte, por la creciente digitalización de los sistemas judiciales y por la disponibilidad masiva de información procesal susceptible de ser procesada mediante algoritmos.
En el ámbito jurídico, la inteligencia artificial puede definirse como el conjunto de sistemas computacionales diseñados para realizar tareas que normalmente requieren inteligencia humana, tales como el reconocimiento de patrones, la toma de decisiones o el análisis del lenguaje natural. En el contexto del ejercicio profesional del derecho, estas herramientas han demostrado una notable capacidad para procesar grandes volúmenes de documentos, identificar inconsistencias normativas y analizar precedentes jurisprudenciales, reduciendo significativamente los tiempos de investigación jurídica y revisión documental (Guillén Díaz, 2024).
La introducción de estas tecnologías en el ámbito judicial responde, además, a una transformación estructural de la práctica jurídica. Tradicionalmente, la abogacía y la judicatura han sido profesiones basadas en actividades intelectuales como el análisis, la interpretación y la argumentación. Sin embargo, el crecimiento exponencial de la información jurídica ha generado una presión creciente hacia la automatización de determinadas tareas rutinarias. En este contexto, la inteligencia artificial aparece como una herramienta capaz de procesar información que excede las capacidades cognitivas humanas, permitiendo analizar miles de documentos o precedentes en cuestión de segundos (Amunátegui Perelló, 2021).
No obstante, la incorporación de inteligencia artificial en la administración de justicia plantea interrogantes fundamentales sobre el modo en que se produce el conocimiento judicial. El razonamiento probatorio en el proceso penal no se limita a la simple identificación de patrones estadísticos, sino que implica un proceso complejo de inferencia racional, valoración contextual y justificación argumentativa. Por esta razón, la posibilidad de delegar parte de esta actividad a sistemas algorítmicos ha generado intensos debates en la teoría del proceso.
Uno de los ámbitos donde la inteligencia artificial podría tener mayor impacto es la valoración de la prueba personal, especialmente en relación con el testimonio y la declaración de las partes. La psicología del testimonio ha demostrado que la memoria humana es inherentemente falible y que diversos factores situacionales pueden afectar la fiabilidad de las declaraciones. Entre estos factores se encuentran la distancia desde la cual se observó el hecho, las condiciones de iluminación, el tiempo de observación o el nivel de estrés experimentado por el testigo.
Desde esta perspectiva, algunos autores han señalado que los sistemas de inteligencia artificial podrían utilizar bases estadísticas para evaluar la probabilidad de fiabilidad de un testimonio considerando variables situacionales objetivables. En teoría, un algoritmo podría analizar simultáneamente múltiples factores que influyen en la memoria humana y ofrecer una estimación probabilística sobre la credibilidad de una declaración (Nieva Fenoll, 2018).
Sin embargo, este tipo de aplicaciones enfrenta limitaciones importantes. Aunque muchos factores que afectan la memoria pueden ser identificados empíricamente, su influencia no es determinística. La psicología del testimonio muestra que estas variables solo incrementan o disminuyen la probabilidad de error en el recuerdo, pero no permiten establecer conclusiones absolutas sobre la veracidad de una declaración. Por esta razón, una utilización acrítica de la estadística podría conducir a una reaparición indirecta del sistema de prueba legal, en el cual determinados factores predeterminaban el valor probatorio de un testimonio (Nieva Fenoll, 2018).
En consecuencia, el uso de inteligencia artificial en la valoración de testimonios debería limitarse a funciones de apoyo, como la comparación de declaraciones con otros elementos probatorios o la detección de inconsistencias fácticas. Estas tareas, que implican el procesamiento simultáneo de grandes cantidades de información, pueden realizarse con mayor eficiencia mediante algoritmos que mediante el análisis humano.
No obstante, el posible aporte de la inteligencia artificial no se limita a la prueba personal. También cabe preguntarse si este tipo de herramientas podría tener algún papel relevante en la valoración de la prueba documental. En este ámbito, la inteligencia artificial presenta ciertas ventajas técnicas, especialmente en lo relativo al análisis masivo de textos y al reconocimiento de patrones lingüísticos. En efecto, los sistemas de procesamiento de lenguaje natural pueden identificar inconsistencias en el estilo de redacción, detectar estructuras lingüísticas atípicas o reconocer divergencias terminológicas que podrían revelar anomalías en la elaboración de un documento. Incluso podrían contribuir a verificar si el lenguaje utilizado se corresponde con el contexto institucional o jurídico en el que el documento se inserta (Nieva Fenoll, 2023, p. 91).
Sin embargo, estas capacidades tienen un alcance limitado desde el punto de vista probatorio. Una inteligencia artificial puede identificar lo que literalmente dice un documento, de manera semejante a como lo hace un traductor automático, pero ello no implica que sea capaz de comprender plenamente su significado. Comprender el sentido de un documento exige contextualizarlo, interpretar la intención del autor y relacionarlo con los demás elementos del caso, operaciones que requieren necesariamente intervención humana (Nieva Fenoll, 2023, p. 93). En otras palabras, la inteligencia artificial puede asistir en la lectura y análisis formal de los textos, pero la interpretación jurídica del documento sigue siendo una tarea eminentemente humana.
A ello se suma un problema adicional. La valoración de la prueba documental no consiste únicamente en comprender el contenido literal del escrito, sino también en determinar su credibilidad, sus motivaciones subyacentes y su relación con otros elementos probatorios. Incluso cuando el documento parece claro en su redacción, el juez debe evaluar qué quiso decir realmente su autor y qué inferencias pueden derivarse de lo expresado o de lo omitido en el texto (Nieva Fenoll, 2010, p. 156). Estas operaciones interpretativas requieren conocimientos contextuales y razonamientos inferenciales que actualmente exceden las capacidades de los sistemas de inteligencia artificial.
Algo similar ocurre con la prueba pericial. En principio, podría pensarse que la inteligencia artificial tiene un campo de aplicación especialmente prometedor en este ámbito, dado que muchos dictámenes periciales se basan en análisis técnicos o científicos que implican grandes volúmenes de datos. Sin embargo, la valoración de la prueba pericial presenta dificultades epistemológicas particulares. El principal problema radica en que el juez no suele poseer conocimientos especializados en las disciplinas científicas sobre las que versa el dictamen, lo que dificulta evaluar la calidad de los métodos utilizados o la corrección de las conclusiones alcanzadas (Nieva Fenoll, 2010, p. 156).
En este contexto, algunos autores han sugerido que la inteligencia artificial podría desempeñar un papel auxiliar en dos ámbitos específicos: la evaluación de las credenciales del perito y el análisis preliminar de la fiabilidad metodológica del dictamen. Por ejemplo, los sistemas automatizados podrían examinar datos objetivos como la trayectoria académica del experto, sus publicaciones o su participación en investigaciones científicas (Nieva Fenoll, 2023, p. 93). No obstante, este tipo de evaluación presenta riesgos evidentes, ya que los indicadores cuantitativos —como el número de publicaciones o citas académicas— no necesariamente reflejan la calidad real del trabajo científico. En muchos casos, la relevancia de una investigación solo puede ser evaluada por expertos en la misma disciplina, lo que limita considerablemente la utilidad de una valoración automatizada (Nieva Fenoll, 2023, p. 94).
Por otro lado, la inteligencia artificial podría contribuir a examinar ciertos aspectos formales del dictamen pericial, como la coherencia entre los datos empíricos recogidos y las conclusiones presentadas por el experto. Un sistema algorítmico podría detectar cálculos erróneos, inconsistencias en las mediciones o discrepancias entre los resultados obtenidos y las inferencias formuladas por el perito (Nieva Fenoll, 2023, p. 98). Este tipo de análisis podría resultar particularmente útil para el juez, dado que tales incoherencias suelen ser difíciles de identificar sin conocimientos técnicos especializados.
No obstante, incluso en este ámbito el alcance de la inteligencia artificial es limitado. La evaluación de la validez científica de una técnica o de la solidez metodológica de una investigación exige analizar aspectos complejos del conocimiento científico, como la posibilidad de falsificación de la hipótesis, el grado de revisión por pares o el nivel de aceptación dentro de la comunidad científica. Estos criterios, que se han desarrollado en la jurisprudencia estadounidense a partir del conocido estándar Daubert, exigen una valoración cualitativa del método científico que difícilmente puede ser automatizada (Vázquez, 2018, p. 84).
Desde una perspectiva más general, estas limitaciones deben situarse dentro del marco epistemológico de la valoración probatoria. La decisión judicial no puede basarse en intuiciones subjetivas o impresiones psicológicas del juez, sino en inferencias racionales fundadas en la evidencia disponible (Taruffo, 2003, p. 82). En este sentido, la inteligencia artificial podría contribuir a mejorar el análisis de grandes volúmenes de información probatoria o a identificar inconsistencias que podrían pasar desapercibidas para el razonamiento humano. Sin embargo, la formación del convencimiento judicial sigue siendo una actividad argumentativa y deliberativa que debe ser justificada mediante razones intersubjetivamente controlables.
Desde esta perspectiva epistemológica, el proceso judicial debe orientarse a construir la mejor aproximación posible a la verdad de los hechos a partir del conjunto de pruebas disponibles, aun cuando dicha verdad sea necesariamente relativa y contextual (Taruffo, 2003, p. 86). Ello implica que la valoración probatoria debe realizarse mediante un análisis racional del acervo probatorio, en el que el juez establezca inferencias justificadas entre los datos probatorios y las hipótesis fácticas en discusión (Contreras Rojas, 2015, p. 84).
En consecuencia, aunque la inteligencia artificial puede constituir una herramienta útil para el análisis técnico de información probatoria, su papel en el proceso judicial debe concebirse como estrictamente auxiliar. Los algoritmos pueden ayudar a procesar información, detectar patrones o identificar inconsistencias, pero la valoración final de la prueba —esto es, la construcción racional de la hipótesis fáctica que mejor se ajusta al conjunto de evidencias— sigue siendo una tarea que corresponde exclusivamente al juzgador.
En el contexto del proceso penal peruano, la actividad probatoria se encuentra estructurada sobre el principio de libertad probatoria y la valoración racional de la prueba. El juez debe formar su convicción a partir de la apreciación conjunta de todos los medios probatorios producidos en el juicio oral, justificando su decisión mediante una motivación racional y controlable.
En este marco, la inteligencia artificial podría contribuir a mejorar determinadas fases de la actividad probatoria. Por ejemplo, los sistemas de procesamiento de lenguaje natural podrían analizar declaraciones, comparar versiones de los hechos y detectar contradicciones internas en los testimonios. Asimismo, herramientas de análisis de datos podrían identificar correlaciones entre distintos medios de prueba, facilitando la reconstrucción de los hechos investigados.
Además, el uso de inteligencia artificial resulta particularmente relevante en la investigación de delitos complejos, como la criminalidad organizada o los delitos informáticos, donde la evidencia suele consistir en grandes volúmenes de información digital. En estos casos, los algoritmos pueden analizar patrones de comunicación, transacciones financieras o redes de interacción entre individuos, permitiendo identificar estructuras criminales que resultarían difíciles de detectar mediante métodos tradicionales.
No obstante, la incorporación de estas tecnologías en el proceso penal debe realizarse con cautela, ya que su utilización podría afectar garantías fundamentales del proceso, especialmente el derecho de defensa y el principio de inmediación.
El principio de inmediación constituye uno de los pilares del modelo acusatorio. En su concepción clásica, implica que el juez debe percibir directamente la prueba producida en el juicio oral, especialmente la prueba personal, para poder valorar adecuadamente su credibilidad.
Sin embargo, la creciente digitalización del proceso penal y la introducción de herramientas tecnológicas han comenzado a transformar esta concepción tradicional. La utilización de grabaciones audiovisuales, audiencias virtuales y sistemas de análisis automatizado de información plantea la posibilidad de una inmediación mediada tecnológicamente, en la que el juez accede a la prueba a través de interfaces digitales o sistemas algorítmicos.
Este fenómeno obliga a replantear la naturaleza del principio de inmediación. Más que una simple percepción sensorial de la prueba, la inmediación debe entenderse como una garantía de control racional sobre el proceso de producción del conocimiento judicial. En este sentido, la inteligencia artificial no necesariamente contradice el principio de inmediación, siempre que su utilización se mantenga bajo la supervisión del juez y sea compatible con la transparencia del razonamiento probatorio.
La La utilización de inteligencia artificial en la administración de justicia plantea importantes desafíos éticos y constitucionales. Diversos instrumentos internacionales han destacado la necesidad de garantizar que los sistemas algorítmicos respeten los derechos fundamentales y operen bajo principios de transparencia, responsabilidad y supervisión humana (Corona Nakamura & González Madrigal, 2023, p. 205). En este sentido, el desarrollo de tecnologías de inteligencia artificial aplicadas al ámbito jurídico ha motivado la elaboración de marcos normativos y principios orientadores destinados a asegurar que su implementación se realice en conformidad con los estándares del Estado de derecho.
En esta línea, los denominados Principios Asilomar sobre inteligencia artificial establecen que los sistemas algorítmicos deben ser seguros, transparentes y compatibles con los valores humanos, incluyendo el respeto a la dignidad y los derechos fundamentales. Entre sus postulados se encuentran la exigencia de responsabilidad humana sobre los sistemas automatizados, la explicabilidad de los algoritmos y la necesidad de evitar que la inteligencia artificial genere efectos discriminatorios o perjudiciales para las personas (Bujosa Vadell, 2022).
De manera similar, las directrices europeas sobre inteligencia artificial fiable señalan que estos sistemas deben cumplir tres requisitos fundamentales: ser jurídicamente lícitos, éticamente aceptables y técnicamente robustos. Además, deben garantizar la transparencia en las decisiones automatizadas y permitir la supervisión humana permanente, de modo que la inteligencia artificial no sustituya la responsabilidad de los operadores jurídicos sino que actúe únicamente como herramienta de apoyo en la toma de decisiones (Bujosa Vadell, 2022).
Estas exigencias resultan particularmente relevantes en el proceso penal, donde las decisiones judiciales pueden afectar gravemente derechos fundamentales como la libertad personal, la presunción de inocencia y el derecho de defensa. Por esta razón, cualquier utilización de inteligencia artificial en la valoración de la prueba debe mantenerse dentro de un modelo de justicia asistida por algoritmos, pero nunca sustituida por ellos.
La literatura especializada ha señalado que los sistemas de inteligencia artificial pueden emplearse en distintos ámbitos del sistema penal. En particular, los sistemas algorítmicos de evaluación de riesgos han sido desarrollados para predecir la probabilidad de reincidencia de una persona que ha cometido un delito, utilizando modelos estadísticos basados en datos personales, sociales y criminológicos. Estos sistemas pueden ser utilizados para apoyar decisiones relevantes dentro del proceso penal, como la determinación de medidas cautelares, la concesión de libertad provisional o la fijación de condiciones de libertad condicional.
En términos generales, estos sistemas funcionan cuantificando la probabilidad de reincidencia mediante el análisis de múltiples variables —como antecedentes penales, edad, historia social o factores criminógenos— que permiten clasificar a los individuos en distintos niveles de riesgo, como alto, medio o bajo. Este tipo de herramientas actuariales automatizadas permiten procesar grandes volúmenes de información y proporcionar recomendaciones a los operadores jurídicos respecto de la peligrosidad o reincidencia de una persona.
Sin embargo, el uso de estos sistemas plantea importantes problemas desde la perspectiva de las garantías procesales. Uno de los principales riesgos identificados en la literatura es el sesgo algorítmico, que se produce cuando los datos utilizados para entrenar los modelos contienen prejuicios o desigualdades estructurales. En tales casos, el algoritmo puede reproducir o incluso amplificar dichos sesgos, generando decisiones discriminatorias respecto de determinados grupos sociales. Un ejemplo paradigmático es el sistema COMPAS utilizado en algunos estados de Estados Unidos, que ha sido criticado por presentar mayores tasas de falsos positivos en personas afrodescendientes, lo que evidencia cómo los sesgos presentes en los datos pueden trasladarse al funcionamiento del algoritmo.
Otro problema relevante es la falta de transparencia o explicabilidad de los algoritmos. Muchos sistemas de inteligencia artificial basados en técnicas de aprendizaje automático operan como auténticas “cajas negras”, en las cuales resulta extremadamente difícil comprender el proceso que conduce a una determinada predicción o recomendación. En consecuencia, aun cuando sea posible observar el resultado generado por el algoritmo, no siempre es posible explicar con claridad las razones que condujeron a dicho resultado. Esta opacidad plantea serias dificultades para el control judicial y para el ejercicio efectivo del derecho de defensa.
En el sistema judicial estadounidense, estas problemáticas han sido discutidas en diversos precedentes judiciales. Uno de los casos más conocidos es State v. Loomis (2016), resuelto por la Corte Suprema de Wisconsin, en el cual se cuestionó la utilización del sistema COMPAS para evaluar el riesgo de reincidencia del imputado al momento de dictar sentencia. La defensa alegó que el uso de este algoritmo vulneraba el debido proceso, ya que el funcionamiento del sistema se encontraba protegido por secreto empresarial y, por tanto, no podía ser plenamente examinado ni controvertido por la defensa. Aunque el tribunal finalmente admitió el uso del algoritmo como herramienta auxiliar, estableció que estos sistemas no pueden sustituir la decisión judicial ni constituir el único fundamento de la sentencia.
Este precedente evidencia que el uso de inteligencia artificial en el proceso penal debe someterse a estrictas garantías procesales. En particular, la doctrina ha identificado diversos riesgos para el debido proceso, entre los que destacan la posible afectación del derecho de defensa, la falta de transparencia en la obtención de los resultados algorítmicos y el riesgo de que la decisión judicial termine dependiendo de una herramienta tecnológica cuyo funcionamiento no puede ser plenamente comprendido por las partes ni por el propio tribunal.
Asimismo, el uso de algoritmos predictivos puede afectar la imparcialidad del juzgador si el juez se ve influenciado por recomendaciones algorítmicas basadas en patrones estadísticos que no reflejan necesariamente las circunstancias concretas del caso. Este riesgo se intensifica cuando los algoritmos incorporan variables sensibles —como género, raza o condiciones socioeconómicas— que pueden conducir a decisiones discriminatorias o injustas.
Por otra parte, algunos autores han advertido que el uso de sistemas predictivos podría conducir a una transformación del paradigma del derecho penal, desplazando el modelo tradicional de responsabilidad por hechos hacia un modelo orientado a la predicción del comportamiento futuro. En tal escenario, el riesgo de reincidencia podría llegar a influir en decisiones judiciales antes incluso de que se determine la culpabilidad del imputado, lo que resultaría incompatible con los principios fundamentales del derecho penal liberal. En efecto, el derecho penal se basa en el juicio sobre actos realizados y no sobre predicciones acerca de la personalidad o peligrosidad futura del individuo.
Por estas razones, diversos autores han propuesto que el uso de inteligencia artificial en el proceso penal se someta a una serie de condiciones mínimas de compatibilidad con el debido proceso. Entre estas condiciones se incluyen la transparencia de los algoritmos, la posibilidad de auditorías independientes sobre los sistemas utilizados, la trazabilidad de los datos empleados para entrenar los modelos y la plena posibilidad de contradicción por parte de las defensas. Asimismo, se ha señalado que los reportes generados por sistemas algorítmicos no deberían ser conocidos por el tribunal antes de la determinación de la culpabilidad, ya que ello podría afectar su imparcialidad y predisponer la decisión judicial.
En consecuencia, la incorporación de inteligencia artificial en el proceso penal exige un equilibrio delicado entre innovación tecnológica y protección de las garantías fundamentales. La experiencia comparada demuestra que estas herramientas pueden contribuir a mejorar la eficiencia del sistema de justicia, especialmente en tareas de análisis de información y gestión de casos. No obstante, su utilización debe estar siempre subordinada a los principios del debido proceso, la motivación judicial y el control humano sobre las decisiones que afectan derechos fundamentales.
En definitiva, la inteligencia artificial puede convertirse en un instrumento valioso para el sistema de justicia penal, pero su implementación debe realizarse bajo un marco ético y constitucional que garantice que la tecnología no sustituya el juicio jurídico humano ni debilite las garantías que sustentan el proceso penal democrático.
La inteligencia artificial representa una de las transformaciones más significativas en la evolución contemporánea del proceso judicial. Su capacidad para analizar grandes volúmenes de información y detectar patrones complejos contribuye a mejorar la eficiencia y precisión de la actividad probatoria, especialmente en investigaciones penales complejas.
No obstante, su incorporación en el proceso penal exige una reconsideración profunda de los principios que estructuran la producción del conocimiento judicial. En particular, el principio de inmediación debe reinterpretarse en un contexto donde el análisis de la prueba puede ser asistido por herramientas tecnológicas.
Lejos de sustituir al juez, la inteligencia artificial debe concebirse como un instrumento de apoyo al razonamiento probatorio. La valoración final de la prueba y la justificación de la decisión judicial continúan siendo tareas esencialmente humanas, que requieren un ejercicio de racionalidad práctica, sensibilidad jurídica y responsabilidad institucional.
En consecuencia, el desafío principal para los sistemas procesales contemporáneos no consiste en decidir si la inteligencia artificial debe utilizarse en la administración de justicia, sino en establecer un modelo normativo que permita aprovechar sus ventajas sin comprometer las garantías fundamentales del proceso penal.