Impacto del uso de inteligencia artificial para la toma de decisiones en el sistema penal ecuatoriano / Impact of the use of artificial intelligence for decision-making in the Ecuadorian criminal justice system

Pablo Oswaldo Guzmán Castro¹ https://orcid.org/0009-0003-1034-1386 poguzmanc@ube.edu.ec
Yudith López Soria² https://orcid.org/0000-0002-6845-088X
yudith.lopez@upacifico.edu.ec
Sandra Patricia Morejón Llanos³ https://orcid.org/0009-0009-7229-438X
spmorejonl@ube.edu.ec
¹,²,³ Universidad Bolivariana del Ecuador. Durán, Guayas, Ecuador

 

Resumen

Este artículo tiene como objetivo general: Argumentar cuáles son los mecanismos idóneos para el uso de la inteligencia artificial (IA) en los casos y procesos penales en Ecuador, resaltando su potencial para mejorar la eficiencia y precisión en la justicia. Para alcanzarlo, se aplica como enfoque metodológico de investigación el cualitativo, apoyado en métodos como el analítico-sintético, el exegético y el inductivo. A través de los que se logra como resultado que, a pesar de que la IA puede optimizar el sistema penal, su adopción en Ecuador es limitada y enfrenta importantes desafíos éticos y legales. Se propone entonces, un marco regulatorio integral que equilibre innovación y protección de derechos, con normativas específicas para los sistemas de IA en procesos penales, controles judiciales, capacitación para operadores judiciales y mecanismos para la evaluación y actualización continua del marco legal conforme avance la tecnología. De esta manera, la justicia penal ecuatoriana podrá usar la IA para hacer sus procesos más eficientes, precisos, transparentes y equitativos, sin comprometer los derechos fundamentales ni los principios del debido proceso, consolidando una justicia más confiable para la ciudadanía.

Palabras clave: Inteligencia artificial, sistema penal, toma de decisiones.

 

Abstract

This article aims to argue for the most suitable mechanisms for using artificial intelligence (AI) in criminal cases and proceedings in Ecuador, highlighting its potential to improve the efficiency and accuracy of the justice system. To achieve this, a qualitative research approach is employed, supported by analytical-synthetic, exegetical, and inductive methods. The findings reveal that, although AI can optimize the criminal justice system, its adoption in Ecuador is limited and faces significant ethical and legal challenges. Therefore, a comprehensive regulatory framework is proposed that balances innovation and the protection of rights, with specific regulations for AI systems in criminal proceedings, judicial oversight, training for judicial officers, and mechanisms for the continuous evaluation and updating of the legal framework as technology advances. In this way, the Ecuadorian criminal justice system can use AI to make its processes more efficient, accurate, transparent, and equitable, without compromising fundamental rights or due process principles, thus consolidating a more reliable justice system for citizens.

Keywords: Artificial Intelligence, criminal justice system, decision making.

 

 

Introducción

Dado que “la inteligencia artificial (IA) es una rama de la informática que se dedica al desarrollo de sistemas y programas capaces de realizar tareas que normalmente requieren inteligencia humana, tales como el aprendizaje, razonamiento, percepción, reconocimiento de patrones, toma de decisiones y procesamiento del lenguaje natural” (Goodfellow, Bengio & Courville, 2016, p. 101).

Por lo que busca diseñar máquinas y algoritmos que puedan interpretar datos, adaptarse a nuevas situaciones y mejorar su desempeño mediante la experiencia, imitando capacidades cognitivas humanas. Con este criterio, ha revolucionado en sectores como la salud, la educación y la justicia, en el mundo entero, generando tanto oportunidades como desafíos significativos a lo largo de su implementación que aborde la temática dentro del sistema de justicia penal ecuatoriano.

En Ecuador, el sistema penal enfrenta la necesidad urgente de adaptarse a esta revolución tecnológica. El Código Orgánico Integral Penal establece un marco inicial para abordar delitos informáticos; sin embargo, su capacidad para abordar los riesgos asociados con la IA es limitada.

Este artículo plantea entonces, el siguiente problema científico: ¿Estará siendo empleada adecuadamente la IA en el ámbito penal y procesal penal ecuatoriano, de modo que su uso no sustituya la valoración humana y directa que ha de tenerse por los operadores penales sobre las instituciones jurídicas y medios probatorios involucrados en cada caso y proceso penal en la actualidad ecuatoriana?

Problema que demanda una serie de objetivos y que comienzan por el siguiente objetivo general: Argumentar cuáles son los mecanismos idóneos para el uso de la inteligencia artificial (IA) en los casos y procesos penales en Ecuador, resaltando su potencial para mejorar la eficiencia y precisión en la justicia; en garantía de la no vulneración de los principios que conforman el debido proceso y de la intervención personal de los operadores del Derecho Penal, tanto en la implementación de las instituciones jurídicas como en la valoración directa de los medios probatorios implícitos en cada caso.

Asimismo, se plantean como objetivos específicos: Determinar en qué consiste la IA y cuál es su posible implementación en la resolución de casos penales, acorde al grado de desarrollo experimentado en Ecuador, en comparación con su desarrollo a nivel mundial en esta misma área. Identificar los mecanismos aplicables que forman parte de la IA en la resolución de casos penales con la garantía del debido proceso y los principios y derechos que lo conforman en el ámbito penal. Por último: Evaluar el tratamiento legal dado al uso de la IA en Ecuador, en lo que atañe a su implementación en el ámbito penal, con respecto a su idoneidad y suficiencia.

Teniendo en cuenta, además, la aplicación de mecanismos que forman parte de la IA en la resolución de casos penales con la garantía del debido proceso y los principios y derechos que lo conforman en el ámbito penal. todo lo que permite evaluar el tratamiento legal dado al uso de la IA en Ecuador, en lo que concierne a su implementación en el ámbito penal, con respecto a su idoneidad y suficiencia para de esta manera, crear un entorno que fomente el conocimiento y la discusión crítica sobre el uso de la IA en el contexto legal, garantizando así una aplicación ética y responsable de esta tecnología.

Metodología

En el presente documento, se adopta un enfoque metodológico cualitativo que permite una comprensión profunda y detallada del uso de la inteligencia artificial (IA) en el sistema penal ecuatoriano, ya que según los autores Hernández, Fernández y Baptista (2014):

La investigación cualitativa se orienta a explorar fenómenos en contextos naturales, buscando interpretar y entender las realidades sociales desde la perspectiva de los actores involucrados. En este sentido, dicho enfoque es pertinente para analizar los procesos jurídicos y éticos complejos relacionados con la implementación de tecnologías innovadoras en el ámbito penal, donde no solo se requieren datos cuantificables, sino también interpretaciones críticas y normativas. (p. 11)

Para la construcción y desarrollo del análisis, se utilizan tres métodos principales: el analítico-sintético, el exegético y el inductivo, cada uno contribuyendo a diferentes fases del estudio y reforzando la coherencia y profundidad de los resultados presentados.

Dentro de lo que respecta al método analítico-sintético, conforme a lo expuesto por el autor Kerlinger: “Implica la descomposición del fenómeno estudiado en sus partes constitutivas para examinar sus características y relaciones, para luego sintetizar esas partes en una comprensión integral.” (Kerlinger, 2002, p. 15) En este artículo, se aplica, al desglosar los conceptos fundamentales de la inteligencia artificial, sus posibles aplicaciones en el sistema penal y los elementos jurídicos involucrados; para después integrarlos en un marco conceptual que permite evaluar sus impactos y desafíos en conjunto.

El método exegético, utilizado frecuentemente en estudios jurídicos según Carbonell, consiste “en la interpretación detallada y contextualizada de normas legales, doctrinas y principios normativos”. (Carbonell 1999, pg. 115) Método que se emplea en este espacio para analizar el marco legal ecuatoriano vigente, interpretando los textos normativos relacionados con el ámbito penal y la tecnología, a fin de identificar las limitaciones, vacíos y posibilidades actuales respecto al uso de IA, para generar una base sólida de las propuestas regulatorias.

En diverso espectro, el método inductivo, descrito por Sampieri et al., (2014) “Como un proceso de razonamiento que parte de la observación particular para formular conclusiones generales”. (p. 186) Aquí es utilizado para derivar conclusiones y recomendaciones a partir del análisis detallado de casos, antecedentes y literatura especializada sobre la implementación de IA en procesos penales, tanto en el contexto local como internacional; lo que permite construir conocimiento basado en evidencia específica para aplicarlo a la realidad ecuatoriana.

En conjunto, la combinación de estos métodos dentro de un enfoque cualitativo permite un análisis riguroso y multidimensional que aborda tanto la conceptualización y características técnicas de la inteligencia artificial como sus implicaciones jurídicas, éticas y sociales; dando como resultante que, este trabajo logre no solo diagnosticar el estado actual de la IA en la justicia penal ecuatoriana, sino también argumentar mecanismos jurídicos idóneos para su uso responsable y efectivo, en concordancia con los objetivos planteados.

Desarrollo

La IA, su concepto, características y su posible implementación en la resolución de casos penales en el sistema penal ecuatoriano

Se afirma que “la IA no se presenta solo como una IA débil que recopila información, sino que pueden encontrarse sistemas que apoyan al juez para dictar sentencia, o ayudan a resolver un conflicto en el escenario extrajudicial” (Morales et al., 2021, p. 151) Es así que, en el ámbito criminal, estas son las mismas capacidades utilizadas para manejar el procesamiento de grandes flujos de análisis a través de la inteligencia criminal, como predecir comportamientos delictivos o diseñar el sistema judicial, “existiendo diferentes tipos de tareas, medidas de rendimiento y experiencias que se pueden utilizar para construir algoritmos de aprendizaje automático” (Goodfellow, Bengio & Courville, 2016, p. 114 )

De hecho, la tecnología permite a los sistemas de IA detectar patrones intrincados y el riesgo de reincidencia para proporcionar una justicia más inteligente y efectiva, cuyas características clave como las tareas repetitivas automatizadas son distintivas de la IA legal, la capacidad de procesar grandes cantidades de información y el hecho de que la evaluación predictiva puede incrementarse (Rodríguez & Suárez, 2020, p. 3).

Sin embargo, la complejidad de modelos de máquina complejos como el aprendizaje profundo plantea un desafío en cuanto a la interpretación y visibilidad de las decisiones del modelo, creando dilemas para la aceptación en el ámbito judicial donde la explicabilidad es esencial (Doshi-Velez & Kim, 2017, p. 7). Por lo tanto, es imperativo que los sistemas de IA se sometan a mecanismos de auditoría y ofrezcan explicaciones claras a los usuarios, asegurando la fiabilidad y responsabilidad del sistema.

En Ecuador, la introducción de la IA en el ámbito criminal está en una etapa temprana, enfrentando barreras técnicas y regulatorias para completar su implementación generalizada (Zambrano, 2021, p. 96). A pesar del potencial de la misma tecnología para mejorar la gestión judicial y la prevención del delito mediante el análisis de datos por adelantado, esto se ve obstaculizado por la falta de bases de datos interoperables y actualizadas (Ministerio de Justicia, Derechos Humanos y Culto de Ecuador, 2022, p. 12)

Además, la implementación de la IA debe alinearse bien con el marco legal local actual y respetar los derechos fundamentales y el debido proceso, ya que el principal problema es desarrollar un marco legal sólido que cubra la aplicación de la IA, la privacidad de los datos y la responsabilidad, para asegurar que sirva como una herramienta necesaria para la resolución exitosa de casos criminales, siendo así que es importante capacitar a los operadores judiciales sobre cómo debe gestionarse, ya que la integración debe mejorar el juicio humano pero no reemplazarlo (Vasconcellos & Torres, 2022, p. 28). De manera similar, la IA también puede ayudar a crear un sistema de justicia más ágil, transparente o equitativo, maximizando el valor y minimizando el riesgo ético y legal.

La incorporación de la inteligencia artificial en la justicia penal ecuatoriana demanda también abordar los aspectos éticos que acompañan su implementación, como se ha señalado en diversos estudios, la ética en el uso de la IA implica garantizar que las decisiones automatizadas respeten los derechos humanos y no reproduzcan desigualdades sociales existentes (Díaz & Paredes, 2022, p. 77)Esto es especialmente relevante en sistemas penales donde la discriminación por motivos socioeconómicos, raciales o de género podría amplificarse mediante algoritmos entrenados con datos sesgados, en cuyo ámbito para minimizar estos riesgos, es imprescindible desarrollar protocolos de evaluación continua que permitan detectar y corregir sesgos, además de fortalecer la transparencia en los procesos algorítmicos (Martínez, 2023, p. 72)

Asimismo, el contexto ecuatoriano plantea desafíos adicionales relacionados con la calidad y disponibilidad de datos para alimentar los sistemas de IA, dado que la carencia de bases de datos integradas y actualizadas limita la precisión de las predicciones y puede afectar la legitimidad del sistema (Instituto Nacional de Estadística y Censos – INEC, 2023). Por ello, el desarrollo tecnológico debe ir acompañado de políticas públicas orientadas a mejorar la recolección, gestión y protección de información criminal, siempre bajo estándares que garanticen la privacidad y la confidencialidad.

La aceptación de la inteligencia artificial para su uso en la justicia penal ecuatoriana también implica un examen de las preocupaciones éticas que subyacen al uso de la IA, en vista de que la ética de la IA es evitar tomar decisiones que reproduzcan las desigualdades sociales existentes, ya que una decisión automatizada debe respetar los derechos humanos (Díaz & Paredes, 2022, p. 89). Especialmente, al pensar en los sistemas penales, se puede ver cómo los algoritmos que han sido alimentados con datos socialmente sesgados causan discriminación basada en algoritmos por raza, categoría socioeconómica, de género, o por algún otro motivo; para evitar estos riesgos, se deben desarrollar protocolos de evaluación continua que permitan la detección y rectificación de sesgos, junto con la transparencia de los procesos algorítmicos (Martínez, 2023, p. 58).

Paulatinamente, se debe mencionar que existen dificultades similares en Ecuador con respecto a la calidad y disponibilidad de los datos necesarios para que los sistemas de IA funcionen, dado que existen pocas bases de datos integradas y actualizadas, su precisión se ve afectada o la falta de ella disminuye la credibilidad del sistema (Instituto Nacional de Estadísticas y Censos – INEC, 2023)

En pocas palabras, el avance de la tecnología debe complementarse con un interés público en la formulación de políticas, particularmente en la recolección, gestión y protección de la información penal (de la cual cada aspecto está regido por la privacidad y la confidencialidad).

Cabe señalar que la introducción de la Inteligencia Artificial (IA) en el ámbito jurídico representa, un punto de inflexión con la capacidad de transformar radicalmente la eficiencia del sistema penal ecuatoriano, sin embargo, mi criterio personal subraya una premisa fundamental: la IA debe ser entendida como un copiloto de alta capacidad, nunca como el juez o el piloto automático del proceso judicial. Su implementación en la resolución de casos penales es una oportunidad que debe manejarse con una cautela ética y regulatoria extrema, priorizando siempre la garantía de los derechos humanos y el debido proceso.

Dentro de las características relevantes de la IA abarca sistemas informáticos diseñados para realizar tareas que tradicionalmente requerirían inteligencia humana, siendo así que, para el contexto penal ecuatoriano, y según la autora Carvajal Gezan, F. (2022) tres características son cruciales:

  1. Procesamiento Masivo de Datos (Big Data): La IA sobresale en la ingesta, organización y análisis de grandes volúmenes de información. En un caso penal complejo con miles de fojas, registros de comunicaciones y pruebas digitales, la capacidad de la IA para indexar y correlacionar datos en minutos es un avance que superaría meses de trabajo manual humano. (p. 8)
  2. Aprendizaje Automático (Machine Learning): Los algoritmos pueden aprender de datos históricos de sentencias y casos resueltos, lo que está permitiendo identificar patrones, predecir reincidencias o sugerir sentencias proporcionales, ofreciendo una herramienta de consistencia que, teóricamente, podría reducir la variabilidad injustificada entre decisiones judiciales similares. (p. 17)
  3. Automatización de Tareas Repetitivas y Analíticas: La revisión de contratos, la transcripción de audios o el cotejo de huellas digitales son tareas susceptibles de automatización, liberando tiempo valioso para que fiscales, defensores y jueces se concentren en el razonamiento jurídico profundo, la valoración de la prueba en audiencia y la argumentación. (p. 20)

 

Viabilidad y Riesgos de Implementación en Ecuador

La implementación de estas capacidades en la resolución de casos penales en el Ecuador plantea un escenario dual, entre las que predominan los Beneficios potenciales cuya Promesa de Eficiencia se despliega en Celeridad Procesal, cuya principal ventaja es la reducción de la mora judicial. Una fase de instrucción fiscal más ágil, apoyada por herramientas de IA, que permitiría llegar a la audiencia de juicio con un caso mejor depurado y en menos tiempo. (p. 27)

En cuanto al Soporte dentro de la Argumentación Jurídica, la IA podría funcionar como un asistente de investigación, extrayendo jurisprudencia relevante de la Corte Nacional de Justicia o la Corte Constitucional del Ecuador, proporcionando un marco legal más sólido a los operadores de justicia, por cuanto la transparencia Potencial ha sido bien diseñada en base a estandarizar criterios, combatiendo la percepción de justicia selectiva, siempre y cuando sus métricas sean públicas y auditables.

Por consiguiente, la implementación de la IA en la justicia penal presenta riesgos significativos que deben gestionarse con suma precaución, considerando que el principal desafío es el sesgo algorítmico, en el que los datos históricos reflejan discriminación socioeconómica o racial preexistente en el sistema, cuyo resultado predomina a que la IA aprenderá y perpetuará estas injusticias bajo una falsa apariencia de objetividad.

Además, existe el riesgo de que la tecnología reemplace el criterio humano, ya que los algoritmos carecen de la capacidad de empatía y comprensión del contexto y la dignidad humana esenciales para la valoración de la culpabilidad; por lo tanto, la IA debe limitarse a ser una herramienta de apoyo y no un sustituto de la decisión judicial humana.

El marco regulatorio es otro punto crítico. En Ecuador, la falta de una normativa clara y mecanismos de auditoría externa para los algoritmos hace que su uso en casos penales sea prematuro e imprudente. Finalmente, la brecha digital amenaza con acentuar la desigualdad en el acceso a la justicia, beneficiando a grandes estudios jurídicos en centros urbanos como Quito o Guayaquil en detrimento de defensores públicos en zonas rurales.

Es evidente que, la IA tiene un potencial innegable para mejorar la eficiencia y la consistencia en el sistema de que es una herramienta poderosa para el siglo XXI, sin embargo, su implementación en la resolución de casos penales debe ser estrictamente instrumental y accesoria. El rostro de la justicia debe seguir siendo humana, para que en Ecuador no sea solo a través de la innovación tecnológica, sino la creación de un robusto andamiaje ético y legal que garantice que la tecnología sirva a los principios de justicia y equidad, y no al revés.

 

Mecanismos aplicables que forman parte de la IA en la resolución de casos penales con la garantía del debido proceso y los principios y derechos que lo conforman en el ámbito penal

La llegada de la Inteligencia Artificial (IA) ha revolucionado el campo legal, brindando herramientas innovadoras que permiten resolver casos individuales mediante el análisis de grandes volúmenes de datos y la identificación de patrones que, de otro modo, podrían pasar desapercibidos para los profesionales del derecho. En este contexto, las aplicaciones de IA, como los sistemas de apoyo en la toma de decisiones, el análisis predictivo y el procesamiento del lenguaje natural, están logrando optimizar la investigación y el enjuiciamiento de delitos.

Las aplicaciones de Inteligencia Artificial (IA) están transformando la investigación y el enjuiciamiento de delitos al ofrecer soluciones innovadoras que optimizan la eficiencia, la precisión y la velocidad del sistema de justicia penal. Estas herramientas no buscan reemplazar el criterio humano, sino potenciar las capacidades de los operadores de justicia mediante el análisis de grandes volúmenes de datos que de otro modo requerirían décadas de trabajo manual. 

Dentro de las aristas desplegadas en torno a los sistemas de apoyo en la toma de decisiones (SAD) basados en inteligencia artificial (IA) funcionan como asistentes inteligentes para agilizar los procesos judiciales y de investigación, siendo así que estos sistemas se centran en el análisis de evidencia digital, donde la IA asiste a los equipos forenses en la extracción, filtrado y correlación rápida de grandes volúmenes de datos digitales; herramientas similares, utilizadas por agencias como Europol, automatizan la revisión inicial de terabytes de datos, permitiendo a los investigadores centrarse en la información más relevante.

En cuanto a la gestión de casos, ayudan a optimizar la asignación de recursos y a priorizar las investigaciones, identificando eficientemente conexiones ocultas entre distintos casos, para llegar a la evaluación de riesgos, dentro de las etapas posteriores a la condena, con lo que la IA genera puntuaciones o clasificaciones de riesgo para informar las decisiones sobre prelibertad o beneficios penitenciarios, optimizando la supervisión y la asignación de recursos.

El análisis predictivo se basa en algoritmos de aprendizaje automático y registros históricos para anticipar eventos futuros y comportamientos criminales. Esta tecnología permite a las agencias de seguridad pública mapear puntos de alta incidencia delictiva, optimizando la distribución de patrullas y recursos. Al examinar el comportamiento criminal y datos de casos anteriores, estos sistemas identifican tendencias y anomalías sutiles que podrían pasar desapercibidas para los investigadores, facilitando así la detección de culpables y una gestión gubernamental de recursos más eficaz.

Por otro lado, el Procesamiento del Lenguaje Natural (PLN) dota a las computadoras de la capacidad de comprender e interpretar el lenguaje humano, lo cual es fundamental en el ámbito jurídico. El PLN automatiza la revisión masiva de documentos no estructurados —como declaraciones, transcripciones o correos electrónicos— para extraer datos clave, identificar intenciones o inconsistencias y generar resúmenes concisos. Esta capacidad es crucial para que los fiscales puedan localizar rápidamente jurisprudencia pertinente en bases de datos judiciales, como las de la Corte Constitucional o la Corte Nacional del Ecuador, fortaleciendo sus argumentos legales y simplificando la creación de documentos procesales.

En la actualidad la IA, a través de estas aplicaciones, se ha convertido en una herramienta eficaz para acelerar las investigaciones, mejorar la precisión en el análisis de pruebas y proporcionar soporte crucial en la toma de decisiones, garantizando en teoría, un sistema de justicia más consistente y eficiente. 

Determinación de la IA y su posible implementación en la predicción de la Criminalidad en Ecuador: Un Contraste Global-Local

Paralelamente a los desafíos de implementación global de la inteligencia artificial (IA), actualmente se observa que, en jurisdicciones más desarrolladas, como Estados Unidos o diversas naciones europeas se emplean algoritmos sofisticados para la predicción del comportamiento delictivo, con lo que estos sistemas avanzados incluyen herramientas de evaluación de riesgos y análisis predictivo que optimizan el trabajo policial dentro del componente judicial.

Es así como, cualquier iniciativa de implementación de estas tecnologías en Ecuador debe ser evaluada de manera crítica y contextualizada, contrastando el grado de desarrollo de su propio sistema de justicia, su infraestructura tecnológica y, fundamentalmente, su marco ético y legal.

El tratamiento legal del uso de la Inteligencia Artificial (IA) en el ámbito penal de Ecuador se caracteriza actualmente por la ausencia de una normativa específica e integral, lo que resulta en una regulación insuficiente e inadecuada para abordar los desafíos únicos que plantea esta tecnología. 

El marco legal actual en Ecuador presenta vacíos significativos que hacen que la regulación de la inteligencia artificial (IA) en el ámbito penal sea inadecuada, principalmente debido a la ausencia de una legislación específica que aborde los matices técnicos y éticos de estas tecnologías.

Existen razones fundamentales que justifican esta insuficiencia. Ecuador carece de una ley dedicada a la IA en la administración de justicia; las normativas existentes, como la Ley Orgánica de Protección de Datos Personales y el Código Orgánico Integral Penal (COIP), solo ofrecen principios generales que no prohíben explícitamente el uso de sistemas opacos ("cajas negras") ni se adaptan a los nuevos desafíos, como la responsabilidad penal por decisiones automatizadas. Esta brecha expone derechos fundamentales a riesgos, como la privacidad y la transparencia algorítmica.

El tratamiento legal existente es insuficiente porque depende de principios constitucionales y de protección de datos que carecen del detalle necesario para guiar la implementación de herramientas sofisticadas (como las que evalúan el riesgo de reincidencia). No hay un mandato legal robusto que obligue a la transparencia o a la explicabilidad de los algoritmos mediante auditorías independientes, ni existen directrices claras sobre cómo ponderar la información generada por la IA o manejar los sesgos que podrían afectar a grupos vulnerables dentro de un proceso penal.

En este contexto, la IA como herramienta de soporte, más no de sustitución, se basa en la predicción de la criminalidad que debe limitarse estrictamente a una función de soporte y análisis estadístico, evitando que sus resultados sustituyan la valoración humana. En lo posterior, la IA puede ser una herramienta para comprender el comportamiento práctico de los índices de criminalidad, identificando patrones que el ojo humano podría pasar por alto, sin embargo; en el contexto penal, el juicio humano es fundamental.

Explicando lo anterior, se debe indicar que el juez y los operadores penales son quienes deben mantener la autoridad final en la toma de decisiones, especialmente al valorar la imputabilidad o al determinar sentencias, ya que estas decisiones requieren un equilibrio entre la adopción de nuevas tecnologías y la preservación de los principios tradicionales enmarcados en el derecho penal.

Su desafío para Ecuador está en definir claramente qué tipos de tecnologías de IA se emplean dentro del contexto legal y cómo estas pueden influir en la justicia penal; por consiguiente, la comprensión de la IA en este ámbito permite evaluar su impacto en los derechos de los procesados y en la integridad del proceso penal, con lo que la implementación de la IA en la predicción criminal debe estar subordinada al objetivo general del artículo.

 

Además, se debe recalcar que más allá de la legitimidad y su relación con la ley, otra consideración crucial para la aplicación de la IA es el nivel de calidad y la importancia de los datos obtenidos para las soluciones de IA, diferenciando que la capacidad del modelo predictivo depende de la consistencia, actualización y calidad creíble de la información criminal; por lo cual estos sistemas no podrán desarrollarse y serán menos estables debido a la ausencia de bases de datos compartidas, interoperables y de acceso abierto en Ecuador.

 

Sin duda alguna, la necesidad de mejorar la vigilancia y el control de los datos delictivos, incluyendo aspectos socioeconómicos, culturales y regionales del fenómeno delictivo. De igual manera, la educación técnica de los operadores judiciales y policiales es una piedra angular para la IA en este dominio, ya que no es suficiente simplemente con tener tecnología disponible, sino que los actores del sistema penal deben estar capacitados para entender qué significa en la práctica los resultados producidos por los algoritmos y comprender de esta manera las limitaciones del caso.

 

Por otro lado, limitado a la parte tecnológica, también se debe abordar medidas éticas y legales que conduzcan a un compromiso consciente y crítico con la IA, en razón de que otro desafío específico es la transparencia y explicabilidad de los procesos algorítmicos, para que la IA en la industria penal deba estar diseñada para asegurar que proporcione explicaciones fáciles de comprender sobre cómo llegó a los resultados obtenidos o a una estimación del riesgo debido a que la mayoría de las soluciones involucran modelos profundos. Como, por ejemplo, “redes neuronales de aprendizaje profundo, crear estructuras que permitan la auditoría y el cuestionamiento de esos modelos, siendo un requisito indispensable para establecer confianza en la justicia y la rendición de cuentas”. (Rodríguez, F., & Suárez, M., 2020, p. 16).

 

Además, la participación de la sociedad civil y las organizaciones de derechos humanos en el debate sobre la IA en la justicia penal podría mejorar la aplicación de dichas tecnologías en Ecuador, debido a la importancia de la participación en mantener los desarrollos tecnológicos relevantes para las condiciones y valores locales, sin introducir intervenciones de afuera hacia adentro que no reconozcan estructuras culturales o sociales específicas. Cualquier proyecto de IA en este campo, debe estar acompañado de marcos regulatorios participativos y reglas claras para la protección de datos personales y la no discriminación.

 

Estratégicamente, Ecuador, puede pensar en desarrollar alianzas regionales e internacionales para una IA responsable en la justicia penal, por obvias razones está asociado en compartir experiencias, mejorar prácticas y normas globales, lo que reduciría riesgos y aceleraría un proceso que de otro modo podría ser lento o incierto, con lo que tal cooperación también facilitaría el encuadre de herramientas tecnológicas en el contexto de la ley y la sociedad ecuatoriana, que se guía por la necesidad de encontrar un equilibrio adecuado entre la innovación y el respeto de los derechos básicos.

 

Basado en los principios que rigen cómo se almacenan los datos personales, si los mismos se mantienen transparentes, se penan los errores algorítmicos y se protegen de abusos a los derechos humanos, con lo que un marco debe establecer límites sobre dónde se pueden usar los datos y cómo se puede asegurar la no discriminación para que la IA complemente en lugar de reemplazar el juicio humano. Necesitando, además nuevas oficinas o comités con expertos en derecho, informática, ética y criminología para realizar auditorías regulares de las herramientas de IA aplicadas en la justicia penal con su evaluación de lo que funciona bien y lo que no, así como, resolver problemas o interpretaciones (ya sea de fuentes conflictivas).

 

No obstante, se debería crear procedimientos regulares para monitorear la precisión, neutralidad y operación de los sistemas predictivos, que deben incluir la identificación temprana de sesgos o errores, con métricas que midan sus consecuencias reales para la justicia procesal y la protección de los derechos fundamentales. A raíz de ello, se impone la necesidad de crear programas de capacitación permanentes para jueces, fiscales, defensores y personal policial sobre habilidades digitales, interpretación de resultados algorítmicos, riesgos éticos, métodos de justicia restaurativa, etc., para que la capacitación promueva un uso "responsable" y "crítico", incluyendo desde un punto de vista legal y social.

 

Además, es esencial, aunque no suficiente, implementar métodos que puedan ofrecer escrutinio público como herramientas para permitir la participación activa de la sociedad civil en el desarrollo, entrega y evaluación de sistemas basados en IA, ya que esta transparencia también construirá confianza social y proporcionará retroalimentación continua para mejorar las herramientas, que se adaptarán a las necesidades y valores de la comunidad.

 

Sin embargo, por el contrario la IA debe subordinarse a los principios constitucionales y penales, respetando la presunción de inocencia, el derecho a la defensa y la imparcialidad judicial, de modo que sea solo un factor, no una fuerza determinante en el proceso de toma de decisiones, de esta manera es igualmente importante asegurarse de que los algoritmos estén diseñados responsablemente para evitar reproducir desigualdades sociales, raciales o de género existentes, para lo cual los algoritmos deben ser monitoreados y refinados constantemente desde la base de una evaluación crítica, tomando en consideración los datos personales utilizados para alimentar estos sistemas por encontrarse protegidos de acuerdo a estándares internacionales, la información personal y el uso de datos personales, por consiguiente la limitación a fines judiciales y penales permisibles únicamente, y deben mantenerse bajo estricto control.

 

Se acota que es necesario que los operadores y los procesados sepan cómo se llegan a las predicciones y no dependan de ningún tipo de trabajo invisible que haría imposible desafiar o revisar, con lo cual, en la medida en que el fallo o la injusticia de los sistemas automáticos sea inevitable. Debe existir una definición clara de quién asume la responsabilidad legal y cómo se pueden rectificar los daños para establecer una justicia adecuada.

Finalmente, la capacitación de los operadores legales (abogados y profesionales del derecho) y su personal adjunto es otra parte importante para lograr la efectividad de la IA en el ámbito penal, por lo tanto, combinar esto con la capacidad de alfabetización digital y la conciencia ética de la IA, nos permitirá reflexionar correctamente sobre los resultados producidos por los algoritmos y tomar decisiones razonables, fuera del uso de las máquinas.

Con esto, los procesos de capacitación también deben ser continuos, ajustados a los avances tecnológicos, y deben desarrollar una capacidad crítica para una justicia equilibrada, innovación y justicia social; por lo tanto, para facilitar la aplicación precisa de la inteligencia artificial (IA) dentro del sistema penal ecuatoriano, se deben desarrollar directrices que sean claras, relevantes y especifiquen el lado técnico y ético de la IA, por cuanto Ecuador carece de regulaciones precisas, lo que lleva a una incertidumbre legal que puede disuadir el uso de la IA en el crimen y la actividad delictiva (Jara & Villacrés, 2021, p. 118).

Además, estos aspectos legales deben ir acompañados de reglas, estructuras y protocolos que proporcionen protección de datos personales, mecanismos de responsabilidad, directrices y procedimientos para garantizar la no discriminación a nivel de aplicación; tales reglas deberían ayudar a evitar algoritmos sesgados contra individuos, siendo así que la regulación también se debe distinguir entre los intereses y responsabilidades de los desarrolladores de software, operadores judiciales u otros participantes en el procedimiento penal, con el fin de limitar la posibilidad de abusos y promover un orden justo y equitativo en los delitos (Vasconcellos & Torres, 2022, p. 28).

Se debe recalcar que la participación de la sociedad civil y expertos multidisciplinarios es igualmente una base para diseñar normas que sean aplicables al contexto dado y consistentes con los valores sociales y culturales del país (Rodríguez & Suárez, 2020, p. 18).

A razón de que los comités de ética y los observatorios que supervisan el despliegue de sistemas habilitados por IA pueden aumentar la confianza en el sistema y ayudar a asegurar que la tecnología para impartir justicia sea un instrumento de impacto positivo, no uno que viole los derechos fundamentales. Por consiguiente, es necesario desarrollar asociaciones extranjeras para facilitar el intercambio de experiencias y mejores prácticas de adopción de IA en sistemas judiciales, dado que la justicia penal es un ámbito monitoreado a nivel mundial, de lo cual Ecuador está expuesto a la cooperación técnica y regulatoria con otros estados hacia una aplicación equilibrada y ética de la IA (Zambrano, 2021, p. 90)

Al hacerlo, el país estaría mejor equipado para combatir los problemas tecnológicos sin comprometer los elementos básicos del derecho penal y los derechos humanos; tomando en consideración que, otro componente clave para lograr una implementación eficaz de la IA en el ámbito penal es la capacitación de los operadores jurídicos y personal relacionado, con lo que la alfabetización digital y el conocimiento ético sobre IA permitirán interpretar correctamente los resultados generados por los algoritmos y ejecutar juicios fundamentados, sin depender exclusivamente de las máquinas.

Con lo que se espera que estos procesos de formación sean continuos y adaptados a los avances tecnológicos para mantener la capacidad crítica y garantizar una justicia equilibrada que integre innovación con justicia social.

Conclusiones

En definitiva y de acuerdo al primer objetivo específico planteado; la inteligencia artificial (IA) se refiere a un conjunto de sistemas computacionales capaces de realizar tareas que anteriormente requerían la intervención de la inteligencia humana. Su implementación en la resolución de casos criminales en Ecuador ha comenzado recientemente, lo que plantea desafíos técnicos y legales en comparación con el avance global en este ámbito, lo cual exige un profundo entendimiento de las tecnologías aplicadas y su potencial impacto en el sistema penal ecuatoriano.

Por consiguiente, abordando el segundo objetivo específico se debe indicar que los mecanismos de IA utilizados en casos criminales deben respetar el debido proceso y los derechos fundamentales, por lo que es imprescindible garantizar la transparencia, la auditabilidad y la supervisión humana de los algoritmos, con el fin de prevenir sesgos algorítmicos que podrían dar lugar a discriminaciones injustas, especialmente por motivos socioeconómicos, y asegurar la igualdad ante la ley y la dignidad de las personas procesadas.

Destacando al tercer objetivo específico inscrito en este artículo, el análisis de la legislación ecuatoriana revela que, a pesar de contar con una ley general sobre responsabilidad civil y penal, no existe una regulación específica que aborde el uso de la IA en el ámbito criminal, por ello, es fundamental establecer un conjunto de regulaciones claras y actualizadas que definan las responsabilidades tanto de los operadores como de los desarrolladores en relación con la IA en la justicia penal, garantizando así su uso ético y responsable; sin embargo en cuanto a la evaluación de la imputabilidad y los aspectos socioeconómicos de las sanciones en el sistema penal, el uso de la IA debe ser estrictamente complementario y nunca sustituir el juicio individualizado y contextual del juez, dado que la compleja situación socioeconómica de los acusados exige la preservación del juicio humano para proteger contra el riesgo de discriminación en las sentencias y promover la equidad y la justicia en el sistema judicial.

Finalmente en el contexto del objetivo general, la implementación de la inteligencia artificial en casos y procesos criminales en Ecuador debe llevarse a cabo mediante mecanismos adecuados que aseguren el respeto a los principios fundamentales del debido proceso y la intervención necesaria, personal e indispensable de los operadores del derecho penal; siendo así que encontrar un equilibrio adecuado entre la innovación tecnológica y la defensa de los derechos humanos puede mejorar la legitimidad y la efectividad de los sistemas de justicia penal ecuatorianos en el contexto digital.

Referencias Bibliográficas

Carvajal Gezan, F. (2022). Big Data y su aplicación a las decisiones judiciales automatizadas. Universidad de Chile. Tesis para optar al grado de licenciado en ciencias jurídicas y sociales, 20-86. Disponible en https://repositorio.uchile.cl/bitstream/handle/2250/187183/Big-Data-y-su-aplicacion-a-las-decisiones-judiciales-automatizadas.pdf?sequence=1

Asamblea Nacional de Ecuador, Código Orgánico Integral Penal de Ecuador. (2015). COIP. Registro Oficial-Suplemento 598 de 30 de septiembre del 2015. Disponible en  https://www.defensa.gob.ec/wp-content/uploads/downloads/2021/03/COIP_act_feb-2021.pdf

Díaz, M., & Paredes, L. (2022). La ética en la inteligencia artificial aplicada al derecho penal: desafíos y propuestas. Revista Latinoamericana de Derecho y Tecnología, 3(1), 76-93. Disponible en  https://dialnet.unirioja.es/descarga/articulo/10176947.pdf

Doshi-Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning. Disponible en  https://arxiv.org/pdf/1702.08608

García, L., & Martínez, R. (2021). Inteligencia artificial y justicia penal: desafíos y oportunidades. Editorial Jurídica. Disponible en  https://revistascientificas.una.py/index.php/RE/article/download/6169/4653/18209

Instituto Nacional de Estadística y Censos – INEC. (2023). Registro Estadístico de Población Ecuatoriana (REBPE). Quito, Ecuador. Disponible en https://www.ecuadorencifras.gob.ec/documentos/web-inec/Registros_Administrativos/rebpe/2023/Presentacion_REBPE_2023.pdf

Jara, R., & Villacrés, C. (2021). Regulación de la inteligencia artificial: principios para la protección de derechos fundamentales. Revista de Derecho Constitucional, 29(4), 112-130. Disponible en  https://dialnet.unirioja.es/descarga/articulo/9598612.pdf

Martínez, L. (2023). Sesgo algorítmico y discriminación en sistemas de inteligencia artificial criminal: implicaciones para la justicia penal. Revista de Justicia y Tecnología, 7(2), 55-78. Disponible en  https://dialnet.unirioja.es/descarga/articulo/9380872.pdf

Morales Higuita, L; Agudelo Londoño, S; Montoya Raigosa, M; María Montoya Vidales, AN.  (2021).  Inteligencia  artificial  en  el  proceso  penal:  análisis  a  la  luz  del Fiscal Watson.  Publicado en  Revista  Pensamiento  Jurídico,  No.  54,  ISSN  0122-1108, JULIO-DICIEMBRE, BOGOTÁ, 2021, PP. 147-164. https://dialnet.unirioja.es/servlet/articulo?codigo=8252942

Pérez, J. (2019). Protección de datos personales y tecnología en el proceso penal. Revista de Derecho y Tecnología, 15(2), 45-62. Disponible en  https://www.redalyc.org/pdf/6739/673971417006.pdf

Rodríguez, F., & Suárez, M. (2020). Transparencia y explicabilidad en algoritmos judiciales: retos para la implementación de la IA en sistemas penales. Revista Iberoamericana de Derecho y Cibernética, 1-21. Disponible en  https://www.researchgate.net/publication/385705473_Transparencia_explicabilidad_y_confianza_en_los_sistemas_de_aprendizaje_automatico

Santos, M. (2020). Debido proceso y sistemas de inteligencia artificial en el ámbito penal. Editorial Académica. Disponible en  https://dialnet.unirioja.es/descarga/articulo/10028644.pdf

Vasconcellos, H., & Torres, A. (2022). Inteligencia artificial, ética y derecho: hacia una regulación equilibrada. Revista de Estudios Jurídicos y Sociales, 8(1), 23-41. Disponible en  https://magazineasce.com/index.php/1/article/view/533

Zambrano, P. (2021). Justicia y tecnología en Ecuador: estado actual y desafíos futuros. Boletín de Derecho Penal y Criminología, 12(2), 88-105. Disponible en https://revistas.uasb.edu.ec/index.php/foro/article/view/2803/2599

Conflicto de intereses

Los autores declaran que no existen conflictos de intereses en relación con el artículo presentado.

Cómo citar este artículo

Guzmán Castro, P. O., López Soria, Y., & Morejón Llanos, S. P. (2026). Impacto del uso de inteligencia artificial para la toma de decisiones en el sistema penal ecuatoriano. Revista Ciencias Holguín, 32(2), 39-55.

 

Fechas

Fecha de envío a revisión: 6 de diciembre de 2025
Aceptado: 17 de enero de 2026