Impacto del uso de inteligencia
artificial para la toma de decisiones en el sistema penal ecuatoriano / Impact of the use of
artificial intelligence for
decision-making in the Ecuadorian criminal justice system
Pablo Oswaldo Guzmán
Castro¹ https://orcid.org/0009-0003-1034-1386 poguzmanc@ube.edu.ec
Yudith López Soria²
https://orcid.org/0000-0002-6845-088X yudith.lopez@upacifico.edu.ec
Sandra Patricia Morejón Llanos³ https://orcid.org/0009-0009-7229-438X
spmorejonl@ube.edu.ec
¹,²,³ Universidad Bolivariana del Ecuador. Durán,
Guayas, Ecuador
Resumen
Este artículo tiene como objetivo general: Argumentar cuáles
son los mecanismos idóneos para el uso de la inteligencia artificial (IA) en
los casos y procesos penales en Ecuador, resaltando su potencial para mejorar
la eficiencia y precisión en la justicia. Para alcanzarlo, se aplica como enfoque
metodológico de investigación el cualitativo, apoyado en métodos como el
analítico-sintético, el exegético y el inductivo. A través de los que se logra
como resultado que, a pesar de que la IA puede optimizar el sistema penal, su
adopción en Ecuador es limitada y enfrenta importantes desafíos éticos y
legales. Se propone entonces, un marco regulatorio integral que equilibre
innovación y protección de derechos, con normativas específicas para los
sistemas de IA en procesos penales, controles judiciales, capacitación para
operadores judiciales y mecanismos para la evaluación y actualización continua
del marco legal conforme avance la tecnología. De esta manera, la justicia
penal ecuatoriana podrá usar la IA para hacer sus procesos más eficientes,
precisos, transparentes y equitativos, sin comprometer los derechos
fundamentales ni los principios del debido proceso, consolidando una justicia
más confiable para la ciudadanía.
Palabras
clave: Inteligencia artificial, sistema penal, toma
de decisiones.
Abstract
This article aims
to argue for the most suitable mechanisms for using artificial intelligence
(AI) in criminal cases and proceedings in Ecuador, highlighting its potential
to improve the efficiency and accuracy of the justice system. To achieve this,
a qualitative research approach is employed, supported by analytical-synthetic,
exegetical, and inductive methods. The findings reveal that, although AI can
optimize the criminal justice system, its adoption in Ecuador is limited and
faces significant ethical and legal challenges. Therefore, a comprehensive
regulatory framework is proposed that balances innovation and the protection of
rights, with specific regulations for AI systems in criminal proceedings,
judicial oversight, training for judicial officers, and mechanisms for the continuous
evaluation and updating of the legal framework as technology advances. In this
way, the Ecuadorian criminal justice system can use AI to make its processes
more efficient, accurate, transparent, and equitable, without compromising
fundamental rights or due process principles, thus consolidating a more
reliable justice system for citizens.
Keywords: Artificial Intelligence, criminal
justice system, decision making.
Introducción
Dado que “la
inteligencia artificial (IA) es una rama de la informática que se dedica al
desarrollo de sistemas y programas capaces de realizar tareas que normalmente
requieren inteligencia humana, tales como el aprendizaje, razonamiento,
percepción, reconocimiento de patrones, toma de decisiones y procesamiento del
lenguaje natural” (Goodfellow, Bengio
& Courville, 2016, p. 101).
Por lo que busca
diseñar máquinas y algoritmos que puedan interpretar datos, adaptarse a nuevas
situaciones y mejorar su desempeño mediante la experiencia, imitando
capacidades cognitivas humanas. Con este criterio, ha revolucionado en sectores
como la salud, la educación y la justicia, en el mundo entero, generando tanto
oportunidades como desafíos significativos a lo largo de su implementación que
aborde la temática dentro del sistema de justicia penal ecuatoriano.
En Ecuador, el
sistema penal enfrenta la necesidad urgente de adaptarse a esta revolución
tecnológica. El Código Orgánico Integral Penal
establece un marco inicial para abordar delitos informáticos; sin embargo, su
capacidad para abordar los riesgos asociados con la IA es limitada.
Este artículo plantea
entonces, el siguiente problema científico: ¿Estará
siendo empleada adecuadamente la IA en el ámbito penal y procesal penal
ecuatoriano, de modo que su uso no sustituya la valoración humana y directa que
ha de tenerse por los operadores penales sobre las instituciones jurídicas y
medios probatorios involucrados en cada caso y proceso penal en la actualidad
ecuatoriana?
Problema que
demanda una serie de objetivos y que comienzan por el siguiente objetivo general: Argumentar cuáles son los mecanismos
idóneos para el uso de la inteligencia artificial (IA) en los casos y procesos
penales en Ecuador, resaltando su potencial para mejorar la eficiencia y
precisión en la justicia;
en garantía de la no vulneración de los principios que conforman el debido
proceso y de la intervención personal de los operadores del Derecho Penal,
tanto en la implementación de las instituciones jurídicas como en la valoración
directa de los medios probatorios implícitos en cada caso.
Asimismo,
se plantean como objetivos específicos: Determinar en qué consiste la IA y cuál
es su posible implementación en la resolución de casos penales, acorde al grado
de desarrollo experimentado en Ecuador, en comparación con su desarrollo a
nivel mundial en esta misma área. Identificar los mecanismos aplicables que
forman parte de la IA en la resolución de casos penales con la garantía del
debido proceso y los principios y derechos que lo conforman en el ámbito penal.
Por último: Evaluar el tratamiento legal dado al uso de la IA en Ecuador, en lo
que atañe a su implementación en el ámbito penal, con respecto a su idoneidad y
suficiencia.
Teniendo en cuenta, además, la aplicación de mecanismos que
forman parte de la IA en la resolución de casos penales con la garantía del
debido proceso y los principios y derechos que lo conforman en el ámbito penal.
todo lo que permite evaluar el tratamiento legal dado al uso de la IA en
Ecuador, en lo que concierne a su implementación en el ámbito penal, con
respecto a su idoneidad y suficiencia para de esta manera, crear un entorno que
fomente el conocimiento y la discusión crítica sobre el uso de la IA en el
contexto legal, garantizando así una aplicación ética y responsable de esta
tecnología.
Metodología
En el presente
documento, se adopta un enfoque metodológico cualitativo que permite una
comprensión profunda y detallada del uso de la inteligencia artificial (IA) en
el sistema penal ecuatoriano, ya que según los autores Hernández, Fernández y
Baptista (2014):
La investigación cualitativa se orienta a explorar
fenómenos en contextos naturales, buscando interpretar y entender las
realidades sociales desde la perspectiva de los actores involucrados. En este
sentido, dicho enfoque es pertinente para analizar los procesos jurídicos y
éticos complejos relacionados con la implementación de tecnologías innovadoras
en el ámbito penal, donde no solo se requieren datos cuantificables, sino
también interpretaciones críticas y normativas. (p. 11)
Para la
construcción y desarrollo del análisis, se utilizan tres métodos principales:
el analítico-sintético, el exegético y el inductivo, cada uno contribuyendo a
diferentes fases del estudio y reforzando la coherencia y profundidad de los
resultados presentados.
Dentro de lo
que respecta al método analítico-sintético, conforme a lo expuesto por el autor
Kerlinger: “Implica la descomposición del fenómeno estudiado en sus partes
constitutivas para examinar sus características y relaciones, para luego
sintetizar esas partes en una comprensión integral.” (Kerlinger, 2002, p. 15) En
este artículo, se aplica, al desglosar los conceptos fundamentales de la
inteligencia artificial, sus posibles aplicaciones en el sistema penal y los
elementos jurídicos involucrados; para después integrarlos en un marco
conceptual que permite evaluar sus impactos y desafíos en conjunto.
El método
exegético, utilizado frecuentemente en estudios jurídicos según Carbonell, consiste
“en la interpretación detallada y contextualizada de normas legales, doctrinas
y principios normativos”. (Carbonell 1999, pg. 115) Método que se emplea en
este espacio para analizar el marco legal ecuatoriano vigente, interpretando
los textos normativos relacionados con el ámbito penal y la tecnología, a fin
de identificar las limitaciones, vacíos y posibilidades actuales respecto al
uso de IA, para generar una base sólida de las propuestas regulatorias.
En diverso
espectro, el método inductivo, descrito por Sampieri et al., (2014) “Como un
proceso de razonamiento que parte de la observación particular para formular
conclusiones generales”. (p. 186) Aquí es utilizado para derivar conclusiones y
recomendaciones a partir del análisis detallado de casos, antecedentes y
literatura especializada sobre la implementación de IA en procesos penales,
tanto en el contexto local como internacional; lo que permite construir
conocimiento basado en evidencia específica para aplicarlo a la realidad
ecuatoriana.
En conjunto,
la combinación de estos métodos dentro de un enfoque cualitativo permite un
análisis riguroso y multidimensional que aborda tanto la conceptualización y
características técnicas de la inteligencia artificial como sus implicaciones
jurídicas, éticas y sociales; dando como resultante que, este trabajo logre no
solo diagnosticar el estado actual de la IA en la justicia penal ecuatoriana,
sino también argumentar mecanismos jurídicos idóneos para su uso responsable y
efectivo, en concordancia con los objetivos planteados.
Desarrollo
La IA, su concepto, características y su posible
implementación en la resolución de casos penales en el sistema penal
ecuatoriano
Se afirma que “la IA no se presenta solo
como una IA débil que recopila información, sino que pueden encontrarse
sistemas que apoyan al juez para dictar sentencia, o ayudan a resolver un
conflicto en el escenario extrajudicial” (Morales et al., 2021, p. 151) Es así
que, en el ámbito criminal, estas son las mismas capacidades utilizadas para
manejar el procesamiento de grandes flujos de análisis a través de la
inteligencia criminal, como predecir comportamientos delictivos o diseñar el
sistema judicial, “existiendo diferentes tipos de tareas, medidas de
rendimiento y experiencias que se pueden utilizar para construir algoritmos de
aprendizaje automático” (Goodfellow, Bengio & Courville, 2016, p.
114 )
De
hecho, la tecnología permite a los sistemas de IA detectar patrones intrincados
y el riesgo de reincidencia para proporcionar una justicia más inteligente y
efectiva, cuyas características clave como las tareas repetitivas automatizadas
son distintivas de la IA legal, la capacidad de procesar grandes cantidades de
información y el hecho de que la evaluación predictiva puede incrementarse
(Rodríguez & Suárez, 2020, p. 3).
Sin embargo, la complejidad de modelos
de máquina complejos como el aprendizaje profundo plantea un desafío en cuanto
a la interpretación y visibilidad de las decisiones del modelo, creando dilemas
para la aceptación en el ámbito judicial donde la explicabilidad
es esencial (Doshi-Velez & Kim, 2017, p. 7). Por lo
tanto, es imperativo que los sistemas de IA se sometan a mecanismos de
auditoría y ofrezcan explicaciones claras a los usuarios, asegurando la
fiabilidad y responsabilidad del sistema.
En
Ecuador, la introducción de la IA en el ámbito criminal está en una etapa
temprana, enfrentando barreras técnicas y regulatorias para completar su
implementación generalizada (Zambrano, 2021, p. 96). A pesar del potencial de
la misma tecnología para mejorar la gestión judicial y la prevención del delito
mediante el análisis de datos por adelantado, esto se ve obstaculizado por la
falta de bases de datos interoperables y actualizadas (Ministerio de Justicia,
Derechos Humanos y Culto de Ecuador, 2022, p. 12)
Además, la implementación de la IA debe
alinearse bien con el marco legal local actual y respetar los derechos
fundamentales y el debido proceso, ya que el principal problema es desarrollar
un marco legal sólido que cubra la aplicación de la IA, la privacidad de los
datos y la responsabilidad, para asegurar que sirva como una herramienta
necesaria para la resolución exitosa de casos criminales, siendo así que es
importante capacitar a los operadores judiciales sobre cómo debe gestionarse,
ya que la integración debe mejorar el juicio humano pero no reemplazarlo (Vasconcellos & Torres, 2022, p. 28). De manera similar,
la IA también puede ayudar a crear un sistema de justicia más ágil,
transparente o equitativo, maximizando el valor y minimizando el riesgo ético y
legal.
La incorporación de la inteligencia
artificial en la justicia penal ecuatoriana demanda también abordar los
aspectos éticos que acompañan su implementación, como se ha señalado en
diversos estudios, la ética en el uso de la IA implica garantizar que las
decisiones automatizadas respeten los derechos humanos y no reproduzcan
desigualdades sociales existentes (Díaz & Paredes, 2022, p. 77)Esto es
especialmente relevante en sistemas penales donde la discriminación por motivos
socioeconómicos, raciales o de género podría amplificarse mediante algoritmos
entrenados con datos sesgados, en cuyo ámbito para minimizar estos riesgos, es
imprescindible desarrollar protocolos de evaluación continua que permitan
detectar y corregir sesgos, además de fortalecer la transparencia en los
procesos algorítmicos (Martínez, 2023, p. 72)
Asimismo, el contexto ecuatoriano
plantea desafíos adicionales relacionados con la calidad y disponibilidad de
datos para alimentar los sistemas de IA, dado que la carencia de bases de datos
integradas y actualizadas limita la precisión de las predicciones y puede
afectar la legitimidad del sistema (Instituto Nacional de Estadística y Censos
– INEC, 2023). Por ello, el desarrollo tecnológico debe ir acompañado de políticas
públicas orientadas a mejorar la recolección, gestión y protección de
información criminal, siempre bajo estándares que garanticen la privacidad y la
confidencialidad.
La aceptación de la inteligencia
artificial para su uso en la justicia penal ecuatoriana también implica un
examen de las preocupaciones éticas que subyacen al uso de la IA, en vista de
que la ética de la IA es evitar tomar decisiones que reproduzcan las
desigualdades sociales existentes, ya que una decisión automatizada debe
respetar los derechos humanos (Díaz & Paredes, 2022, p. 89). Especialmente,
al pensar en los sistemas penales, se puede ver cómo los algoritmos que han
sido alimentados con datos socialmente sesgados causan discriminación basada en
algoritmos por raza, categoría socioeconómica, de género, o por algún otro
motivo; para evitar estos riesgos, se deben desarrollar protocolos de
evaluación continua que permitan la detección y rectificación de sesgos, junto
con la transparencia de los procesos algorítmicos (Martínez, 2023, p. 58).
Paulatinamente, se debe mencionar que
existen dificultades similares en Ecuador con respecto a la calidad y
disponibilidad de los datos necesarios para que los sistemas de IA funcionen,
dado que existen pocas bases de datos integradas y actualizadas, su precisión
se ve afectada o la falta de ella disminuye la credibilidad del sistema
(Instituto Nacional de Estadísticas y Censos – INEC, 2023)
En pocas palabras, el avance de la
tecnología debe complementarse con un interés público en la formulación de
políticas, particularmente en la recolección, gestión y protección de la
información penal (de la cual cada aspecto está regido por la privacidad y la
confidencialidad).
Cabe señalar que la introducción de la
Inteligencia Artificial (IA) en el ámbito jurídico representa, un punto de
inflexión con la capacidad de transformar radicalmente la eficiencia del
sistema penal ecuatoriano, sin embargo, mi criterio personal subraya una
premisa fundamental: la IA debe ser entendida como un copiloto de alta
capacidad, nunca como el juez o el piloto automático del proceso judicial. Su
implementación en la resolución de casos penales es una oportunidad que debe
manejarse con una cautela ética y regulatoria extrema, priorizando siempre la
garantía de los derechos humanos y el debido proceso.
Dentro de las características relevantes
de la IA abarca sistemas informáticos diseñados para realizar tareas que
tradicionalmente requerirían inteligencia humana, siendo así que, para el
contexto penal ecuatoriano, y según la autora Carvajal Gezan,
F. (2022) tres características son cruciales:
Viabilidad y
Riesgos de Implementación en Ecuador
La implementación de estas capacidades
en la resolución de casos penales en el Ecuador plantea un escenario dual,
entre las que predominan los Beneficios potenciales cuya Promesa de Eficiencia
se despliega en Celeridad Procesal, cuya principal ventaja es la reducción de
la mora judicial. Una fase de instrucción fiscal más ágil, apoyada por
herramientas de IA, que permitiría llegar a la audiencia de juicio con un caso
mejor depurado y en menos tiempo. (p. 27)
En cuanto al Soporte dentro de la Argumentación
Jurídica, la IA podría funcionar como un asistente de investigación, extrayendo
jurisprudencia relevante de la Corte Nacional de Justicia o
la Corte Constitucional del Ecuador, proporcionando un marco legal más
sólido a los operadores de justicia, por cuanto la transparencia Potencial ha
sido bien diseñada en base a estandarizar criterios, combatiendo la percepción
de justicia selectiva, siempre y cuando sus métricas sean públicas y
auditables.
Por consiguiente, la implementación de
la IA en la justicia penal presenta riesgos significativos que deben
gestionarse con suma precaución, considerando que el principal desafío es el
sesgo algorítmico, en el que los datos históricos reflejan discriminación
socioeconómica o racial preexistente en el sistema, cuyo resultado predomina a
que la IA aprenderá y perpetuará estas injusticias bajo una falsa apariencia de
objetividad.
Además, existe el riesgo de que la
tecnología reemplace el criterio humano, ya que los algoritmos carecen de la
capacidad de empatía y comprensión del contexto y la dignidad humana esenciales
para la valoración de la culpabilidad; por lo tanto, la IA debe limitarse a ser
una herramienta de apoyo y no un sustituto de la decisión judicial humana.
El marco regulatorio es otro punto crítico.
En Ecuador, la falta de una normativa clara y mecanismos de auditoría externa
para los algoritmos hace que su uso en casos penales sea prematuro e
imprudente. Finalmente, la brecha digital amenaza con acentuar la desigualdad
en el acceso a la justicia, beneficiando a grandes estudios jurídicos en
centros urbanos como Quito o Guayaquil en detrimento de defensores públicos en
zonas rurales.
Es evidente que, la IA tiene un
potencial innegable para mejorar la eficiencia y la consistencia en el sistema
de que es una herramienta poderosa para el siglo XXI, sin embargo, su
implementación en la resolución de casos penales debe ser estrictamente
instrumental y accesoria. El rostro de la justicia debe seguir siendo humana,
para que en Ecuador no sea solo a través de la innovación tecnológica, sino la
creación de un robusto andamiaje ético y legal que garantice que la tecnología
sirva a los principios de justicia y equidad, y no al revés.
Mecanismos aplicables que forman
parte de la IA en la resolución de casos penales con la garantía del debido
proceso y los principios y derechos que lo conforman en el ámbito penal
La llegada de la Inteligencia Artificial (IA) ha
revolucionado el campo legal, brindando herramientas innovadoras que permiten
resolver casos individuales mediante el análisis de grandes volúmenes de datos
y la identificación de patrones que, de otro modo, podrían pasar desapercibidos
para los profesionales del derecho. En este contexto, las aplicaciones de IA,
como los sistemas de apoyo en la toma de decisiones, el análisis predictivo y
el procesamiento del lenguaje natural, están logrando optimizar la
investigación y el enjuiciamiento de delitos.
Las aplicaciones de Inteligencia Artificial (IA)
están transformando la investigación y el enjuiciamiento de delitos al ofrecer
soluciones innovadoras que optimizan la eficiencia, la precisión y la velocidad
del sistema de justicia penal. Estas herramientas no buscan reemplazar el criterio
humano, sino potenciar las capacidades de los operadores de justicia mediante
el análisis de grandes volúmenes de datos que de otro modo requerirían décadas
de trabajo manual.
Dentro
de las aristas desplegadas en torno a los sistemas de apoyo en la toma de
decisiones (SAD) basados en inteligencia artificial (IA) funcionan como
asistentes inteligentes para agilizar los procesos judiciales y de
investigación, siendo así que estos sistemas se centran en el análisis de
evidencia digital, donde la IA asiste a los equipos forenses en la extracción,
filtrado y correlación rápida de grandes volúmenes de datos digitales; herramientas
similares, utilizadas por agencias como Europol, automatizan la revisión
inicial de terabytes de datos, permitiendo a los investigadores centrarse en la
información más relevante.
En
cuanto a la gestión de casos, ayudan a optimizar la asignación de recursos y a
priorizar las investigaciones, identificando eficientemente conexiones ocultas
entre distintos casos, para llegar a la evaluación de riesgos, dentro de las
etapas posteriores a la condena, con lo que la IA genera puntuaciones o
clasificaciones de riesgo para informar las decisiones sobre prelibertad o
beneficios penitenciarios, optimizando la supervisión y la asignación de recursos.
El
análisis predictivo se basa en algoritmos de aprendizaje automático y registros
históricos para anticipar eventos futuros y comportamientos criminales. Esta
tecnología permite a las agencias de seguridad pública mapear puntos de alta
incidencia delictiva, optimizando la distribución de patrullas y recursos. Al
examinar el comportamiento criminal y datos de casos anteriores, estos sistemas
identifican tendencias y anomalías sutiles que podrían pasar desapercibidas
para los investigadores, facilitando así la detección de culpables y una
gestión gubernamental de recursos más eficaz.
Por otro
lado, el Procesamiento del Lenguaje Natural (PLN) dota a las computadoras de la
capacidad de comprender e interpretar el lenguaje humano, lo cual es
fundamental en el ámbito jurídico. El PLN automatiza la revisión masiva de
documentos no estructurados —como declaraciones, transcripciones o correos
electrónicos— para extraer datos clave, identificar intenciones o
inconsistencias y generar resúmenes concisos. Esta capacidad es crucial para
que los fiscales puedan localizar rápidamente jurisprudencia pertinente en
bases de datos judiciales, como las de la Corte Constitucional o la Corte
Nacional del Ecuador, fortaleciendo sus argumentos legales y simplificando la
creación de documentos procesales.
En la actualidad la IA, a través de estas
aplicaciones, se ha convertido en una herramienta eficaz para acelerar las
investigaciones, mejorar la precisión en el análisis de pruebas y proporcionar
soporte crucial en la toma de decisiones, garantizando en teoría, un sistema de
justicia más consistente y eficiente.
Determinación de la IA y su posible implementación
en la predicción de la Criminalidad en Ecuador: Un Contraste Global-Local
Paralelamente a los desafíos de implementación
global de la inteligencia artificial (IA), actualmente se observa que, en
jurisdicciones más desarrolladas, como Estados Unidos o diversas naciones
europeas se emplean algoritmos sofisticados para la predicción del
comportamiento delictivo, con lo que estos sistemas avanzados incluyen
herramientas de evaluación de riesgos y análisis predictivo que optimizan el
trabajo policial dentro del componente judicial.
Es así como, cualquier iniciativa de implementación
de estas tecnologías en Ecuador debe ser evaluada de manera crítica y
contextualizada, contrastando el grado de desarrollo de su propio sistema de
justicia, su infraestructura tecnológica y, fundamentalmente, su marco ético y
legal.
El tratamiento legal del uso de la Inteligencia
Artificial (IA) en el ámbito penal de Ecuador se caracteriza actualmente por
la ausencia de una normativa específica e integral, lo que resulta en una
regulación insuficiente e inadecuada para abordar los desafíos únicos que
plantea esta tecnología.
El marco legal actual en Ecuador presenta vacíos
significativos que hacen que la regulación de la inteligencia artificial (IA)
en el ámbito penal sea inadecuada, principalmente debido a la ausencia de una
legislación específica que aborde los matices técnicos y éticos de estas
tecnologías.
Existen razones fundamentales que justifican esta
insuficiencia. Ecuador carece de una ley dedicada a la IA en la administración
de justicia; las normativas existentes, como la Ley Orgánica de Protección de
Datos Personales y el Código Orgánico Integral Penal (COIP), solo ofrecen
principios generales que no prohíben explícitamente el uso de sistemas opacos
("cajas negras") ni se adaptan a los nuevos desafíos, como la
responsabilidad penal por decisiones automatizadas. Esta brecha expone derechos
fundamentales a riesgos, como la privacidad y la transparencia algorítmica.
El tratamiento legal existente es insuficiente
porque depende de principios constitucionales y de protección de datos que
carecen del detalle necesario para guiar la implementación de herramientas
sofisticadas (como las que evalúan el riesgo de reincidencia). No hay un
mandato legal robusto que obligue a la transparencia o a la explicabilidad
de los algoritmos mediante auditorías independientes, ni existen directrices
claras sobre cómo ponderar la información generada por la IA o manejar los
sesgos que podrían afectar a grupos vulnerables dentro de un proceso penal.
En este contexto, la IA como herramienta de soporte,
más no de sustitución, se basa en la predicción de la criminalidad que debe
limitarse estrictamente a una función de soporte y análisis estadístico,
evitando que sus resultados sustituyan la valoración humana. En lo posterior,
la IA puede ser una herramienta para comprender el comportamiento práctico de
los índices de criminalidad, identificando patrones que el ojo humano podría
pasar por alto, sin embargo; en el contexto penal, el juicio humano es
fundamental.
Explicando lo anterior, se debe indicar que el juez
y los operadores penales son quienes deben mantener la autoridad final en la
toma de decisiones, especialmente al valorar la imputabilidad o al determinar
sentencias, ya que estas decisiones requieren un equilibrio entre la adopción
de nuevas tecnologías y la preservación de los principios tradicionales
enmarcados en el derecho penal.
Su desafío para Ecuador está en
definir claramente qué tipos de tecnologías de IA se emplean dentro del
contexto legal y cómo estas pueden influir en la justicia penal; por consiguiente,
la comprensión de la IA en este ámbito permite evaluar su impacto en los
derechos de los procesados y en la integridad del proceso penal, con lo que la
implementación de la IA en la predicción criminal debe estar subordinada al
objetivo general del artículo.
Además, se debe recalcar que más
allá de la legitimidad y su relación con la ley, otra consideración crucial
para la aplicación de la IA es el nivel de calidad y la importancia de los
datos obtenidos para las soluciones de IA, diferenciando que la capacidad del
modelo predictivo depende de la consistencia, actualización y calidad creíble
de la información criminal; por lo cual estos sistemas no podrán desarrollarse
y serán menos estables debido a la ausencia de bases de datos compartidas,
interoperables y de acceso abierto en Ecuador.
Sin duda alguna, la necesidad
de mejorar la vigilancia y el control de los datos delictivos, incluyendo
aspectos socioeconómicos, culturales y regionales del fenómeno delictivo. De igual
manera, la educación técnica de los operadores judiciales y policiales es una
piedra angular para la IA en este dominio, ya que no es suficiente simplemente con
tener tecnología disponible, sino que los actores del sistema penal deben estar
capacitados para entender qué significa en la práctica los resultados
producidos por los algoritmos y comprender de esta manera las limitaciones del
caso.
Por otro lado, limitado a la
parte tecnológica, también se debe abordar medidas éticas y legales que
conduzcan a un compromiso consciente y crítico con la IA, en razón de que otro
desafío específico es la transparencia y explicabilidad
de los procesos algorítmicos, para que la IA en la industria penal deba estar
diseñada para asegurar que proporcione explicaciones fáciles de comprender
sobre cómo llegó a los resultados obtenidos o a una estimación del riesgo
debido a que la mayoría de las soluciones involucran modelos profundos. Como, por
ejemplo, “redes neuronales de aprendizaje profundo, crear estructuras que
permitan la auditoría y el cuestionamiento de esos modelos, siendo un requisito
indispensable para establecer confianza en la justicia y la rendición de
cuentas”. (Rodríguez, F., & Suárez,
M., 2020, p. 16).
Además, la participación de la
sociedad civil y las organizaciones de derechos humanos en el debate sobre la
IA en la justicia penal podría mejorar la aplicación de dichas tecnologías en
Ecuador, debido a la importancia de la participación en mantener los
desarrollos tecnológicos relevantes para las condiciones y valores locales, sin
introducir intervenciones de afuera hacia adentro que no reconozcan estructuras
culturales o sociales específicas. Cualquier proyecto de IA en este campo, debe
estar acompañado de marcos regulatorios participativos y reglas claras para la
protección de datos personales y la no discriminación.
Estratégicamente, Ecuador,
puede pensar en desarrollar alianzas regionales e internacionales para una IA
responsable en la justicia penal, por obvias razones está asociado en compartir
experiencias, mejorar prácticas y normas globales, lo que reduciría riesgos y
aceleraría un proceso que de otro modo podría ser lento o incierto, con lo que
tal cooperación también facilitaría el encuadre de herramientas tecnológicas en
el contexto de la ley y la sociedad ecuatoriana, que se guía por la necesidad
de encontrar un equilibrio adecuado entre la innovación y el respeto de los
derechos básicos.
Basado en los principios que
rigen cómo se almacenan los datos personales, si los mismos se mantienen
transparentes, se penan los errores algorítmicos y se protegen de abusos a los
derechos humanos, con lo que un marco debe establecer límites sobre dónde se
pueden usar los datos y cómo se puede asegurar la no discriminación para que la
IA complemente en lugar de reemplazar el juicio humano. Necesitando, además
nuevas oficinas o comités con expertos en derecho, informática, ética y
criminología para realizar auditorías regulares de las herramientas de IA
aplicadas en la justicia penal con su evaluación de lo que funciona bien y lo
que no, así como, resolver problemas o interpretaciones (ya sea de fuentes
conflictivas).
No obstante, se debería crear
procedimientos regulares para monitorear la precisión, neutralidad y operación
de los sistemas predictivos, que deben incluir la identificación temprana de
sesgos o errores, con métricas que midan sus consecuencias reales para la
justicia procesal y la protección de los derechos fundamentales. A raíz de
ello, se impone la necesidad de crear programas de capacitación permanentes
para jueces, fiscales, defensores y personal policial sobre habilidades
digitales, interpretación de resultados algorítmicos, riesgos éticos, métodos
de justicia restaurativa, etc., para que la capacitación promueva un uso
"responsable" y "crítico", incluyendo desde un punto de
vista legal y social.
Además, es esencial, aunque no suficiente,
implementar métodos que puedan ofrecer escrutinio público como herramientas
para permitir la participación activa de la sociedad civil en el desarrollo,
entrega y evaluación de sistemas basados en IA, ya que esta transparencia
también construirá confianza social y proporcionará retroalimentación continua
para mejorar las herramientas, que se adaptarán a las necesidades y valores de
la comunidad.
Sin embargo, por el contrario
la IA debe subordinarse a los principios constitucionales y penales, respetando
la presunción de inocencia, el derecho a la defensa y la imparcialidad
judicial, de modo que sea solo un factor, no una fuerza determinante en el
proceso de toma de decisiones, de esta manera es igualmente importante
asegurarse de que los algoritmos estén diseñados responsablemente para evitar
reproducir desigualdades sociales, raciales o de género existentes, para lo
cual los algoritmos deben ser monitoreados y refinados constantemente desde la
base de una evaluación crítica, tomando en consideración los datos personales
utilizados para alimentar estos sistemas por encontrarse protegidos de acuerdo a
estándares internacionales, la información personal y el uso de datos
personales, por consiguiente la limitación a fines judiciales y penales permisibles
únicamente, y deben mantenerse bajo estricto control.
Se acota que es necesario que
los operadores y los procesados sepan cómo se llegan a las predicciones y no
dependan de ningún tipo de trabajo invisible que haría imposible desafiar o
revisar, con lo cual, en la medida en que el fallo o la injusticia de los
sistemas automáticos sea inevitable. Debe existir una definición clara de quién
asume la responsabilidad legal y cómo se pueden rectificar los daños para
establecer una justicia adecuada.
Finalmente, la
capacitación de los operadores legales (abogados y profesionales del derecho) y
su personal adjunto es otra parte importante para lograr la efectividad de la
IA en el ámbito penal, por lo tanto, combinar esto con la capacidad de
alfabetización digital y la conciencia ética de la IA, nos permitirá
reflexionar correctamente sobre los resultados producidos por los algoritmos y
tomar decisiones razonables, fuera del uso de las máquinas.
Con esto, los procesos de capacitación también deben
ser continuos, ajustados a los avances tecnológicos, y deben desarrollar una
capacidad crítica para una justicia equilibrada, innovación y justicia social;
por lo tanto, para facilitar la aplicación precisa de la inteligencia
artificial (IA) dentro del sistema penal ecuatoriano, se deben desarrollar
directrices que sean claras, relevantes y especifiquen el lado técnico y ético
de la IA, por cuanto Ecuador carece de regulaciones precisas, lo que lleva a
una incertidumbre legal que puede disuadir el uso de la IA en el crimen y la
actividad delictiva (Jara & Villacrés, 2021, p. 118).
Además, estos
aspectos legales deben ir acompañados de reglas, estructuras y protocolos que
proporcionen protección de datos personales, mecanismos de responsabilidad,
directrices y procedimientos para garantizar la no discriminación a nivel de
aplicación; tales reglas deberían ayudar a evitar algoritmos sesgados contra
individuos, siendo así que la regulación también se debe distinguir entre los
intereses y responsabilidades de los desarrolladores de software, operadores
judiciales u otros participantes en el procedimiento penal, con el fin de
limitar la posibilidad de abusos y promover un orden justo y equitativo en los
delitos (Vasconcellos & Torres, 2022, p. 28).
Se debe
recalcar que la participación de la sociedad civil y expertos
multidisciplinarios es igualmente una base para diseñar normas que sean
aplicables al contexto dado y consistentes con los valores sociales y
culturales del país (Rodríguez & Suárez, 2020, p. 18).
A razón de que
los comités de ética y los observatorios que supervisan el despliegue de
sistemas habilitados por IA pueden aumentar la confianza en el sistema y ayudar
a asegurar que la tecnología para impartir justicia sea un instrumento de
impacto positivo, no uno que viole los derechos fundamentales. Por
consiguiente, es necesario desarrollar asociaciones extranjeras para facilitar
el intercambio de experiencias y mejores prácticas de adopción de IA en
sistemas judiciales, dado que la justicia penal es un ámbito monitoreado a
nivel mundial, de lo cual Ecuador está expuesto a la cooperación técnica y
regulatoria con otros estados hacia una aplicación equilibrada y ética de la IA
(Zambrano, 2021, p. 90)
Al hacerlo, el
país estaría mejor equipado para combatir los problemas tecnológicos sin
comprometer los elementos básicos del derecho penal y los derechos humanos;
tomando en consideración que, otro componente clave para lograr una
implementación eficaz de la IA en el ámbito penal es la capacitación de los
operadores jurídicos y personal relacionado, con lo que la alfabetización
digital y el conocimiento ético sobre IA permitirán interpretar correctamente
los resultados generados por los algoritmos y ejecutar juicios fundamentados,
sin depender exclusivamente de las máquinas.
Con lo que se
espera que estos procesos de formación sean continuos y adaptados a los avances
tecnológicos para mantener la capacidad crítica y garantizar una justicia
equilibrada que integre innovación con justicia social.
Conclusiones
En definitiva y de acuerdo al primer
objetivo específico planteado; la inteligencia artificial (IA) se refiere a un
conjunto de sistemas computacionales capaces de realizar tareas que
anteriormente requerían la intervención de la inteligencia humana. Su
implementación en la resolución de casos criminales en Ecuador ha comenzado
recientemente, lo que plantea desafíos técnicos y legales en comparación con el
avance global en este ámbito, lo cual exige un profundo entendimiento de las
tecnologías aplicadas y su potencial impacto en el sistema penal ecuatoriano.
Por consiguiente, abordando el segundo
objetivo específico se debe indicar que los mecanismos de IA utilizados en
casos criminales deben respetar el debido proceso y los derechos fundamentales,
por lo que es imprescindible garantizar la transparencia, la auditabilidad y la
supervisión humana de los algoritmos, con el fin de prevenir sesgos
algorítmicos que podrían dar lugar a discriminaciones injustas, especialmente
por motivos socioeconómicos, y asegurar la igualdad ante la ley y la dignidad
de las personas procesadas.
Destacando al tercer objetivo específico
inscrito en este artículo, el análisis de la legislación ecuatoriana revela que,
a pesar de contar con una ley general sobre responsabilidad civil y penal, no
existe una regulación específica que aborde el uso de la IA en el ámbito
criminal, por ello, es fundamental establecer un conjunto de regulaciones
claras y actualizadas que definan las responsabilidades tanto de los operadores
como de los desarrolladores en relación con la IA en la justicia penal,
garantizando así su uso ético y responsable; sin embargo en cuanto a la
evaluación de la imputabilidad y los aspectos socioeconómicos de las sanciones
en el sistema penal, el uso de la IA debe ser estrictamente complementario y
nunca sustituir el juicio individualizado y contextual del juez, dado que la
compleja situación socioeconómica de los acusados exige la preservación del
juicio humano para proteger contra el riesgo de discriminación en las
sentencias y promover la equidad y la justicia en el sistema judicial.
Finalmente en el contexto del objetivo
general, la implementación de la inteligencia artificial en casos y procesos
criminales en Ecuador debe llevarse a cabo mediante mecanismos adecuados que
aseguren el respeto a los principios fundamentales del debido proceso y la
intervención necesaria, personal e indispensable de los operadores del derecho
penal; siendo así que encontrar un equilibrio adecuado entre la innovación
tecnológica y la defensa de los derechos humanos puede mejorar la legitimidad y
la efectividad de los sistemas de justicia penal ecuatorianos en el contexto
digital.
Referencias
Bibliográficas
Carvajal Gezan,
F. (2022). Big Data y su aplicación a las decisiones judiciales
automatizadas. Universidad de Chile. Tesis para optar al grado de
licenciado en ciencias jurídicas y sociales, 20-86. Disponible en https://repositorio.uchile.cl/bitstream/handle/2250/187183/Big-Data-y-su-aplicacion-a-las-decisiones-judiciales-automatizadas.pdf?sequence=1
Asamblea Nacional de Ecuador,
Código Orgánico Integral Penal de Ecuador. (2015). COIP. Registro
Oficial-Suplemento 598 de 30 de septiembre del 2015. Disponible en https://www.defensa.gob.ec/wp-content/uploads/downloads/2021/03/COIP_act_feb-2021.pdf
Díaz, M., & Paredes, L.
(2022). La ética en la inteligencia artificial aplicada al derecho penal:
desafíos y propuestas. Revista Latinoamericana de Derecho y
Tecnología, 3(1), 76-93. Disponible en https://dialnet.unirioja.es/descarga/articulo/10176947.pdf
Doshi-Velez,
F., & Kim, B. (2017). Towards a rigorous science of interpretable machine
learning. Disponible
en https://arxiv.org/pdf/1702.08608
García, L., & Martínez,
R. (2021). Inteligencia artificial y justicia penal: desafíos y
oportunidades. Editorial Jurídica. Disponible en https://revistascientificas.una.py/index.php/RE/article/download/6169/4653/18209
Instituto Nacional de
Estadística y Censos – INEC. (2023). Registro Estadístico de Población
Ecuatoriana (REBPE). Quito, Ecuador. Disponible en https://www.ecuadorencifras.gob.ec/documentos/web-inec/Registros_Administrativos/rebpe/2023/Presentacion_REBPE_2023.pdf
Jara, R., & Villacrés, C.
(2021). Regulación de la inteligencia artificial: principios para la
protección de derechos fundamentales. Revista de Derecho
Constitucional, 29(4), 112-130. Disponible en https://dialnet.unirioja.es/descarga/articulo/9598612.pdf
Martínez, L. (2023). Sesgo
algorítmico y discriminación en sistemas de inteligencia artificial criminal:
implicaciones para la justicia penal. Revista de Justicia y
Tecnología, 7(2), 55-78. Disponible en https://dialnet.unirioja.es/descarga/articulo/9380872.pdf
Morales Higuita, L; Agudelo
Londoño, S; Montoya Raigosa, M; María Montoya Vidales, AN. (2021).
Inteligencia
artificial en el
proceso penal: análisis
a la luz
del Fiscal Watson. Publicado en Revista Pensamiento
Jurídico, No. 54,
ISSN 0122-1108, JULIO-DICIEMBRE,
BOGOTÁ, 2021, PP. 147-164. https://dialnet.unirioja.es/servlet/articulo?codigo=8252942
Pérez, J. (2019). Protección
de datos personales y tecnología en el proceso penal. Revista de Derecho y
Tecnología, 15(2), 45-62. Disponible en https://www.redalyc.org/pdf/6739/673971417006.pdf
Rodríguez, F., & Suárez,
M. (2020). Transparencia y explicabilidad en
algoritmos judiciales: retos para la implementación de la IA en sistemas
penales. Revista Iberoamericana de Derecho y Cibernética, 1-21. Disponible
en https://www.researchgate.net/publication/385705473_Transparencia_explicabilidad_y_confianza_en_los_sistemas_de_aprendizaje_automatico
Santos, M. (2020). Debido
proceso y sistemas de inteligencia artificial en el ámbito penal. Editorial
Académica. Disponible en https://dialnet.unirioja.es/descarga/articulo/10028644.pdf
Vasconcellos, H., & Torres, A.
(2022). Inteligencia artificial, ética y derecho: hacia una regulación
equilibrada. Revista de Estudios Jurídicos y Sociales, 8(1), 23-41. Disponible
en https://magazineasce.com/index.php/1/article/view/533
Zambrano, P. (2021). Justicia
y tecnología en Ecuador: estado actual y desafíos futuros. Boletín de
Derecho Penal y Criminología, 12(2), 88-105. Disponible en https://revistas.uasb.edu.ec/index.php/foro/article/view/2803/2599
Los autores declaran que no existen conflictos
de intereses en relación con el artículo presentado.
Guzmán Castro, P. O., López
Soria, Y., & Morejón Llanos, S. P. (2026). Impacto del uso de inteligencia
artificial para la toma de decisiones en el sistema penal ecuatoriano. Revista
Ciencias Holguín, 32(2), 39-55.
Fecha de envío a revisión: 6 de diciembre de
2025
Aceptado: 17 de enero de 2026