Compartir:

El Ministerio Público ha anunciado que incorporará herramientas de inteligencia artificial para la gestión de fiscalías y el análisis de perfiles criminales. En una terreno ideal, sería una noticia para brindar por la modernización del sistema, pero la realidad dominicana impone otra lectura y hace que sobre esta buena intención surjan dudas.

La eficacia de la IA no depende del brillo de su promesa, sino de la solidez de la casa donde la instalamos. Y hoy, nuestra casa judicial tiene filtraciones de datos, hábitos opacos, una cultura punitiva que aplaude el atajo y desarrolla una narrativa espectacular con pinceladas de marketing antes que “el debido proceso.”

La tentación de meterse en la ola tecnológica es comprensible. La IA promete orden en el caos, rapidez en lo engorroso, capacidad de ver patrones donde el ojo humano se fatiga. Sin embargo, el riesgo de convertirla en una “caja mágica” es demasiado alto en un ecosistema que aún no ha sanado sus vicios más elementales. 

La IA de predicción se alimenta de pasado: arrestos, denuncias, interrogatorios, expedientes. Si ese pasado está incompleto, mal digitalizado o, peor, sesgado contra ciertos perfiles, el algoritmo no trae justicia; presenta un espejo que amplifica la injusticia. Si a la IA le entramos basura, eso mismo es lo que nos devuelve. Y cuando la basura está envuelta en el celofán de lo “científico”, el daño es doble.

Imaginemos cómo funciona este ciclo. Un sistema de inteligencia artificial analiza los datos históricos y concluye que ciertos barrios son “zonas de riesgo”. La policía, guiada por ese resultado, aumenta su presencia en esas áreas. Al patrullar más, detecta más incidentes, realiza más arrestos y genera más reportes. 

Esos nuevos datos vuelven a alimentar el sistema, que “aprende” que en esos mismos barrios hay más criminalidad. El algoritmo confirma lo que él mismo ayudó a producir. Así se construye una profecía que se cumple sola: la vigilancia se convierte en prueba de culpa, y el sesgo se disfraza de precisión científica.

La profecía se cumple no porque haya verdad sino porque hubo vigilancia. Y en la sala de audiencias, el sesgo se disfraza de objetividad: el fiscal confía en el informe, el juez concede autoridad a la pantalla, el defensor litiga en tinieblas frente a una razón algorítmica que nadie sabe explicar con claridad. En ese contexto, estamos frente a un sesgo de automatización. Es, sencillamente, la abdicación del criterio humano ante un oráculo opaco.

No se trata de demonizar la herramienta, sino de recordar que toda tecnología es política por sus condiciones de uso. En un país donde a menudo se celebra la “mano dura” como solución performática, la IA puede convertirse en un instrumento de populismo penal con estética de modernidad y la balanza inclinarse hacia la arbitrariedad disfrazada de eficiencia.

Viabilizando la IA en el MP

¿Existe una ruta responsable para este proyecto del Ministerio Público? Sí, pero exige renunciar al fetichismo del atajo. Primero, el sistema debe formar masivamente a fiscales, jueces y defensores en ética de datos, sesgos algorítmicos y nociones básicas de estadística. Sin ese alfabetismo, todo lo demás es fuegos artificiales. 

En segundo lugar, es necesario regular y gobernar antes de comprar, definir responsabilidades por error, límites de uso, mecanismos de auditoría independiente, procedimientos de explicación y reparación. Tercero, emprender un proyecto nacional de calidad de datos penales y judiciales, con estándares, validaciones y trazabilidad pública. 

Cuarto, empezar por lo bajo en riesgo y alto en valor, como  transcripción de audiencias, clasificación de expedientes, búsqueda inteligente, gestión documental. Eso ahorra tiempo, deja rastro, crea aprendizaje. Y solo cuando el terreno esté firme, probar —de forma auditada y transparente— herramientas de análisis predictivo que demuestren beneficios medibles sin sacrificar garantías.

La IA no es un ángel ni un demonio: es un acelerador. Acelera lo que somos. Si somos opacos, acelerará la opacidad; si somos sesgados, multiplicará el sesgo; si somos cuidadosos, podrá ser bisturí. Los profesionales del derecho deberían exigir desde ya al Ministerio Público transparencia técnica, protocolos de explicabilidad, derecho a la impugnación algorítmica, normativas, criterios éticos definidos antes de lanzarse a una aventura digital no calculada. 

No hay dudas de que la “prueba algorítmica” será un nuevo ADN inevitable en la justicia. Será poderosa, persuasiva y, por eso, peligrosa si no sabemos interrogarla. A la sociedad civil y a la prensa les toca mirar detrás del anuncio brillante. No basta con celebrar la digitalización como si fuera sinónimo de justicia. Hay que preguntar por los datos, las auditorías, los sesgos, las vías de reclamo, los contratos, los candados éticos. 

La justicia no se consigue con trucos de software. Se construye con garantías, método y transparencia. Si la IA llega para sumar precisión, bienvenida; si se instala para encubrir viejos vicios con un nuevo vocabulario, mejor detenernos. No necesitamos un martillo más grande; necesitamos aprender a operar con un bisturí. Y ese aprendizaje comienza por el orden correcto de los factores.

Avenida Bolívar 195
Torre Corporativa Bolívar
Suite 505. La Julia, Distrito Nacional, República Dominicana

Mediáticos © 2025
Design by Strategium
Conoce nuestro nuevo recurso: Cátedras de Comunicación Vol. 1: Estrategias
This is default text for notification bar