La Violencia basada en género, ha sido definida por la Organización de las Naciones Unidas como cualquier acto dañino basado en las diferencias de género atribuidas socialmente. Dentro de sus muchas manifestaciones, aquella violencia en su máxima expresión llega hasta el feminicidio; fenómeno que lejos de disminuir, se ha extendido alrededor del mundo. Por otra parte, la inteligencia artificial ha aparecido en la escena de diversos sectores, sin que el ámbito jurídico haya sido la excepción. La conexión entre la violencia basada en género y la Inteligencia artificial se da de la mano de las necesidades crecientes de prevención de la primera, a través por ejemplo de la predicción de niveles de riesgo en la que la segunda ofrece importantes ventajas. Utilizando una metodología cualitativa deductiva con alcance descriptivo exploratorio, en la que se aplican métodos propios del derecho y las ciencias computacionales para analizar fuentes primarias, secundarias y estudio de casos de algoritmos y herramientas de evaluación de riesgo, (sin dejar de lado la referencia a herramientas de predicción tradicionales que no utilizan Inteligencia artificial), se arriba a resultados que apuntan a que los algoritmos y herramientas mencionadas evalúan y ponderan factores situacionales y disparadores, relacionados con el perpetrador, la víctima, y la relación familiar; variando en el valor asignado a cada uno de estos; en cuanto a las críticas se encuentran estandarizadas en la precisión y confiabilidad de la predicción.
En la actividad policial, administración de justicia y procesos penales, se han empezado a utilizar diversos algoritmos predictivos de riesgo, los cuales aportan celeridad en la toma de decisiones. Han surgido controversias acerca de su aplicación, debido a ciertas variables subjetivas ponderadas, lo que implicaría una posible vulneración para los derechos humanos. En el presente artículo se describen los principales algoritmos predictivos de riesgo, haciendo énfasis en el algoritmo COMPAS y se determinan los impactos a los derechos humanos derivados de su uso. El método utilizado es deductivo-inductivo, partiendo de un análisis documental para describir el funcionamiento de los algoritmos y un proceso inductivo para determinar si se garantizan los derechos humanos con su utilización. Los resultados indican que en efecto sí hay riesgos cuando se utilizan estos sistemas inteligentes predictivos, los cuales son derivados de la falta de transparencia de la arquitectura del algoritmo y de la presencia de sesgos. Lo anterior impediría identificar el proceso por el cual se llega a la calificación de nivel de riesgo, de un lado, y de otro, una aplicación objetiva de la evaluación; lo que pondría en riesgo derechos como el debido proceso, la libertad personal y no discriminación, entre otros.
scite is a Brooklyn-based organization that helps researchers better discover and understand research articles through Smart Citations–citations that display the context of the citation and describe whether the article provides supporting or contrasting evidence. scite is used by students and researchers from around the world and is funded in part by the National Science Foundation and the National Institute on Drug Abuse of the National Institutes of Health.
hi@scite.ai
10624 S. Eastern Ave., Ste. A-614
Henderson, NV 89052, USA
Copyright © 2024 scite LLC. All rights reserved.
Made with 💙 for researchers
Part of the Research Solutions Family.