Identificar, medir y mitigar los sesgos en herramientas de IA usadas en procesos judiciales.
Un sesgo algorítmico ocurre cuando un sistema de IA produce resultados sistemáticamente injustos hacia ciertos grupos. En el ámbito judicial, esto puede vulnerar derechos fundamentales.
El sistema COMPAS, usado para predecir reincidencia criminal, fue denunciado por ProPublica (2016) por:
¿Tienes dudas legales propias?
El Plan Particular te da 50 consultas al mes con respuestas verificadas del BOE y la jurisprudencia.
Vídeo próximamente
Por ahora puedes leer el contenido escrito más abajo
¿Qué sistema de IA fue denunciado por sesgo racial en la predicción de reincidencia?
¿Qué es una "variable proxy" en el contexto de sesgos algorítmicos?
¿El sesgo de automatización es la tendencia a confiar excesivamente en las recomendaciones de la IA?
¿Cuál es una estrategia clave para mitigar sesgos en sistemas judiciales de IA?
¿Cuál de estas NO es una fuente de sesgo algorítmico?