Esta función calcula estadísticas agregadas para detectar sesgos en modelos de aprendizaje automático, analizando las disparidades en el rendimiento entre diferentes grupos demográficos. Calcula métricas clave como la paridad demográfica, las probabilidades igualadas y los ratios de impacto desigual para garantizar el cumplimiento de los estándares éticos de la inteligencia artificial. El sistema agrega las predicciones y las etiquetas reales por subgrupo, aplicando pruebas estadísticas para identificar desviaciones significativas de los umbrales de equidad definidos en las políticas de gobernanza corporativa.
La función inicia un análisis exhaustivo de los resultados del modelo, segmentados por atributos protegidos como edad, género o etnia.
Los algoritmos estadísticos calculan indicadores específicos de equidad, incluyendo la paridad en la tasa de verdaderos positivos y la igualdad en la tasa de falsos negativos.
Los resultados se comparan con umbrales regulatorios predefinidos para identificar de inmediato posibles riesgos de discriminación algorítmica.
Extraiga las etiquetas de los atributos protegidos de los conjuntos de datos de entrenamiento e inferencia.
Segmentar las predicciones del modelo en grupos distintos según identificadores demográficos.
Calcule la precisión, exactitud, exhaustividad y la puntuación F1 para cada subgrupo de forma independiente.
Aplique pruebas de significancia estadística para determinar si las disparidades son aleatorias.
Carga segura de conjuntos de datos etiquetados que contienen campos de atributos protegidos para análisis de subgrupos.
Visualización en tiempo real de métricas de equidad y mapas de calor de desviación para la revisión regulatoria.
Disparadores automáticos cuando las métricas calculadas superan los límites de tolerancia aceptables de sesgo.