Marco Explicable
Un Marco Explicable (Marco XAI) es un conjunto de herramientas, metodologías y algoritmos diseñados para hacer que las decisiones y predicciones de modelos complejos de aprendizaje automático sean comprensibles para los usuarios humanos. A diferencia de los modelos de 'caja negra', donde el razonamiento es opaco, un marco XAI proporciona información sobre por qué un modelo llegó a un resultado específico.
En industrias reguladas (como finanzas y atención médica) y entornos empresariales de alto riesgo, simplemente tener una predicción precisa no es suficiente. Las partes interesadas —incluidos los reguladores, los usuarios finales y los líderes empresariales— deben comprender la lógica. Los marcos XAI generan confianza, aseguran el cumplimiento y permiten una depuración y detección de sesgos efectivas.
Estos marcos generalmente operan aplicando análisis post-hoc o diseñando modelos inherentemente interpretables. Los métodos post-hoc, como LIME (Local Interpretable Model-agnostic Explanations) o SHAP (SHapley Additive exPlanations), sondean un modelo complejo para aproximar su comportamiento local, mostrando qué características de entrada contribuyeron más a una predicción individual. Por el contrario, los modelos inherentemente interpretables están diseñados desde cero para ser transparentes (por ejemplo, árboles de decisión).
El principal desafío es la compensación entre precisión e interpretabilidad. Los modelos altamente complejos (como las redes neuronales profundas) a menudo ofrecen el mayor poder predictivo, pero son los más difíciles de explicar. Además, generar explicaciones puede ser computacionalmente costoso.
Los conceptos relacionados incluyen la interpretabilidad del modelo, la equidad en la IA, la robustez adversaria y la gobernanza de la IA.