Close
DCC | Programa del Curso: Equidad e Interpretabilidad en Machine Learning

Programa de Curso

Equidad e Interpretabilidad en Machine Learning

Código

MMLLAEIML

Créditos

3

Duración

24 HORAS

Objetivos

Al finalizar el curso, los estudiantes serán capaces de analizar, interpretar, evaluar y diseñar sistemas de aprendizaje automático que integren principios de equidad, utilizando herramientas de auditoría, métricas de equidad, métodos de interpretabilidad y técnicas de mitigación de sesgos en modelos de clasificación y modelos generativos de lenguaje. 

Contenidos

Introducción a la equidad algorítmica

  • Casos emblemáticos de discriminación algorítmica
  • Conceptos clave: sesgo, equidad, justicia distributiva y procedimental

Modelos de clasificación y evaluación de sesgos

  • Definición del problema de clasificación
  • Métricas de desempeño: accuracy, precision, recall, ROC-AUC
  • Métricas de equidad: parity, separation, sufficiency
  • Conflictos entre métricas y trade-offs inevitables

Interpretabilidad y explicabilidad en Machine Learning 

  • Interpretabilidad vs explicabilidad 
  • Modelos intrínsecamente interpretables 
  • Explicaciones locales: LIME y SHAP
  • Explicaciones globales: Importancia de variables y modelos sustitutos.

Mitigación del sesgo en clasificación

  • Pre-procesamiento: balanceo, reetiquetado, adaptación de datos
  • In-procesamiento: regularización, fairness constraints
  • Post-procesamiento: calibración, cambio de umbral por grupo

Modelos generativos de lenguaje (LLMs) y sesgo

  • Tipos de sesgos en LLMs
  • Técnicas de auditoría: prompts adversariales, benchmark de sesgos, análisis cualitativo
  • Mitigación y evaluación: red teaming, fine-tuning, direct preference optimization

Bibliografía

Barrocas, S., Hardt, M., & Narayanan, A. (2023). Fairness and machine learning: Limitations and opportunities. MIT Press. https://fairmlbook.org/index.html

Molnar, C. (2025). Interpretable Machine Learning: A Guide for Making Black Box Models Explainable. https://christophm.github.io/interpretable-ml-book/

Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6), pp. 1-35. ACM. https://doi.org/10.1145/3457607

Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., Spitzer, E., Raji, I. D., & Gebru, T. (2019). Model cards for model reporting. In Proceedings of the 2019 ACM Conference on Fairness, Accountability, and Transparency (pp. 220–229). ACM. https://doi.org/10.1145/3287560.3287596

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (pp. 610–623). ACM. https://doi.org/10.1145/3442188.3445922

Rudin, C. (2019). Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. In Nature Machine Intelligence 1 (pp. 206-215). https://doi.org/10.1038/s42256-019-0048-x

Bibliografía

Barrocas, S., Hardt, M., & Narayanan, A. (2023). Fairness and machine learning: Limitations and opportunities. MIT Press. https://fairmlbook.org/index.html

Molnar, C. (2025). Interpretable Machine Learning: A Guide for Making Black Box Models Explainable. https://christophm.github.io/interpretable-ml-book/

Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K., & Galstyan, A. (2021). A survey on bias and fairness in machine learning. ACM Computing Surveys, 54(6), pp. 1-35. ACM. https://doi.org/10.1145/3457607

Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., Spitzer, E., Raji, I. D., & Gebru, T. (2019). Model cards for model reporting. In Proceedings of the 2019 ACM Conference on Fairness, Accountability, and Transparency (pp. 220–229). ACM. https://doi.org/10.1145/3287560.3287596

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (pp. 610–623). ACM. https://doi.org/10.1145/3442188.3445922

Rudin, C. (2019). Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead. In Nature Machine Intelligence 1 (pp. 206-215). https://doi.org/10.1038/s42256-019-0048-x

Profesores

Andrés Abeliuk

Andrés Abeliuk

Cursos Relacionados

Contacto

Ubicación

Departamento de Ciencias de la Computación
FCFM, Universidad de Chile

Beauchef #851, Edificio Poniente, segundo piso, oficinas 210-214. Santiago

© 2026 Departamento de Ciencias de la Computación, Universidad de Chile
WhatsApp