[general_dat] Optativa "Inferencia Bayesiana Causal".
Gustavo Landfried
gustavolandfried at gmail.com
Mon Aug 26 10:09:54 -03 2024
Buenas,
Soy Gustavo Landfried, encargado de la materia "Inferencia Bayesiana
Causal" junto con Matías Lopez. El día de mañana comenzaremos finalmente
las clases presenciales en los laboratorios del pabellón 0+inf.
*INSCRIPCIONES*
*Licenciaturas*: Quién no se haya podido inscribir, *tienen hasta el día de
hoy* para responder a mi correo electrónico personal enviando Nombre,
Apellido, Mail y Libreta Universitaria.
*Doctorado*: Esta semana se aprobará la versión de la materia para
doctorado que otorgará 2,5 puntos. Apenas esté aprobada, se abrirán las
inscripciones en el sistema. Mientras tanto envíenme un correo electrónico
personal para comenzar a recibir las comunicaciones de la materia.
*DETALLES*
*Días y horarios (presencial):* Martes de 14:00 a 17:00
*Lugar:* Laboratorio del pabellón 0 + inf.
*Duración*: 16 semanas (cuatrimestral).
*Carga horaria total*: 3 horas semanales presenciales (más 3 horas de
estudio autónomo).
*Metodología*: Teórico práctica con laboratorios.
*Evaluación*: Talleres y cuestionarios obligatorios + 1 trabajo práctico
grupal.
*Créditos*: Licenciaturas 48 créditos / 3 puntos. Doctorado: 2.5 puntos.
*MARCO CONCEPTUAL*
*Definición de Inferencia*. Las "verdades" son proposiciones válidas para
todas las personas. Las ciencias con datos deben validar sus proposiciones
(hipótesis) en sistemas naturales abiertos. ¿Tiene sentido hablar de
"verdad" si justamente tenemos incertidumbre respecto de su verdadero
estado o valor? Al menos podemos evitar mentir: no afirmar más de lo que se
sabe (maximizando incertidumbre) sin ocultar todo aquello que sí se sabe
(dada la información disponible o restricciones).
*Definición de Bayes*. Seleccionar una única hipótesis mediante algún
criterio arbitrario genera siempre efectos secundarios indeseados, como
ocurre con el overfitting. Por el contrario, cuando se evalúa todo el
espacio de hipótesis mediante la (aproximación a la) aplicación estricta de
las reglas de la probabilidad (preservando la creencia previa que sigue
siendo compatible con los datos y prediciendo con la contribución de todas
las hipótesis) se garantizan distribuciones de creencias óptimas (que
maximizan incertidumbre dada la información disponible).
*Definición de Causal*. El problema real de todo organismo vivo es orientar
el ciclo de acción-percepción con la naturaleza en favor de su
reproducción, supervivencia y bienestar. Los problemas del conocimiento
científico obtienen su relevancia y jerarquía de los objetivos que persigue
alcanzar. Luego de una percepción evaluamos los argumentos causales
alternativos maximizando la incertidumbre dada la información disponible, y
antes de actuar seleccionamos la acción minimizando la incertidumbre
esperada en relación al objetivo que perseguimos.
*OBJETIVO*
La materia está enfocada en la evaluación de argumentos causales
alternativos mediante (aproximaciones a) el sistema de razonamiento de las
ciencias con datos (o aplicación estricta de las reglas de la
probabilidad). Para ello se revisarán los métodos desarrollados en las
últimas décadas para:
- Especificar matemáticamente argumentos causales mediante *métodos
gráficos*
- Comprender cómo la estructura causal afecta el *flujo de inferencia*
entre variables
- Identificar *efectos causales* entre variables sin realizar
experimentos
- Diseñar experimentos que permitan *evaluar teorías causales*
alternativas
- Seleccionar el *plan intervenciones óptimas* en los ciclos de
acción-percepción
*PROGRAMA*
*Unidad 1. Introducción a la especificación y evaluación de argumentos
causales*
- Explicación causal. Creencias honestas. Reglas de razonamiento en
contextos de incertidumbre. Métodos gráficos de especificación de
argumentos causales.
- La naturaleza generativa de los argumentos causales. Evaluación de
modelos causales alternativos. Ejemplos identificables y no identificables.
- Modelos conjugados. Emergencia del overfitting por selección y balance
natural por evaluación. Ejemplo con modelos polinomiales de complejidad
creciente.
- Bibliografía sugerida: Bishop [2013] (1-4)
<https://github.com/glandfried/biblio/releases/download/teca/bishop2013-mbmlpaper.pdf>
*.* Bishop [2006] (1.1-1.3, 2.1-2.3, 3.3-3.4) Otras: Jaynes (paper),
Samaja (3.1-3.4), Klimovsky (4)
- Resumen de la clase 1 + la clase 2: https://youtu.be/iwrhjeLuCAo
- Teórica y práctica (ver adjuntos).
*Unidad 2. Sorpresa: el problema de la comunicación con la realidad*
-
Niveles de base empírica. La estructura invariante del dato. El
isomorfismo con los sistemas de comunicación emisor-receptor de la teoría
de la información.
-
Naturaleza multiplicativa de la evaluación de hipótesis. Su rol para los
sistemas de comunicación. Analogías con las apuestas y la propiedad
epistémica.
-
Evaluación de sistemas de comunicación alternativos en base a su tasa de
sorpresa. Interpretación de entropía y entropía cruzada. Máxima entropía.
-
Bibliografía sugerida: MacKay (1.1, 2.4-6, 4.1)
<https://github.com/glandfried/biblio/releases/download/teca/mackay2003>.
Kelly (paper). Otras: Klimovsky (2), Samaja (3.5, 3.6.2-5).
*Unidad 3. Especificación de teorías causales, flujo de inferencia.*
-
Especificación de modelos causales mediante factor graphs. Inferencia
por pasaje de mensajes entre los nodos del grafo: sum-product algorithm.
-
Teorías como estructuras causales dinámicas. Su especificación mediante
gates. Los conceptos de potential outcome y do-operator.
-
Flujo de inferencia en las estructuras elementales: pipe, fork,
collider. El criterio d-separación. Los niveles de razonamiento causal.
-
Bibliografía sugerida. Bibliografía sugerida. Winn (paper)
<https://github.com/glandfried/biblio/releases/download/teca/winn2012>,
Bishop [2006] (8.2-8.2.2, 8.4-8.4.4, 8.4.7). Neal (2.1, 3, 4.1)
<https://github.com/glandfried/biblio/releases/download/teca/neal>,
Pearl (1).
*Unidad 4. Estimación de efecto causal.*
-
El efecto de las intervenciones: truncated factorization. Enfoques de
estimación de efecto causal: adjustment formula, inverse probability
weighting, propensity scores.
-
Métodos para predicción de contrafactuales: twin networks. Método
principal para estimación de efectos causales: el criterio backdoor.
-
Otros criterios: frontdoor y do-calculus. Ejemplos de identificación de
variables de control. Alternativas: deconfounder, variables instrumentales
y otras.
-
Bibliografía sugerida. Bibliografía sugerida. Pearl (3,6-7), Hernán
(parte I), Cinelli (paper), Neal (4, 6, 7.5-7.6)
<https://github.com/glandfried/biblio/releases/download/teca/neal>
*Unidad 5. Ciclos de acción-percepción: el problema de la interacción con
la realidad*
-
Persistencia de la vida fuera del equilibrio. Intercambio
acción-percepción agente-ambiente. El intento por minimizar la sorpresa
esperada.
-
Reformulación ergódica de la teoría de utilidad esperada. Planificación
como inferencia. Evaluación de acciones mediante pseudo-posteriors.
-
Control óptimo en Partial Observed Markov Decision Process (POMDP).
Ejemplos de selección de acciones. Valor de la información.
-
Bibliografía sugerida: Parr (1-3), Schrodinger (4-7), Peters (paper)
<https://github.com/glandfried/biblio/releases/download/teca/peters2019-ergodicityEconomics.pdf>,
Levine (1-2)
<https://github.com/glandfried/biblio/releases/download/teca/levine2018-tutorial>,
Pearl (4). Otras: Koller (21)
*Unidad 6. Métodos de evaluación de teorías causale*
-
Evaluación de modelos como un juego de interacción acción-percepción con
el ambiente. Métodos de Monte Carlo para evaluar modelos.
-
Ejemplos de evaluación de modelos causales a través de datos obtenidos
por interacción con una simulador causal subyacente oculto.
-
Planificación del diseño experimental. La emergencia de la estrategia
falsacionista como comportamiento óptimo.
-
Bibliografía sugerida. Kass (paper), Pearl (7,9)
<https://github.com/glandfried/biblio/releases/download/teca/pearl2009-cuasality.pdf>.
Hernán (parte II)
*Unidad 7. Inferencia causal en series temporales*
-
Modelos de historia completa. Problemas de usar el último posterior como
prior del siguiente evento. Propagación de la información por toda la red
histórica causal.
-
Estimación de efecto causal por simulación de contrafactuales.
Intervenciones en series temporales. Monte Carlo para series temporales.
-
Evaluación de modelos causales alternativos. Apuestas óptimas en
deportes: criterio Kelly, fractional Kelly y otros criterios.
-
Bibliografía sugerida. Brodersen (paper)
<https://github.com/glandfried/biblio/releases/download/teca/brodersen2015-causalTimeSeries.pdf>,
Dangauthier (paper), Bishop (13.2.3-13.2.4, 13.3), Hernán (parte II).
*Unidad 8. Isomorfismo probabilidad-evolución y hackatón “apuestas de vida”*
-
Isomorfismo entre las ecuaciones fundamentales de la teoría de la
probabilidad (teorema de Bayes) y la teoría de la evolución (replicator
dynamic).
-
Las emergencia de las variantes que reducen las fluctuaciones por
diversificación individual, cooperación, especialización cooperativa y
heterogeneidad.
-
Presentación de una competencia de inferencia, intervención, apuestas e
intercambios de recursos. Cierre y conclusiones.
-
Bibliografía sugerida. Peters (paper). Czegel (paper)
<https://github.com/glandfried/biblio/releases/download/teca/czegel2022-bayesDarwin.pdf>,
Kelly (paper)
*BIBLIOGRAFÍA PRINCIPAL*
Bibliografía en links. Sci-hub y Libgen son otros lugares para encontrar la
bibliografía.
- Bishop. Pattern recognition and machine learning. Springer; 2006
bishop2006-PRML
<https://github.com/glandfried/biblio/releases/download/teca/bishop2006-PRML>
- Levine S. Reinforcement learning and control as probabilistic
inference: Tutorial and review. arXiv. 2018. levine2018-tutorial
<https://github.com/glandfried/biblio/releases/download/teca/levine2018-tutorial>
- Parr T, Pezzulo G, Friston KJ. Active Inference. MIT Press; 2022
parr2022-activeInference.pdf
<https://github.com/glandfried/biblio/releases/download/teca/parr2022-activeInference.pdf>
-
Pearl J. Causality. Cambridge university press; 2009.
pearl2009-cuasality.pdf
<https://github.com/glandfried/biblio/releases/download/teca/pearl2009-cuasality.pdf>
- Peters O. The ergodicity problem in economics. Nature Physics. 2019.
peters2019-ergodicityEconomics.pdf
<https://github.com/glandfried/biblio/releases/download/teca/peters2019-ergodicityEconomics.pdf>
- Winn J. Causality with gates. In: Artificial Intelligence and
Statistics. PMLR; 2012. winn2012
<https://github.com/glandfried/biblio/releases/download/teca/winn2012>
*BIBLIOGRAFÍA COMPLEMENTARIA*:
- Bishop. Model-based machine learning. Philosophical Transactions of
the Royal Society A: Mathematical, Physical and Engineering Sciences. 2013
bishop2013-mbmlpaper.pdf
<https://github.com/glandfried/biblio/releases/download/teca/bishop2013-mbmlpaper.pdf>
- Brodersen KH, Gallusser F, Koehler J, Remy N, Scott SL. Inferring
causal impact using Bayesian structural time-series models. The Annals of
Applied Statistics. 2015; brodersen2015-causalTimeSeries.pdf
- Chopin N, Papaspiliopoulos O, et al. An introduction to sequential
Monte Carlo. Vol. 4. Springer; 2020.
- Cinelli C, Forney A, Pearl J. A crash course in good and bad controls.
Sociological Methods & Research. 2022
- Czégel D, Giaffar H, Tenenbaum JB, Szathmáry E. Bayes and Darwin: How
replicator populations implement Bayesian computations. BioEssays. 2022.
czegel2022-bayesDarwin.pdf
- Dangauthier P, Herbrich R, Minka T, Graepel T. Trueskill through time:
Revisiting the history of chess. In: Advances in Neural Information
Processing Systems; 2008
- Gronau QF, Sarafoglou A, Matzke D, Ly A, Boehm U, Marsman M, et al. A
tutorial on bridge sampling. Journal of mathematical psychology. 2017.
- Hernán MA, Robins JM. Causal inference: What if. 2020.
- Jaynes ET. Bayesian methods: General background; 1984. jaynes1984
<https://github.com/glandfried/biblio/releases/download/teca/jaynes1984>
- Kass RE, Raftery AE. Bayes factors. Journal of the American
Statistical Association. 1995.
- Kelly jr JL. A New Interpretation of Information Rate. Bell System
Technical Journal. 1956 kelly1956-informationRate
<https://github.com/glandfried/biblio/releases/download/teca/kelly1956-informationRate>
- Klimovsky G. Las desventuras del conocimiento científico; 1994
klimovsky1994
<https://github.com/glandfried/biblio/releases/download/teca/klimovsky1994>
- Koller D, Friedman N. Probabilistic graphical models: principles and
techniques. MIT press; 2009.
- MacKay DJ. Information theory, inference and learning algorithms.
Cambridge university press; 2003. mackay2003
<https://github.com/glandfried/biblio/releases/download/teca/mackay2003>
- McElreath R. Statistical rethinking: A Bayesian course with examples
in R and Stan. 2020
- Neal. Introduction to causal inference. Course Lecture Notes (draft).
2020; neal
<https://github.com/glandfried/biblio/releases/download/teca/neal>
- Perrakis K, Ntzoufras I, Tsionas EG. On the use of marginal posteriors
in marginal likelihood estimation via importance sampling. Computational
Statistics & Data Analysis. 2014.
- Popper K. La lógica de la investigación científica; 1967.
- Samaja J. Epistemologı́a y metodología: elementos para una teoría de
la investigación científica. EUDEBA; 1999.
samaja1999-epistemologiaMetodologia
<https://github.com/glandfried/biblio/releases/download/teca/samaja1999-epistemologiaMetodologia>
- Schrodinger E. ¿Qué es la vida?. Espasa-Calpe. 1948. Schrodinger.pdf
<https://github.com/glandfried/biblio/releases/download/teca/Schrodinger.pdf>
- Sutton RS, Barto AG. Reinforcement Learning: An Introduction. Second
edition. MIT Press; 2018.
- Vousden W, Farr WM, Mandel I. Dynamic temperature selection for
parallel tempering in Markov chain Monte Carlo simulations. Monthly Notices
of the Royal Astronomical Society. 2018
Más información sobre la lista de distribución general_dat