[general_dat] [DC-Todos] Optativa "Inferencia Bayesiana Causal".
Gustavo Landfried
gustavolandfried at gmail.com
Tue Aug 27 14:08:55 -03 2024
1103
El mar, 27 ago 2024 a las 13:38, Martin Festini (<martimbo19 at gmail.com>)
escribió:
> Hola, ya se sabe en que laboratorio son las clases?
>
> El lun., 26 ago. 2024 10:10, Gustavo Landfried <gustavolandfried at gmail.com>
> escribió:
>
>> Buenas,
>>
>> Soy Gustavo Landfried, encargado de la materia "Inferencia Bayesiana
>> Causal" junto con Matías Lopez. El día de mañana comenzaremos finalmente
>> las clases presenciales en los laboratorios del pabellón 0+inf.
>>
>> *INSCRIPCIONES*
>>
>> *Licenciaturas*: Quién no se haya podido inscribir, *tienen hasta el día
>> de hoy* para responder a mi correo electrónico personal enviando Nombre,
>> Apellido, Mail y Libreta Universitaria.
>> *Doctorado*: Esta semana se aprobará la versión de la materia para
>> doctorado que otorgará 2,5 puntos. Apenas esté aprobada, se abrirán las
>> inscripciones en el sistema. Mientras tanto envíenme un correo electrónico
>> personal para comenzar a recibir las comunicaciones de la materia.
>>
>> *DETALLES*
>>
>> *Días y horarios (presencial):* Martes de 14:00 a 17:00
>> *Lugar:* Laboratorio del pabellón 0 + inf.
>> *Duración*: 16 semanas (cuatrimestral).
>> *Carga horaria total*: 3 horas semanales presenciales (más 3 horas de
>> estudio autónomo).
>> *Metodología*: Teórico práctica con laboratorios.
>> *Evaluación*: Talleres y cuestionarios obligatorios + 1 trabajo práctico
>> grupal.
>> *Créditos*: Licenciaturas 48 créditos / 3 puntos. Doctorado: 2.5 puntos.
>>
>> *MARCO CONCEPTUAL*
>>
>> *Definición de Inferencia*. Las "verdades" son proposiciones válidas
>> para todas las personas. Las ciencias con datos deben validar sus
>> proposiciones (hipótesis) en sistemas naturales abiertos. ¿Tiene sentido
>> hablar de "verdad" si justamente tenemos incertidumbre respecto de su
>> verdadero estado o valor? Al menos podemos evitar mentir: no afirmar más de
>> lo que se sabe (maximizando incertidumbre) sin ocultar todo aquello que sí
>> se sabe (dada la información disponible o restricciones).
>>
>> *Definición de Bayes*. Seleccionar una única hipótesis mediante algún
>> criterio arbitrario genera siempre efectos secundarios indeseados, como
>> ocurre con el overfitting. Por el contrario, cuando se evalúa todo el
>> espacio de hipótesis mediante la (aproximación a la) aplicación estricta de
>> las reglas de la probabilidad (preservando la creencia previa que sigue
>> siendo compatible con los datos y prediciendo con la contribución de todas
>> las hipótesis) se garantizan distribuciones de creencias óptimas (que
>> maximizan incertidumbre dada la información disponible).
>>
>> *Definición de Causal*. El problema real de todo organismo vivo es
>> orientar el ciclo de acción-percepción con la naturaleza en favor de su
>> reproducción, supervivencia y bienestar. Los problemas del conocimiento
>> científico obtienen su relevancia y jerarquía de los objetivos que persigue
>> alcanzar. Luego de una percepción evaluamos los argumentos causales
>> alternativos maximizando la incertidumbre dada la información disponible, y
>> antes de actuar seleccionamos la acción minimizando la incertidumbre
>> esperada en relación al objetivo que perseguimos.
>>
>> *OBJETIVO*
>>
>> La materia está enfocada en la evaluación de argumentos causales
>> alternativos mediante (aproximaciones a) el sistema de razonamiento de las
>> ciencias con datos (o aplicación estricta de las reglas de la
>> probabilidad). Para ello se revisarán los métodos desarrollados en las
>> últimas décadas para:
>>
>> - Especificar matemáticamente argumentos causales mediante *métodos
>> gráficos*
>> - Comprender cómo la estructura causal afecta el *flujo de inferencia*
>> entre variables
>> - Identificar *efectos causales* entre variables sin realizar
>> experimentos
>> - Diseñar experimentos que permitan *evaluar teorías causales*
>> alternativas
>> - Seleccionar el *plan intervenciones óptimas* en los ciclos de
>> acción-percepción
>>
>>
>> *PROGRAMA*
>>
>> *Unidad 1. Introducción a la especificación y evaluación de argumentos
>> causales*
>>
>> - Explicación causal. Creencias honestas. Reglas de razonamiento en
>> contextos de incertidumbre. Métodos gráficos de especificación de
>> argumentos causales.
>> - La naturaleza generativa de los argumentos causales. Evaluación de
>> modelos causales alternativos. Ejemplos identificables y no identificables.
>> - Modelos conjugados. Emergencia del overfitting por selección y
>> balance natural por evaluación. Ejemplo con modelos polinomiales de
>> complejidad creciente.
>> - Bibliografía sugerida: Bishop [2013] (1-4)
>> <https://github.com/glandfried/biblio/releases/download/teca/bishop2013-mbmlpaper.pdf>
>> *.* Bishop [2006] (1.1-1.3, 2.1-2.3, 3.3-3.4) Otras: Jaynes (paper),
>> Samaja (3.1-3.4), Klimovsky (4)
>>
>>
>> - Resumen de la clase 1 + la clase 2: https://youtu.be/iwrhjeLuCAo
>> - Teórica y práctica (ver adjuntos).
>>
>> *Unidad 2. Sorpresa: el problema de la comunicación con la realidad*
>>
>> -
>>
>> Niveles de base empírica. La estructura invariante del dato. El
>> isomorfismo con los sistemas de comunicación emisor-receptor de la teoría
>> de la información.
>> -
>>
>> Naturaleza multiplicativa de la evaluación de hipótesis. Su rol para
>> los sistemas de comunicación. Analogías con las apuestas y la propiedad
>> epistémica.
>> -
>>
>> Evaluación de sistemas de comunicación alternativos en base a su tasa
>> de sorpresa. Interpretación de entropía y entropía cruzada. Máxima entropía.
>> -
>>
>> Bibliografía sugerida: MacKay (1.1, 2.4-6, 4.1)
>> <https://github.com/glandfried/biblio/releases/download/teca/mackay2003>.
>> Kelly (paper). Otras: Klimovsky (2), Samaja (3.5, 3.6.2-5).
>>
>> *Unidad 3. Especificación de teorías causales, flujo de inferencia.*
>>
>> -
>>
>> Especificación de modelos causales mediante factor graphs. Inferencia
>> por pasaje de mensajes entre los nodos del grafo: sum-product algorithm.
>> -
>>
>> Teorías como estructuras causales dinámicas. Su especificación
>> mediante gates. Los conceptos de potential outcome y do-operator.
>> -
>>
>> Flujo de inferencia en las estructuras elementales: pipe, fork,
>> collider. El criterio d-separación. Los niveles de razonamiento causal.
>> -
>>
>> Bibliografía sugerida. Bibliografía sugerida. Winn (paper)
>> <https://github.com/glandfried/biblio/releases/download/teca/winn2012>,
>> Bishop [2006] (8.2-8.2.2, 8.4-8.4.4, 8.4.7). Neal (2.1, 3, 4.1)
>> <https://github.com/glandfried/biblio/releases/download/teca/neal>,
>> Pearl (1).
>>
>> *Unidad 4. Estimación de efecto causal.*
>>
>> -
>>
>> El efecto de las intervenciones: truncated factorization. Enfoques de
>> estimación de efecto causal: adjustment formula, inverse probability
>> weighting, propensity scores.
>> -
>>
>> Métodos para predicción de contrafactuales: twin networks. Método
>> principal para estimación de efectos causales: el criterio backdoor.
>> -
>>
>> Otros criterios: frontdoor y do-calculus. Ejemplos de identificación
>> de variables de control. Alternativas: deconfounder, variables
>> instrumentales y otras.
>> -
>>
>> Bibliografía sugerida. Bibliografía sugerida. Pearl (3,6-7), Hernán
>> (parte I), Cinelli (paper), Neal (4, 6, 7.5-7.6)
>> <https://github.com/glandfried/biblio/releases/download/teca/neal>
>>
>> *Unidad 5. Ciclos de acción-percepción: el problema de la interacción con
>> la realidad*
>>
>> -
>>
>> Persistencia de la vida fuera del equilibrio. Intercambio
>> acción-percepción agente-ambiente. El intento por minimizar la sorpresa
>> esperada.
>> -
>>
>> Reformulación ergódica de la teoría de utilidad esperada.
>> Planificación como inferencia. Evaluación de acciones mediante
>> pseudo-posteriors.
>> -
>>
>> Control óptimo en Partial Observed Markov Decision Process (POMDP).
>> Ejemplos de selección de acciones. Valor de la información.
>> -
>>
>> Bibliografía sugerida: Parr (1-3), Schrodinger (4-7), Peters (paper)
>> <https://github.com/glandfried/biblio/releases/download/teca/peters2019-ergodicityEconomics.pdf>,
>> Levine (1-2)
>> <https://github.com/glandfried/biblio/releases/download/teca/levine2018-tutorial>,
>> Pearl (4). Otras: Koller (21)
>>
>> *Unidad 6. Métodos de evaluación de teorías causale*
>>
>> -
>>
>> Evaluación de modelos como un juego de interacción acción-percepción
>> con el ambiente. Métodos de Monte Carlo para evaluar modelos.
>> -
>>
>> Ejemplos de evaluación de modelos causales a través de datos
>> obtenidos por interacción con una simulador causal subyacente oculto.
>> -
>>
>> Planificación del diseño experimental. La emergencia de la estrategia
>> falsacionista como comportamiento óptimo.
>> -
>>
>> Bibliografía sugerida. Kass (paper), Pearl (7,9)
>> <https://github.com/glandfried/biblio/releases/download/teca/pearl2009-cuasality.pdf>.
>> Hernán (parte II)
>>
>> *Unidad 7. Inferencia causal en series temporales*
>>
>> -
>>
>> Modelos de historia completa. Problemas de usar el último posterior
>> como prior del siguiente evento. Propagación de la información por toda la
>> red histórica causal.
>> -
>>
>> Estimación de efecto causal por simulación de contrafactuales.
>> Intervenciones en series temporales. Monte Carlo para series temporales.
>> -
>>
>> Evaluación de modelos causales alternativos. Apuestas óptimas en
>> deportes: criterio Kelly, fractional Kelly y otros criterios.
>> -
>>
>> Bibliografía sugerida. Brodersen (paper)
>> <https://github.com/glandfried/biblio/releases/download/teca/brodersen2015-causalTimeSeries.pdf>,
>> Dangauthier (paper), Bishop (13.2.3-13.2.4, 13.3), Hernán (parte II).
>>
>> *Unidad 8. Isomorfismo probabilidad-evolución y hackatón “apuestas de
>> vida”*
>>
>> -
>>
>> Isomorfismo entre las ecuaciones fundamentales de la teoría de la
>> probabilidad (teorema de Bayes) y la teoría de la evolución (replicator
>> dynamic).
>> -
>>
>> Las emergencia de las variantes que reducen las fluctuaciones por
>> diversificación individual, cooperación, especialización cooperativa y
>> heterogeneidad.
>> -
>>
>> Presentación de una competencia de inferencia, intervención, apuestas
>> e intercambios de recursos. Cierre y conclusiones.
>> -
>>
>> Bibliografía sugerida. Peters (paper). Czegel (paper)
>> <https://github.com/glandfried/biblio/releases/download/teca/czegel2022-bayesDarwin.pdf>,
>> Kelly (paper)
>>
>>
>> *BIBLIOGRAFÍA PRINCIPAL*
>> Bibliografía en links. Sci-hub y Libgen son otros lugares para encontrar
>> la bibliografía.
>>
>> - Bishop. Pattern recognition and machine learning. Springer; 2006
>> bishop2006-PRML
>> <https://github.com/glandfried/biblio/releases/download/teca/bishop2006-PRML>
>> - Levine S. Reinforcement learning and control as probabilistic
>> inference: Tutorial and review. arXiv. 2018. levine2018-tutorial
>> <https://github.com/glandfried/biblio/releases/download/teca/levine2018-tutorial>
>> - Parr T, Pezzulo G, Friston KJ. Active Inference. MIT Press; 2022
>> parr2022-activeInference.pdf
>> <https://github.com/glandfried/biblio/releases/download/teca/parr2022-activeInference.pdf>
>> -
>>
>> Pearl J. Causality. Cambridge university press; 2009.
>> pearl2009-cuasality.pdf
>> <https://github.com/glandfried/biblio/releases/download/teca/pearl2009-cuasality.pdf>
>> - Peters O. The ergodicity problem in economics. Nature Physics.
>> 2019. peters2019-ergodicityEconomics.pdf
>> <https://github.com/glandfried/biblio/releases/download/teca/peters2019-ergodicityEconomics.pdf>
>> - Winn J. Causality with gates. In: Artificial Intelligence and
>> Statistics. PMLR; 2012. winn2012
>> <https://github.com/glandfried/biblio/releases/download/teca/winn2012>
>>
>> *BIBLIOGRAFÍA COMPLEMENTARIA*:
>>
>> - Bishop. Model-based machine learning. Philosophical Transactions of
>> the Royal Society A: Mathematical, Physical and Engineering Sciences. 2013
>> bishop2013-mbmlpaper.pdf
>> <https://github.com/glandfried/biblio/releases/download/teca/bishop2013-mbmlpaper.pdf>
>> - Brodersen KH, Gallusser F, Koehler J, Remy N, Scott SL. Inferring
>> causal impact using Bayesian structural time-series models. The Annals of
>> Applied Statistics. 2015; brodersen2015-causalTimeSeries.pdf
>> - Chopin N, Papaspiliopoulos O, et al. An introduction to sequential
>> Monte Carlo. Vol. 4. Springer; 2020.
>> - Cinelli C, Forney A, Pearl J. A crash course in good and bad
>> controls. Sociological Methods & Research. 2022
>> - Czégel D, Giaffar H, Tenenbaum JB, Szathmáry E. Bayes and Darwin:
>> How replicator populations implement Bayesian computations. BioEssays.
>> 2022. czegel2022-bayesDarwin.pdf
>> - Dangauthier P, Herbrich R, Minka T, Graepel T. Trueskill through
>> time: Revisiting the history of chess. In: Advances in Neural Information
>> Processing Systems; 2008
>> - Gronau QF, Sarafoglou A, Matzke D, Ly A, Boehm U, Marsman M, et al.
>> A tutorial on bridge sampling. Journal of mathematical psychology. 2017.
>> - Hernán MA, Robins JM. Causal inference: What if. 2020.
>> - Jaynes ET. Bayesian methods: General background; 1984. jaynes1984
>> <https://github.com/glandfried/biblio/releases/download/teca/jaynes1984>
>> - Kass RE, Raftery AE. Bayes factors. Journal of the American
>> Statistical Association. 1995.
>> - Kelly jr JL. A New Interpretation of Information Rate. Bell System
>> Technical Journal. 1956 kelly1956-informationRate
>> <https://github.com/glandfried/biblio/releases/download/teca/kelly1956-informationRate>
>> - Klimovsky G. Las desventuras del conocimiento científico; 1994
>> klimovsky1994
>> <https://github.com/glandfried/biblio/releases/download/teca/klimovsky1994>
>> - Koller D, Friedman N. Probabilistic graphical models: principles
>> and techniques. MIT press; 2009.
>> - MacKay DJ. Information theory, inference and learning algorithms.
>> Cambridge university press; 2003. mackay2003
>> <https://github.com/glandfried/biblio/releases/download/teca/mackay2003>
>> - McElreath R. Statistical rethinking: A Bayesian course with
>> examples in R and Stan. 2020
>> - Neal. Introduction to causal inference. Course Lecture Notes
>> (draft). 2020; neal
>> <https://github.com/glandfried/biblio/releases/download/teca/neal>
>> - Perrakis K, Ntzoufras I, Tsionas EG. On the use of marginal
>> posteriors in marginal likelihood estimation via importance sampling.
>> Computational Statistics & Data Analysis. 2014.
>> - Popper K. La lógica de la investigación científica; 1967.
>> - Samaja J. Epistemologı́a y metodología: elementos para una teoría
>> de la investigación científica. EUDEBA; 1999.
>> samaja1999-epistemologiaMetodologia
>> <https://github.com/glandfried/biblio/releases/download/teca/samaja1999-epistemologiaMetodologia>
>> - Schrodinger E. ¿Qué es la vida?. Espasa-Calpe. 1948.
>> Schrodinger.pdf
>> <https://github.com/glandfried/biblio/releases/download/teca/Schrodinger.pdf>
>> - Sutton RS, Barto AG. Reinforcement Learning: An Introduction.
>> Second edition. MIT Press; 2018.
>> - Vousden W, Farr WM, Mandel I. Dynamic temperature selection for
>> parallel tempering in Markov chain Monte Carlo simulations. Monthly Notices
>> of the Royal Astronomical Society. 2018
>>
>> --
>> Has recibido este mensaje porque estás suscrito al grupo "todos" de
>> Grupos de Google.
>> Para cancelar la suscripción a este grupo y dejar de recibir sus
>> mensajes, envía un correo electrónico a todos+unsubscribe at dc.uba.ar.
>> Para ver esta conversación en el sitio web, visita
>> https://groups.google.com/a/dc.uba.ar/d/msgid/todos/CAHQ6O%2B7PqcppEvEX5Ltrf%3Di1jit7z84-rjKswXek3N03tjyOpg%40mail.gmail.com
>> <https://groups.google.com/a/dc.uba.ar/d/msgid/todos/CAHQ6O%2B7PqcppEvEX5Ltrf%3Di1jit7z84-rjKswXek3N03tjyOpg%40mail.gmail.com?utm_medium=email&utm_source=footer>
>> .
>>
>
Más información sobre la lista de distribución general_dat