[general_dat] [DC-Todos] Optativa "Inferencia Bayesiana Causal".

Gustavo Landfried gustavolandfried at gmail.com
Tue Aug 27 14:08:55 -03 2024


1103

El mar, 27 ago 2024 a las 13:38, Martin Festini (<martimbo19 at gmail.com>)
escribió:

> Hola, ya se sabe en que laboratorio son las clases?
>
> El lun., 26 ago. 2024 10:10, Gustavo Landfried <gustavolandfried at gmail.com>
> escribió:
>
>> Buenas,
>>
>> Soy Gustavo Landfried, encargado de la materia "Inferencia Bayesiana
>> Causal" junto con Matías Lopez. El día de mañana comenzaremos finalmente
>> las clases presenciales en los laboratorios del pabellón 0+inf.
>>
>> *INSCRIPCIONES*
>>
>> *Licenciaturas*: Quién no se haya podido inscribir, *tienen hasta el día
>> de hoy* para responder a mi correo electrónico personal enviando Nombre,
>> Apellido, Mail y Libreta Universitaria.
>> *Doctorado*: Esta semana se aprobará la versión de la materia para
>> doctorado que otorgará 2,5 puntos. Apenas esté aprobada, se abrirán las
>> inscripciones en el sistema. Mientras tanto envíenme un correo electrónico
>> personal para comenzar a recibir las comunicaciones de la materia.
>>
>> *DETALLES*
>>
>> *Días y horarios (presencial):* Martes de 14:00 a 17:00
>> *Lugar:* Laboratorio del pabellón 0 + inf.
>> *Duración*: 16 semanas (cuatrimestral).
>> *Carga horaria total*: 3 horas semanales presenciales (más 3 horas de
>> estudio autónomo).
>> *Metodología*: Teórico práctica con laboratorios.
>> *Evaluación*: Talleres y cuestionarios obligatorios + 1 trabajo práctico
>> grupal.
>> *Créditos*: Licenciaturas 48 créditos / 3 puntos. Doctorado: 2.5 puntos.
>>
>> *MARCO CONCEPTUAL*
>>
>> *Definición de Inferencia*. Las "verdades" son proposiciones válidas
>> para todas las personas. Las ciencias con datos deben validar sus
>> proposiciones (hipótesis) en sistemas naturales abiertos. ¿Tiene sentido
>> hablar de "verdad" si justamente tenemos incertidumbre respecto de su
>> verdadero estado o valor? Al menos podemos evitar mentir: no afirmar más de
>> lo que se sabe (maximizando incertidumbre) sin ocultar todo aquello que sí
>> se sabe (dada la información disponible o restricciones).
>>
>> *Definición de Bayes*. Seleccionar una única hipótesis mediante algún
>> criterio arbitrario genera siempre efectos secundarios indeseados, como
>> ocurre con el overfitting. Por el contrario, cuando se evalúa todo el
>> espacio de hipótesis mediante la (aproximación a la) aplicación estricta de
>> las reglas de la probabilidad (preservando la creencia previa que sigue
>> siendo compatible con los datos y prediciendo con la contribución de todas
>> las hipótesis) se garantizan distribuciones de creencias óptimas (que
>> maximizan incertidumbre dada la información disponible).
>>
>> *Definición de Causal*. El problema real de todo organismo vivo es
>> orientar el ciclo de acción-percepción con la naturaleza en favor de su
>> reproducción, supervivencia y bienestar. Los problemas del conocimiento
>> científico obtienen su relevancia y jerarquía de los objetivos que persigue
>> alcanzar. Luego de una percepción evaluamos los argumentos causales
>> alternativos maximizando la incertidumbre dada la información disponible, y
>> antes de actuar seleccionamos la acción minimizando la incertidumbre
>> esperada en relación al objetivo que perseguimos.
>>
>> *OBJETIVO*
>>
>> La materia está enfocada en la evaluación de argumentos causales
>> alternativos mediante (aproximaciones a) el sistema de razonamiento de las
>> ciencias con datos (o aplicación estricta de las reglas de la
>> probabilidad). Para ello se revisarán los métodos desarrollados en las
>> últimas décadas para:
>>
>>    - Especificar matemáticamente argumentos causales mediante *métodos
>>    gráficos*
>>    - Comprender cómo la estructura causal afecta el *flujo de inferencia*
>>    entre variables
>>    - Identificar *efectos causales* entre variables sin realizar
>>    experimentos
>>    - Diseñar experimentos que permitan *evaluar teorías causales*
>>    alternativas
>>    - Seleccionar el *plan intervenciones óptimas* en los ciclos de
>>    acción-percepción
>>
>>
>> *PROGRAMA*
>>
>> *Unidad 1. Introducción a la especificación y evaluación de argumentos
>> causales*
>>
>>    - Explicación causal. Creencias honestas. Reglas de razonamiento en
>>    contextos de incertidumbre. Métodos gráficos de especificación de
>>    argumentos causales.
>>    - La naturaleza generativa de los argumentos causales. Evaluación de
>>    modelos causales alternativos. Ejemplos identificables y no identificables.
>>    - Modelos conjugados. Emergencia del overfitting por selección y
>>    balance natural por evaluación. Ejemplo con modelos polinomiales de
>>    complejidad creciente.
>>    - Bibliografía sugerida: Bishop [2013] (1-4)
>>    <https://github.com/glandfried/biblio/releases/download/teca/bishop2013-mbmlpaper.pdf>
>>    *.* Bishop [2006] (1.1-1.3, 2.1-2.3, 3.3-3.4) Otras:  Jaynes (paper),
>>    Samaja (3.1-3.4), Klimovsky (4)
>>
>>
>>    - Resumen de la clase 1 + la clase 2: https://youtu.be/iwrhjeLuCAo
>>    - Teórica y práctica (ver adjuntos).
>>
>> *Unidad 2. Sorpresa: el problema de la comunicación con la realidad*
>>
>>    -
>>
>>    Niveles de base empírica. La estructura invariante del dato. El
>>    isomorfismo con los sistemas de comunicación emisor-receptor de la teoría
>>    de la información.
>>    -
>>
>>    Naturaleza multiplicativa de la evaluación de hipótesis. Su rol para
>>    los sistemas de comunicación. Analogías con las apuestas y la propiedad
>>    epistémica.
>>    -
>>
>>    Evaluación de sistemas de comunicación alternativos en base a su tasa
>>    de sorpresa. Interpretación de entropía y entropía cruzada. Máxima entropía.
>>    -
>>
>>    Bibliografía sugerida: MacKay (1.1, 2.4-6, 4.1)
>>    <https://github.com/glandfried/biblio/releases/download/teca/mackay2003>.
>>    Kelly (paper). Otras: Klimovsky (2), Samaja (3.5, 3.6.2-5).
>>
>> *Unidad 3. Especificación de teorías causales, flujo de inferencia.*
>>
>>    -
>>
>>    Especificación de modelos causales mediante factor graphs. Inferencia
>>    por pasaje de mensajes entre los nodos del grafo: sum-product algorithm.
>>    -
>>
>>    Teorías como estructuras causales dinámicas. Su especificación
>>    mediante gates. Los conceptos de potential outcome y do-operator.
>>    -
>>
>>    Flujo de inferencia en las estructuras elementales: pipe, fork,
>>    collider. El criterio d-separación. Los niveles de razonamiento causal.
>>    -
>>
>>    Bibliografía sugerida. Bibliografía sugerida. Winn (paper)
>>    <https://github.com/glandfried/biblio/releases/download/teca/winn2012>,
>>    Bishop [2006] (8.2-8.2.2, 8.4-8.4.4, 8.4.7). Neal (2.1, 3, 4.1)
>>    <https://github.com/glandfried/biblio/releases/download/teca/neal>,
>>    Pearl (1).
>>
>> *Unidad 4. Estimación de efecto causal.*
>>
>>    -
>>
>>    El efecto de las intervenciones: truncated factorization. Enfoques de
>>    estimación de efecto causal: adjustment formula, inverse probability
>>    weighting, propensity scores.
>>    -
>>
>>    Métodos para predicción de contrafactuales: twin networks. Método
>>    principal para estimación de efectos causales: el criterio backdoor.
>>    -
>>
>>    Otros criterios: frontdoor y do-calculus. Ejemplos de identificación
>>    de variables de control. Alternativas: deconfounder, variables
>>    instrumentales y otras.
>>    -
>>
>>    Bibliografía sugerida. Bibliografía sugerida. Pearl (3,6-7), Hernán
>>    (parte I), Cinelli (paper), Neal (4, 6, 7.5-7.6)
>>    <https://github.com/glandfried/biblio/releases/download/teca/neal>
>>
>> *Unidad 5. Ciclos de acción-percepción: el problema de la interacción con
>> la realidad*
>>
>>    -
>>
>>    Persistencia de la vida fuera del equilibrio. Intercambio
>>    acción-percepción agente-ambiente. El intento por minimizar la sorpresa
>>    esperada.
>>    -
>>
>>    Reformulación ergódica de la teoría de utilidad esperada.
>>    Planificación como inferencia. Evaluación de acciones mediante
>>    pseudo-posteriors.
>>    -
>>
>>    Control óptimo en Partial Observed Markov Decision Process (POMDP).
>>    Ejemplos de selección de acciones. Valor de la información.
>>    -
>>
>>    Bibliografía sugerida: Parr (1-3), Schrodinger (4-7),  Peters (paper)
>>    <https://github.com/glandfried/biblio/releases/download/teca/peters2019-ergodicityEconomics.pdf>,
>>    Levine (1-2)
>>    <https://github.com/glandfried/biblio/releases/download/teca/levine2018-tutorial>,
>>    Pearl (4). Otras: Koller (21)
>>
>> *Unidad 6. Métodos de evaluación de teorías causale*
>>
>>    -
>>
>>    Evaluación de modelos como un juego de interacción acción-percepción
>>    con el ambiente. Métodos de Monte Carlo para evaluar modelos.
>>    -
>>
>>    Ejemplos de evaluación de modelos causales a través de datos
>>    obtenidos por interacción con una simulador causal subyacente oculto.
>>    -
>>
>>    Planificación del diseño experimental. La emergencia de la estrategia
>>    falsacionista como comportamiento óptimo.
>>    -
>>
>>    Bibliografía sugerida. Kass (paper), Pearl (7,9)
>>    <https://github.com/glandfried/biblio/releases/download/teca/pearl2009-cuasality.pdf>.
>>    Hernán (parte II)
>>
>> *Unidad 7. Inferencia causal en series temporales*
>>
>>    -
>>
>>    Modelos de historia completa. Problemas de usar el último posterior
>>    como prior del siguiente evento. Propagación de la información por toda la
>>    red histórica causal.
>>    -
>>
>>    Estimación de efecto causal por simulación de contrafactuales.
>>    Intervenciones en series temporales. Monte Carlo para series temporales.
>>    -
>>
>>    Evaluación de modelos causales alternativos. Apuestas óptimas en
>>    deportes: criterio Kelly, fractional Kelly y otros criterios.
>>    -
>>
>>    Bibliografía sugerida. Brodersen (paper)
>>    <https://github.com/glandfried/biblio/releases/download/teca/brodersen2015-causalTimeSeries.pdf>,
>>    Dangauthier (paper), Bishop (13.2.3-13.2.4, 13.3), Hernán (parte II).
>>
>> *Unidad 8. Isomorfismo probabilidad-evolución y hackatón “apuestas de
>> vida”*
>>
>>    -
>>
>>    Isomorfismo entre las ecuaciones fundamentales de la teoría de la
>>    probabilidad (teorema de Bayes) y la teoría de la evolución (replicator
>>    dynamic).
>>    -
>>
>>    Las emergencia de las variantes que reducen las fluctuaciones por
>>    diversificación individual, cooperación, especialización cooperativa y
>>    heterogeneidad.
>>    -
>>
>>    Presentación de una competencia de inferencia, intervención, apuestas
>>    e intercambios de recursos. Cierre y conclusiones.
>>    -
>>
>>    Bibliografía sugerida. Peters (paper). Czegel (paper)
>>    <https://github.com/glandfried/biblio/releases/download/teca/czegel2022-bayesDarwin.pdf>,
>>    Kelly (paper)
>>
>>
>> *BIBLIOGRAFÍA PRINCIPAL*
>> Bibliografía en links. Sci-hub y Libgen son otros lugares para encontrar
>> la bibliografía.
>>
>>    - Bishop. Pattern recognition and machine learning. Springer; 2006
>>    bishop2006-PRML
>>    <https://github.com/glandfried/biblio/releases/download/teca/bishop2006-PRML>
>>    - Levine S. Reinforcement learning and control as probabilistic
>>    inference: Tutorial and review. arXiv. 2018.  levine2018-tutorial
>>    <https://github.com/glandfried/biblio/releases/download/teca/levine2018-tutorial>
>>    - Parr T, Pezzulo G, Friston KJ. Active Inference. MIT Press; 2022
>>    parr2022-activeInference.pdf
>>    <https://github.com/glandfried/biblio/releases/download/teca/parr2022-activeInference.pdf>
>>    -
>>
>>    Pearl J. Causality. Cambridge university press; 2009.
>>    pearl2009-cuasality.pdf
>>    <https://github.com/glandfried/biblio/releases/download/teca/pearl2009-cuasality.pdf>
>>    - Peters O. The ergodicity problem in economics. Nature Physics.
>>    2019. peters2019-ergodicityEconomics.pdf
>>    <https://github.com/glandfried/biblio/releases/download/teca/peters2019-ergodicityEconomics.pdf>
>>    - Winn J. Causality with gates. In: Artificial Intelligence and
>>    Statistics. PMLR; 2012. winn2012
>>    <https://github.com/glandfried/biblio/releases/download/teca/winn2012>
>>
>> *BIBLIOGRAFÍA COMPLEMENTARIA*:
>>
>>    - Bishop. Model-based machine learning. Philosophical Transactions of
>>    the Royal Society A: Mathematical, Physical and Engineering Sciences. 2013
>>    bishop2013-mbmlpaper.pdf
>>    <https://github.com/glandfried/biblio/releases/download/teca/bishop2013-mbmlpaper.pdf>
>>    - Brodersen KH, Gallusser F, Koehler J, Remy N, Scott SL. Inferring
>>    causal impact using Bayesian structural time-series models. The Annals of
>>    Applied Statistics. 2015; brodersen2015-causalTimeSeries.pdf
>>    - Chopin N, Papaspiliopoulos O, et al. An introduction to sequential
>>    Monte Carlo. Vol. 4. Springer; 2020.
>>    - Cinelli C, Forney A, Pearl J. A crash course in good and bad
>>    controls. Sociological Methods & Research. 2022
>>    - Czégel D, Giaffar H, Tenenbaum JB, Szathmáry E. Bayes and Darwin:
>>    How replicator populations implement Bayesian computations. BioEssays.
>>    2022. czegel2022-bayesDarwin.pdf
>>    - Dangauthier P, Herbrich R, Minka T, Graepel T. Trueskill through
>>    time: Revisiting the history of chess. In: Advances in Neural Information
>>    Processing Systems; 2008
>>    - Gronau QF, Sarafoglou A, Matzke D, Ly A, Boehm U, Marsman M, et al.
>>    A tutorial on bridge sampling. Journal of mathematical psychology. 2017.
>>    - Hernán MA, Robins JM. Causal inference: What if. 2020.
>>    - Jaynes ET. Bayesian methods: General background; 1984. jaynes1984
>>    <https://github.com/glandfried/biblio/releases/download/teca/jaynes1984>
>>    - Kass RE, Raftery AE. Bayes factors. Journal of the American
>>    Statistical Association. 1995.
>>    - Kelly jr JL. A New Interpretation of Information Rate. Bell System
>>    Technical Journal. 1956 kelly1956-informationRate
>>    <https://github.com/glandfried/biblio/releases/download/teca/kelly1956-informationRate>
>>    - Klimovsky G. Las desventuras del conocimiento científico; 1994
>>    klimovsky1994
>>    <https://github.com/glandfried/biblio/releases/download/teca/klimovsky1994>
>>    - Koller D, Friedman N. Probabilistic graphical models: principles
>>    and techniques. MIT press; 2009.
>>    - MacKay DJ. Information theory, inference and learning algorithms.
>>    Cambridge university press; 2003. mackay2003
>>    <https://github.com/glandfried/biblio/releases/download/teca/mackay2003>
>>    - McElreath R. Statistical rethinking: A Bayesian course with
>>    examples in R and Stan. 2020
>>    - Neal. Introduction to causal inference. Course Lecture Notes
>>    (draft). 2020; neal
>>    <https://github.com/glandfried/biblio/releases/download/teca/neal>
>>    - Perrakis K, Ntzoufras I, Tsionas EG. On the use of marginal
>>    posteriors in marginal likelihood estimation via importance sampling.
>>    Computational Statistics & Data Analysis. 2014.
>>    - Popper K. La lógica de la investigación científica; 1967.
>>    - Samaja J. Epistemologı́a y metodología: elementos para una teoría
>>    de la investigación científica. EUDEBA; 1999.
>>    samaja1999-epistemologiaMetodologia
>>    <https://github.com/glandfried/biblio/releases/download/teca/samaja1999-epistemologiaMetodologia>
>>    - Schrodinger E. ¿Qué es la vida?. Espasa-Calpe. 1948.
>>    Schrodinger.pdf
>>    <https://github.com/glandfried/biblio/releases/download/teca/Schrodinger.pdf>
>>    - Sutton RS, Barto AG. Reinforcement Learning: An Introduction.
>>    Second edition. MIT Press; 2018.
>>    - Vousden W, Farr WM, Mandel I. Dynamic temperature selection for
>>    parallel tempering in Markov chain Monte Carlo simulations. Monthly Notices
>>    of the Royal Astronomical Society. 2018
>>
>> --
>> Has recibido este mensaje porque estás suscrito al grupo "todos" de
>> Grupos de Google.
>> Para cancelar la suscripción a este grupo y dejar de recibir sus
>> mensajes, envía un correo electrónico a todos+unsubscribe at dc.uba.ar.
>> Para ver esta conversación en el sitio web, visita
>> https://groups.google.com/a/dc.uba.ar/d/msgid/todos/CAHQ6O%2B7PqcppEvEX5Ltrf%3Di1jit7z84-rjKswXek3N03tjyOpg%40mail.gmail.com
>> <https://groups.google.com/a/dc.uba.ar/d/msgid/todos/CAHQ6O%2B7PqcppEvEX5Ltrf%3Di1jit7z84-rjKswXek3N03tjyOpg%40mail.gmail.com?utm_medium=email&utm_source=footer>
>> .
>>
>


Más información sobre la lista de distribución general_dat