[general_dat] Invitación a cursar la materia "Inferencia Bayesiana Causal" cuatrimestral
Gustavo Landfried
gustavolandfried at gmail.com
Thu Aug 1 18:04:29 -03 2024
Buenas. Aclaración. La materia "Inferencia Bayesiana Causal 1" no tiene
correlativas oficiales en ciencia de datos, es solo una sugerencia. Quienes
estén cursando este cuatrimestre "Introducción a la estadística y ciencia
de datos" tienen la formación matemática y de programación suficiente para
seguir el curso. Lo más importante es el pensamiento crítico: la curiosidad
para hacer la pregunta y profundizar la respuesta.
El lun, 29 jul 2024 a las 14:42, Gustavo Landfried (<
gustavolandfried at gmail.com>) escribió:
> Buenas,
>
> La materia "*Inferencia Bayesiana Causal*" (2024, segundo cuatrimestre)
> se imparte como materia optativa de forma paralela en las licenciatura de
> ciencia de datos, ciencias de la computación y posgrado de la Facultad de
> Ciencias Exactas y Naturales de la UBA.
>
> *ATENCIÓN.* La materia estuvo mal cargada en el sistema de inscripciones
> exactas-UBA. Hasta el día de hoy aparecía como bimestral. Ahora aparece
> correctamente como cuatrimestral. Además, la versión de la materia para
> posgrado aún no ha sido cargada en el sistema. Esto será corregido en
> breve, habrá tiempo para que se inscriban.
>
> *DETALLES*
>
> *Días y horarios (presencial):* Martes de 14:00 a 17:00
> *Duración*: 16 semanas (cuatrimestral).
> *Carga horaria total*: 3 horas semanales presenciales (más 3 horas de
> estudio autónomo).
> *Metodología*: Teórico práctica con laboratorios.
> *Evaluación*: Talleres y cuestionarios semanales obligatorios + 1 trabajo
> práctico grupal.
> *Correlativas*:
>
> -
>
> Posgrado FCEN-UBA: Sin correlativas.
> -
>
> Lic. Compu (93): Probabilidad y estadística. Algoritmos y estructuras
> de datos 3.
> -
>
> Lic. Compu (23): Estadística computacional. Complejidad computacional.
> -
>
> Lic. Datos: Introducción a la estadística y ciencia de datos.
>
> *Créditos*:
>
> -
>
> Posgrado FCEN-UBA: 2.5 puntos (a confirmar)
> -
>
> Lic. Compu (93): 3 puntos
> -
>
> Lic. Compu (23): 48 créditos
> -
>
> Lic. Datos: 48 créditos
>
> *Nombre oficial*:
>
> -
>
> Posgrado: Métodos en Inferencia Bayesiana Causal
> -
>
> Licenciatura: Inferencia Causal Bayesiana 2024
>
>
> *MARCO CONCEPTUAL*
>
> *Definición de Inferencia*. Las "verdades" son proposiciones válidas para
> todas las personas. Las ciencias con datos deben validar sus proposiciones
> (hipótesis) en sistemas naturales abiertos. ¿Tiene sentido hablar de
> "verdad" si justamente tenemos incertidumbre respecto de su verdadero
> estado? Al menos podemos evitar mentir: no afirmar más de lo que se sabe
> (maximizando incertidumbre) sin ocultar todo aquello que sí se sabe (dada
> la información disponible o restricciones).
>
> *Definición de Bayes*. Seleccionar una única hipótesis mediante algún
> criterio arbitrario genera siempre efectos secundarios indeseados, como
> ocurre con el overfitting. Por el contrario, cuando se evalúa todo el
> espacio de hipótesis mediante la (aproximación a la) aplicación estricta de
> las reglas de la probabilidad (preservando la creencia previa que sigue
> siendo compatible con los datos y prediciendo con la contribución de todas
> las hipótesis) se garantizan distribuciones de creencias óptimas (que
> maximizan incertidumbre dada la información disponible).
>
> *Definición de Causal*. El problema real de todo organismo vivo es
> orientar el ciclo de acción-percepción con la naturaleza en favor de su
> reproducción, supervivencia y bienestar. Los problemas del conocimiento
> científico obtienen su relevancia y jerarquía de los objetivos que persigue
> alcanzar. Para optimizar los resultados obtenidos es necesario proponer y
> evaluar los argumentos causales alternativos mediante los cuales predecimos
> el efecto de nuestras intervenciones
>
> *OBJETIVO*
>
> La materia está enfocada en la evaluación de argumentos causales
> alternativos mediante (aproximaciones a) el sistema de razonamiento de las
> ciencias con datos (o aplicación estricta de las reglas de la
> probabilidad). Para ello se revisarán los métodos desarrollados en las
> últimas décadas para:
>
> - Especificar matemáticamente los argumentos causales expresados en
> lenguaje natural mediante redes bayesianas y factor graphs.
> - Identificar los flujos de inferencia en cualquier estructura causal
> y de las condiciones necesarias para evaluar efectos causales en ausencia
> de intervenciones.
> - Diseñar experimentos que permitan evaluar modelos causales
> alternativos y aptitud para realizar la inferencia aproximando la
> aplicación estricta de las reglas de la probabilidad.
> - Comprensión de los ciclos de acción-percepción y habilidad para
> seleccionar los comportamientos óptimos en problemas de toma de decisiones
> temporales.
>
>
> *PROGRAMA*
>
> *Unidad 1. Introducción a la especificación y evaluación de argumentos
> causales*
>
> - Descripción y explicación. La estructura matemática del discurso
> descriptivo. Las generalizaciones empíricas y los enunciados teóricos.
> Aprendizaje basado en modelos. Distribuciones de creencias honestas.
> - Las reglas de razonamiento en contextos de incertidumbre: preservar
> la creencia previa que sigue siendo compatible con el dato y predecir con
> la contribución de todas las hipótesis. Métodos gráficos de especificación
> matemática de argumentos causales.
> - Evaluación de modelos causales alternativos: generación de datos
> sintéticos y aplicación estricta de las reglas de la probabilidad. Ejemplos
> de modelos identificables y no identificables a partir de observaciones sin
> intervenciones.
> - Bibliografía sugerida: Samaja (3.1-3.4), Klimovsky (4), Bishop
> [2013] (1-4).
>
> *Unidad 2. Emergencia del overfitting por selección y el balance natural
> por evaluación*
>
> -
>
> Distribuciones conjugadas. Ejemplos varios. Caso en profundidad:
> regresión polinomial basada en la aplicación estricta de las reglas de la
> probabilidad. El problema computacional de la aplicación estricta de las
> reglas de la probabilidad.
> -
>
> Aproximación de la inferencia mediante métodos de estimación puntual
> basados en funciones de costo ad-hoc: máxima verosimilitud, máximo a
> posteriori y validación cruzada. Efectos secundarios de la ruptura de las
> reglas de la probabilidad: el sobreajuste (overfitting).
> -
>
> La ausencia de efectos indeseados en el sistema de razonamiento
> probabilístico: el balance natural mediante la evaluación completa del
> espacio de hipótesis. Ensambles de modelos. Procesos gaussianos.
> -
>
> Bibliografía sugerida. Bishop [2006] (1.1-1.3) (2.1-2.3) (3.3-3.4)
> (6.4.1-6.4.2)
>
>
> *Unidad 3. Sorpresa: el problema de la comunicación con la realidad*
>
> -
>
> Los niveles de la base empírica. La estructura invariante del dato
> científico y el lugar que ocupan los supuestos. El isomorfismo con los
> sistemas de información emisor-receptor de la teoría de la información.
> -
>
> La naturaleza multiplicativa de la función de costo de la teoría de la
> probabilidad. Su rol en la construcción de sistemas de comunicación con la
> realidad. Analogías con las apuestas y la propiedad epistémica.
> -
>
> Evaluación de sistemas de comunicación alternativos en base a su tasa
> de sorpresa. Ejemplos. Interpretación de entropía y entropía cruzada.
> Definición de “no mentir” como máxima entropía dadas las restricciones.
> -
>
> Bibliografía sugerida: Klimovsky (2), Samaja (3.5, 3.6.2-5), MacKay
> (1.1, 2.4-6, 4.1). Kelly (paper).
>
>
> *Unidad 4. Especificación de teorías causales, flujo de inferencia.*
>
> -
>
> -
>
> Método gráficos de especificación matemática de modelos causales
> probabilísticos mediante factor graphs. Análisis del flujo de inferencia
> mediante la descomposición de las reglas de la probabilidad como mensajes
> entre los nodos del grafo, sum-product algorithm.
> -
>
> Las teorías causales como sistemas dinámicos de modelos causales que
> se prenden y apagan en función del contexto. Los conceptos de potential
> outcome y do-operator. Su especificación mediante gates.
> -
>
> La paradoja de Yule-Simpson. Flujo de inferencia (independencia
> condicional) en las estructuras elementales: pipe, fork, collider. El
> criterio d-separación. Los niveles de razonamiento causal: asociacional,
> intervencional, y contrafactual.
> -
>
> Bibliografía sugerida. Winn (paper), Bishop [2006] (8.2-8.2.2,
> 8.4-8.4.4, 8.4.7). Neal (2.1, 3, 4.1), Pearl (1).
>
>
> *Unidad 5. Estimación de efecto causal.*
>
> -
>
> El efecto de las intervenciones: truncated factorization y
> g-computation formula. Estimación de efectos causales en datos no
> experimentales mediante adjustment formula, inverse probability weighting,
> y propensity scores.
> -
>
> Métodos gráficos para predicción del contrafactual: twin networks.
> Métodos gráficos generales para identificar el tipo de ajuste requerido: el
> criterio backdoor. Estimaciones no paramétricas: criterio frontdoor y
> do-calculus. Variables instrumentales y otros criterios.
> -
>
> Ejemplo de estructuras causales y clasificación de variables como
> buenos, neutrales o malos para la identificación del efecto causal mediante
> backdoor criterion.
> -
>
> Bibliografía sugerida. Pearl (3,6-7), Hernán (parte I), Cinelli
> (paper), Neal (4, 6, 7.5-7.6).
>
>
> *Unidad 6. Ciclos de acción-percepción: el problema de la interacción con
> la realidad*
>
> -
>
> El ciclo acción-percepción entre agente y ambiente: percepción
> (reward-signal), inferencia (hipótesis/modelos), predicción (objetivo)
> acción (política/intervención). Diferencia entre señal y reward.
> -
>
> Especificación de objetivos como problemas de maximización de utilidad
> esperada de la intervenciones en el tiempo. La reformulación ergódica de la
> teoría de utilidad esperada. Especificación gráfica de rewards mediante
> diagramas de influencia: sequential backdoor criterion.
> -
>
> Control óptimo en Partial Observed Markov Decision Process (POMDP).
> Ejemplos varios. Evaluación de políticas de intervención.
> -
>
> Bibliografía sugerida: Levine (1-2), Pearl (4), Parr et al (1,2,3),
> Peters (paper), Koller (21).
>
>
> *Unidad 7. Métodos de evaluación de teorías causale*
>
> -
>
> La evaluación de modelos como un juego de interacción
> acción-percepción con la naturaleza. La naturaleza de la función costo para
> evaluación de modelos causales alternativos.
> -
>
> Métodos de Monte Carlo para evaluar modelos: Bridge Sampling,
> thermodynamical integration, importance sampling.
> -
>
> Ejemplos de evaluación de modelos causales a través de datos obtenidos
> por interacción con una simulador causal subyacente oculto. Evaluación de
> acciones (policies) alternativas. La emergencia de la estrategia
> falsacionista como comportamiento óptimo.
> -
>
> Bibliografía sugerida. Kass (paper), Pearl (7,9). Hernán (parte II)
> Otros: Vousden, Perrakis, Gronau.
>
>
> *Unidad 8. Inferencia causal en series temporales*
>
> -
>
> Modelos de historia completa. Los problemas de usar el último
> posterior como prior del siguiente evento (enfoque de filtering). Algoritmo
> loopy belief propagation para la propagación de la información por toda la
> red histórica causal (enfoque de smoothing).
> -
>
> State-space models. Evaluación del efecto causal en series temporales,
> contrafactuales. Intervenciones en series temporales. Métodos de monte
> carlo para series temporales: sequential importance resampling.
> -
>
> Estimación de efecto causal por simulación de contrafactuales en
> series temporales. Evaluación de modelos causales alternativos. Apuestas
> óptimas en deportes: criterio Kelly, fractional Kelly.
> -
>
> Bibliografía sugerida. Brodersen (paper), Dangauthier (paper), Bishop
> (13.2.3-13.2.4, 13.3), Hernán (parte II).
>
>
> *Unidad 9. Isomorfismo probabilidad-evolución y hackatón “apuestas de
> vida”*
>
> -
>
> -
>
> Isomorfismo entre las ecuaciones fundamentales de la teoría de la
> probabilidad (teorema de Bayes) y la teoría de la evolución (replicator
> dynamic). La naturaleza multiplicativa de la función de costo
> epistémica-evolutiva.
> -
>
> Las emergencia de las variantes que reducen las fluctuaciones por
> diversificación individual (propiedad epistémica), cooperación (propiedad
> evolutiva), especialización (propiedad de especiación), y heterogeneidad
> (propiedad ecológica).
> -
>
> Presentación de una competencia de inferencia, intervención, apuestas
> e intercambios de recursos.
> -
>
> Bibliografía sugerida. Peters (paper). Czegel (paper). Koller (23).
>
>
>
> *BIBLIOGRAFÍA PRINCIPAL*
>
> - Bishop. Pattern recognition and machine learning. Springer; 2006
> - Levine S. Reinforcement learning and control as probabilistic
> inference: Tutorial and review. arXiv. 2018.
> - Parr T, Pezzulo G, Friston KJ. Active Inference. MIT Press; 2022
> -
>
> Pearl J. Causality. Cambridge university press; 2009.
> - Peters O. The ergodicity problem in economics. Nature Physics. 2019.
> - Winn J. Causality with gates. In: Artificial Intelligence and
> Statistics. PMLR; 2012.
>
>
> *BIBLIOGRAFÍA COMPLEMENTARIA*:
>
> - Bishop. Model-based machine learning. Philosophical Transactions of
> the Royal Society A: Mathematical, Physical and Engineering Sciences. 2013
> - Bishop. Pattern recognition and machine learning. Springer; 2006
> - Brodersen KH, Gallusser F, Koehler J, Remy N, Scott SL. Inferring
> causal impact using Bayesian structural time-series models. The Annals of
> Applied Statistics. 2015;
> - Chopin N, Papaspiliopoulos O, et al. An introduction to sequential
> Monte Carlo. Vol. 4. Springer; 2020.
> - Cinelli C, Forney A, Pearl J. A crash course in good and bad
> controls. Sociological Methods & Research. 2022
> - Czégel D, Giaffar H, Tenenbaum JB, Szathmáry E. Bayes and Darwin:
> How replicator populations implement Bayesian computations. BioEssays. 2022.
> - Dangauthier P, Herbrich R, Minka T, Graepel T. Trueskill through
> time: Revisiting the history of chess. In: Advances in Neural Information
> Processing Systems; 2008
> - Gronau QF, Sarafoglou A, Matzke D, Ly A, Boehm U, Marsman M, et al.
> A tutorial on bridge sampling. Journal of mathematical psychology. 2017.
> - Hernán MA, Robins JM. Causal inference: What if. 2020.
> - Jaynes ET. Bayesian methods: General background; 1984.
> - Kass RE, Raftery AE. Bayes factors. Journal of the American
> Statistical Association. 1995.
> - Kelly jr JL. A New Interpretation of Information Rate. Bell System
> Technical Journal. 1956
> - Klimovsky G. Las desventuras del conocimiento científico; 1994
> - Koller D, Friedman N. Probabilistic graphical models: principles and
> techniques. MIT press; 2009.
> - MacKay DJ. Information theory, inference and learning algorithms.
> Cambridge university press; 2003.
> - Martin OA, Kumar R, Lao J. Bayesian Modeling and Computation in
> Python. CRC Press; 2022.
> - McElreath R. Statistical rethinking: A Bayesian course with examples
> in R and Stan. 2020
> - Neal. Introduction to causal inference. Course Lecture Notes
> (draft). 2020;
> - Perrakis K, Ntzoufras I, Tsionas EG. On the use of marginal
> posteriors in marginal likelihood estimation via importance sampling.
> Computational Statistics & Data Analysis. 2014.
> - Popper K. La lógica de la investigación científica; 1967.
> - Samaja J. Epistemologı́a y metodología: elementos para una teoría de
> la investigación científica. EUDEBA; 1999.
> - Sutton RS, Barto AG. Reinforcement Learning: An Introduction. Second
> edition. MIT Press; 2018.
> - Vousden W, Farr WM, Mandel I. Dynamic temperature selection for
> parallel tempering in Markov chain Monte Carlo simulations. Monthly Notices
> of the Royal Astronomical Society. 2018
>
>
> *ESCUELA BAYES PLURINACIONAL SALTA 2024 - KHIPUx*
>
> Con el objetivo de promover la Inteligencia Bayesiana en la América
> Plurinacional y los pueblos del sur global, la comunidad bayesiana de
> América Latina (bayesplurinacional.org) organiza, con el apoyo de la
> comunidad de Inteligencia Artificial de América Latina (khipu.ai), la
> Escuela Bayes Plurinacional 2024 que se realizará de forma presencial del 6
> al 9 de agosto en la Universidad Nacional de Salta (UNSa). La UNSa ofrece
> la residencia universitaria de forma gratuita para estudiantes que
> participen de la Escuela. Pueden pedir un lugar completando el formulario
> que se encuentra disponible en
> https://bayesplurinacional.org/es/ciudad.html (opciones 3 y 4). Por otra
> parte, la semana pasada se realizó un ciclo virtual de "creencias óptimas"
> que se encuentra disponible en
> https://bayesplurinacional.org/es/seminario.html y en el canal
> youtube.com/@bayesplurinacional/streams.
>
Más información sobre la lista de distribución general_dat