[general_dat] Dos materias optativas dictadas por profesores visitantes.

Pablo Groisman pgroisma at dm.uba.ar
Tue Feb 6 16:51:29 -03 2024


Hola,

Durante el 1er cuatrimestre de 2024 los profesores visitantes Manuel Saenz
y Santiago Saglietti dictarán las siguientes materias cortas.

Interesados/as en recibir novedades de alguna o ambas materias, por favor
completar este formulario <https://forms.gle/7aMCTLQfWA6cejtn9>.

*Materia*: Algoritmos de aprendizaje en altas dimensiones.
*Profesor*: Manuel Saenz.
*Horario:* jueves y viernes de 14 a 16hs (del 18/3 al 12/4)
*Puntaje:* a determinar.
*Requisitos:* Probabilidad y Estadística / Probabilidad. Nociones de teoría
de la medida y teoría avanzada de probabilidades son bienvenidas pero no
necesarias.
*Contacto/Más info:* saenz.manuel at gmail.com

*Materia:* Procesos de ramificación.
*Profesor:* Santiago Saglietti.
*Horario*: jueves y viernes de 14 a 17hs (del 23/5 al 14 /6).
*Puntaje:* a determinar.
*Requisitos:* Probabilidad y Estadística / Probabilidad. Nociones de teoría
de la medida y teoría avanzada de probabilidades son bienvenidas pero no
necesarias.
*Contacto/Más info: *sasaglietti at mat.uc.cl

*Resumen PR:* Los procesos de ramificación son uno de los objetos de
estudio centrales de la probabilidad moderna, tanto por su interés
intrínseco como modelos para describir la evolución de poblaciones como así
también por su utilidad como herramienta para estudiar otros sistemas más
complejos. El objetivo del curso es introducir la familia más sencilla de
procesos de ramificación, los procesos de Galton-Watson, y demostrar los
resultados clásicos de la teoría para estos procesos utilizando técnicas
modernas (i.e. descomposiciones espinales). Si el tiempo lo permite,
veremos ejemplos de procesos ramificación más sofisticados, como los paseos
al azar ramificantes, y/o aplicaciones de la teoría al estudio de modelos
de grafos aleatorios.


*Resumen AEAD: *Desde una perspectiva matemática, el desafío de
caracterizar el desempeño de algoritmos de aprendizaje radica en la
dificultad de abordar la complejidad inherente de las funciones de pérdida
y las medidas de probabilidad en espacios de alta dimensionalidad
involucradas.

En muchos problemas de inferencia Bayesiana, por ejemplo, las correlaciones
entre las distintas coordenadas de muestras de la distribución a posteriori
se vuelven exponencialmente más complejas a medida que aumenta el número de
dimensiones; lo cual introduce un conjunto de fenomenologías íntimamente
relacionadas con la Mecánica Estadística de Sistemas Desordenados.

Por otro lado, los algoritmos de optimización en espacios de altas
dimensiones, que son fundamentales para métodos de Aprendizaje Automático,
enfrentan dificultades debido a la presencia de múltiples mínimos locales,
la complejidad de las funciones de pérdida y el incremento en el costo
computacional para explorar el espacio de búsqueda.

En este curso exploraremos técnicas analíticas para describir los límites
de altas dimensiones de varias familias de algoritmos de aprendizaje.
Tomaremos como principales ejemplos el Descenso por Gradiente Estocástico y
los Algoritmos de Paso de Mensajes. Muchas de las técnicas de prueba
discutidas estarán inspiradas en conceptos y herramientas provenientes de
la Mecánica Estadística, aunque no será necesario contar con conocimientos
previos en el tema.

Saludos!


Más información sobre la lista de distribución general_dat