[general_dat] Novedades optativas M. Saenz y S. Saglietti.

Pablo Groisman pgroisma at dm.uba.ar
Tue Feb 27 09:33:33 -03 2024


Hola,

Les contamos algunas novedades de las materias que dictarán los profesores
visitantes M. Saenz y S. Saglietti este cuatrimestre.

1. Las materias todavía no figuran en el SIU, no se preocupen por eso. Por
el momento, con que se anoten en el formulario es suficiente (si todavía no
lo hicieron, pueden hacerlo acá <https://forms.gle/7aMCTLQfWA6cejtn9>).

2. La materia Algoritmos de aprendizaje en altas dimensiones, dictada por
M. Saenz tuvo unos cambios de horario (por el feriado y otras cuestiones).
Será los jueves y viernes de 14 a 17 y del 18/3 al 19/4. Si para alguien
que ya llenó el formulario estos cambios son una complicación, por favor
avise.

Saludos,
P.

*Info de las materias*

*Materia*: Algoritmos de aprendizaje en altas dimensiones.
*Profesor*: Manuel Saenz.
*Horario:* jueves y viernes de 14 a 17hs (del 18/3 al 19/4)
*Puntaje:* a determinar.
*Requisitos:* Probabilidad y Estadística / Probabilidad. Nociones de teoría
de la medida y teoría avanzada de probabilidades son bienvenidas pero no
necesarias.
*Contacto/Más info:* saenz.manuel at gmail.com

*Materia:* Procesos de ramificación.
*Profesor:* Santiago Saglietti.
*Horario*: jueves y viernes de 14 a 17hs (del 23/5 al 14 /6).
*Puntaje:* a determinar.
*Requisitos:* Probabilidad y Estadística / Probabilidad. Nociones de teoría
de la medida y teoría avanzada de probabilidades son bienvenidas pero no
necesarias.
*Contacto/Más info: *sasaglietti at mat.uc.cl

*Resumen PR:* Los procesos de ramificación son uno de los objetos de
estudio centrales de la probabilidad moderna, tanto por su interés
intrínseco como modelos para describir la evolución de poblaciones como así
también por su utilidad como herramienta para estudiar otros sistemas más
complejos. El objetivo del curso es introducir la familia más sencilla de
procesos de ramificación, los procesos de Galton-Watson, y demostrar los
resultados clásicos de la teoría para estos procesos utilizando técnicas
modernas (i.e. descomposiciones espinales). Si el tiempo lo permite,
veremos ejemplos de procesos ramificación más sofisticados, como los paseos
al azar ramificantes, y/o aplicaciones de la teoría al estudio de modelos
de grafos aleatorios.


*Resumen AEAD: *Desde una perspectiva matemática, el desafío de
caracterizar el desempeño de algoritmos de aprendizaje radica en la
dificultad de abordar la complejidad inherente de las funciones de pérdida
y las medidas de probabilidad en espacios de alta dimensionalidad
involucradas.

En muchos problemas de inferencia Bayesiana, por ejemplo, las correlaciones
entre las distintas coordenadas de muestras de la distribución a posteriori
se vuelven exponencialmente más complejas a medida que aumenta el número de
dimensiones; lo cual introduce un conjunto de fenomenologías íntimamente
relacionadas con la Mecánica Estadística de Sistemas Desordenados.

Por otro lado, los algoritmos de optimización en espacios de altas
dimensiones, que son fundamentales para métodos de Aprendizaje Automático,
enfrentan dificultades debido a la presencia de múltiples mínimos locales,
la complejidad de las funciones de pérdida y el incremento en el costo
computacional para explorar el espacio de búsqueda.

En este curso exploraremos técnicas analíticas para describir los límites
de altas dimensiones de varias familias de algoritmos de aprendizaje.
Tomaremos como principales ejemplos el Descenso por Gradiente Estocástico y
los Algoritmos de Paso de Mensajes. Muchas de las técnicas de prueba
discutidas estarán inspiradas en conceptos y herramientas provenientes de
la Mecánica Estadística, aunque no será necesar


Más información sobre la lista de distribución general_dat