[general_dat] Grupo de estudio de AI Safety - los viernes a las 14 hs
Sergio Abriola
sabriola at dc.uba.ar
Mon Sep 9 21:00:17 -03 2024
Una actualización para quienes no pudieron venir a la primera reunión: a
partir de esta semana el horario será de 15:00 a 17:00 hs (sigue siendo los
viernes).
Como recordatorio de la dinámica: traten de venir a la reunión habiendo
leído/visto los materiales que aparecen en la sección Resources de esta
página <https://course.aisafetyfundamentals.com/alignment?session=1>.
Saludos!
Sergio
El jue, 5 sept 2024 a la(s) 10:10 a.m., Sergio Abriola (sabriola at dc.uba.ar)
escribió:
> Estimados,
>
> Tengo el agrado de invitarlos a unirse al Grupo de estudio sobre
> fundamentos de la seguridad en AGI (Inteligencia Artificial General) que
> está siendo organizado por estudiantes de nuestra facultad. La primera
> reunión es este viernes a las 14:00 (ver abajo para más detalles). Este
> grupo de estudio será un espacio informal, pero estructurado, para que se
> puedan involucrar siguiendo un programa basado en el Alignment Course de AI
> Safety Fundamentals, discutiendo y profundizando en los distintos aspectos
> (teóricos, ingenieriles, sociales, etcétera) de la AGI.
> De qué tratarán las reuniones
>
> A medida que la inteligencia artificial continúa avanzando en capacidades,
> garantizar su desarrollo seguro se vuelve cada vez más importante. El campo
> de AI safety se centra, a grandes rasgos, en identificar y prevenir los
> riesgos asociados a sistemas de inteligencia artificial general, riesgos
> que abarcan consideraciones fundamentalmente distintas a las asociadas con
> otras tecnologías. AI safety abarca muchas subáreas, desde las puramente
> teóricas o ingenieriles hasta aspectos socio-técnicos y de gobernanza, así
> que este grupo de estudio es *ideal *para cualquier persona interesada en
> el futuro de la IA, sin importar su campo de estudio actual.
>
> Para quienes ya hicieron el curso de fundamentos de AGI safety el
> cuatrimestre pasado, la diferencia con estas reuniones es que son más
> autodirigidas, con un enfoque un poco distinto, y abarcando el estudio de
> distintos artículos específicos sobre varios temas que tocamos en el curso.
> Otra diferencia es que este ciclo de reuniones también va a incluir una
> parte más práctica al final. Para quienes no hicieron el curso pero
> tienen interés en estos temas, esta es una muy buena oportunidad para
> introducirse en el área de AI safety, y no se asume conocimiento previo.
> DetallesCarga horaria:
>
> 2 horas de reuniones semanales y aproximadamente 2 horas de material
> previo a cada clase, que incluye videos, textos y ejercicios. Pueden
> consultar el curriculum completo acá
> <https://course.aisafetyfundamentals.com/alignment>.
> Cuándo: Viernes, de 14:00 a 16:00 hs
>
> -
>
> Dónde: En 0+Inf, sala 1606 (con opción de asistencia remota).
> -
>
> Formato: Reuniones semanales de dos horas, donde se discutirán los
> temas clave del curso, incluyendo alineación, interpretabilidad y robustez
> técnica.
>
> Cómo unirse:
>
> -
>
> Para participar, por favor completen el siguiente formulario de
> inscripción <https://forms.gle/494zCVWr38hXiq3x8>.
> -
>
> También los invito al grupo de Telegram
> <https://t.me/+zfvMHU8TaAhjNjVh>, donde también pueden preguntar ante
> cualquier consulta que tengan.
>
> La primera reunión (con merienda incluida) es este viernes 6 de
> septiembre a las 14 hs.
>
>
> Me parece que esta es una gran iniciativa para quienes quieran aprender,
> debatir, y conectar con otras personas interesadas en el área, así que
> espero que, si están en esas condiciones, se sumen a las reuniones.
> Saludos!
> Sergio Abriola
>
Más información sobre la lista de distribución general_dat