2 de noviembre de 8:30 a 16:30 | Campus Victoria, Universidad de San Andrés
ORADORES
1) Luciana Ferrer
Luciana Ferrer es investigadora independiente en el Laboratorio de Inteligencia Artificial Aplicada (LIAA) del Instituto de Ciencias de la Computación, UBA-CONICET. Luciana completó su doctorado en Ingeniería Electrónica en Stanford University, California, USA, en 2009 y su grado de Ingeniería Electrónica en la Universidad de Buenos Aires en 2001. Su tema principal de investigación es el aprendizaje de máquinas aplicado a procesamiento de habla.
2) Liliana Forzani
Liliana María Forzani es una matemática y estadística, investigadora, profesora y divulgadora científica argentina. Investigadora principal del CONICET y Profesora titular en el Departamento de Matemática de la Facultad de Ingeniería Química de la UNL. También es la presidenta de la Unión Matemática de América Latina y el Caribe (UMALCA) desde 2021, convirtiéndose en la primera mujer en el cargo. Es reconocida por su trabajo de comunicación de la ciencia con iniciativas innovadoras, que promueven las matemáticas en niños y jóvenes además de la equidad de género.
3) Gabriel Mindlin
Gabriel Mindlin cursó la licenciatura en Física en la Universidad de La Plata, y su doctorado en Drexel University (Filadelfia, Estados Unidos). Fue investigador de la Universidad de California en San Diego (Estados Unidos) y profesor de la Universidad de Navarra (España). Se desempeña actualmente como Profesor Titular en el Departamento de Física de la Facultad de Ciencias Exactas de la Universidad de Buenos Aires, y es Investigador Superior del Consejo Nacional de Investigaciones Científicas y Tecnológicas (CONICET). Sus investigaciones se centran en los mecanismos físicos que subyacen a la producción de cantos de los pájaros cantores, produciendo modelos matemáticos e informáticos que reproducen de forma realista los cantos de varias especies.
4) Gerardo Simari
Gerardo Simari es profesor de la Universidad Nacional del Sur en Bahía Blanca (UNS) e investigador del CONICET en el Instituto de Ciencias e Ingeniería de la Computación (ICIC UNS-CONICET), donde dirige el Grupo de Investigación en Ingeniería Cognitiva y Bases de Datos. Obtuvo el título de Ph.D. en Ciencias de la Computación en University of Maryland College Park (EE.UU.) y realizó trabajo postdoctoral en University of Oxford (Reino Unido), donde también fue Junior Research Fellow de Somerville College. Actualmente, su trabajo se enfoca en las áreas de IA basada en conocimiento y abordajes híbridos incorporando Machine Learning (conocida como IA Neurosimbólica) para el desarrollo de sistemas socio-técnicos inteligentes.
5) Rodrigo Echeveste
Rodrigo Echeveste es Físico por el Instituto Balseiro, y Phd. en Ciencias Físicas por la Goethe University Frankfurt. Se desempeña como Investigador Adjunto en CONICET y Profesor Adjunto en la Universidad Nacional del Litoral (UNL). Sus temas de investigación abarcan las Neurociencias Computacionales, el Aprendizaje Automático y los Sistemas Complejos.
Charlas SCIAA
Gabriel Mindlin - La topología de los flujos reconstruida por codificadores automáticos
Abstract:
Hoy en día los jóvenes científicos deben enfrentarse a una decisión intelectual crucial a la hora de abordar un problema científico: la de hallar un balance entre los enfoques interpretables y aquellos basados en datos.
En esta charla discutiremos las diferencias y las profundas conexiones entre los sistemas dinámicos y las herramientas estrella de la IA, las redes neuronales, centrándonos en de qué manera los autocodificadores (autoencoders) y las redes recurrentes representan el flujo de un sistema dinámico no lineal de baja dimensión.
Rodrigo Echeveste - Aprendizaje automático para el modelado del procesamiento visual en la corteza cerebral
Abstract:
En los últimos años, las herramientas de aprendizaje automático se han vuelto cada vez más eficaces como medio para modelar el procesamiento sensorial en la corteza. Una de las ideas centrales detrás de este enfoque es que al optimizar redes neuronales artificiales para tareas que son relevantes para el cerebro, es posible encontrar modelos que imitan diferentes aspectos del procesamiento cortical. Las redes neuronales convolucionales profundas (DNNs) se inspiraron originalmente en el procesamiento sensorial visual y son actualmente los mejores predictores de las respuestas neuronales medias en múltiples áreas del cerebro.
Sin embargo, estos modelos no están diseñados para representar fielmente la incertidumbre de sus predicciones, que es central en el contexto de la percepción, donde la información que recibimos de nuestros sentidos es siempre parcial e incompleta. Además, estos modelos carecen de dinámica y no capturan la rica variabilidad de las respuestas corticales. En esta charla, primero daré una breve descripción general del estado del arte en métodos basados en DNNs como modelos de procesamiento visual cortical, para luego enfocarme en modelos propios, diseñados específicamente para representar fielmente la incertidumbre y variabilidad mediante la realización de inferencia bayesiana en dos enfoques diferentes.
En primer lugar, dentro del marco del muestreo, con redes que incorporan conexiones recurrentes para extraer muestras de distribuciones de probabilidad de interés. Curiosamente, estas redes muestran características muy generales de la dinámica cortical, como transitorios y oscilaciones. Finalmente, mostraré nuestro reciente trabajo dentro del marco de inferencia variacional, particularmente sobre cómo extender los autocodificadores variacionales clásicos (VAEs) para obtener modelos de percepción visual con estimaciones de incertidumbre bien comportadas.
Gerardo Simari - Ciberseguridad inteligente: IA Neurosimbólica al rescate
Abstract:
El manejo efectivo y eficiente de los datos y del conocimiento experto yace -- en mayor o menor medida -- en el corazón de toda aplicación exitosa de la Inteligencia Artificial en cualquiera de sus variantes en el espectro que va desde lo puramente perceptual (IA subsimbólica) hasta los abordajes que emplean maquinaria basada en lógica computacional (IA simbólica).
La IA híbrida o Neurosimbólica (NeSy, por su abreviatura en inglés) nació hace décadas como una forma prometedora de desarrollar herramientas inteligentes que puedan gozar de lo mejor de los dos mundos, y hoy en día está cobrando mayor relevancia de cara a las debilidades que exhibe el software en producción basado en métodos subsimbólicos. En esta charla, primero se brindará una breve introducción a la IA NeSy y la Ciberseguridad, disciplina que está actualmente sufriendo una revolución por la irrupción de la IA tanto del lado defensivo como el ofensivo. Luego, se presentarán algunas de las principales amenazas que se observan en el ecosistema socio-técnico moderno, y se presentarán resultados preliminares sobre el uso de IA NeSy para salir a su rescate.
Luciana Ferrer - Evaluación y calibración de clasificadores probabilísticos
Abstract:
Un clasificador probabilístico es aquel que produce a su salida la probabilidad a posteriori de cada clase dada la muestra entrada. Estas probabilidades pueden ser usadas para tomar decisiones categóricas para cualquier función de costo, usando la teoría de decisión de Bayes. Además, las probabilidades a posteriori pueden ser directamente interpretadas por los usuarios como la información que el sistema pudo extraer de la muestra de entrada.
La calidad de las probabilidades a posteriori está dada por la calidad de las decisiones que pueden ser tomadas con esas probabilidades. Esta es la idea detrás de las proper scoring rules (PSR), una familia de métricas que sirven para evaluar la calidad de clasificadores probabilísticos. En esta charla se describirán las PSRs y su relación con la teoría de decisión de Bayes. A continuación, se discutirán las razones principales por las cuales los clasificadores probabilísticos pueden producir probabilidades a posteriori muy pobres aún cuando la calidad de sus decisiones es muy buena. Finalmente, se describirá una solución sencilla a este problema que consiste en agregar al sistema una etapa de calibración dada por una simple transformación de las probabilidades a posteriori.
Liliana Forzani - Regresión por mínimos cuadrados parciales: un método preferido por los químicos pero inicialmente ignorado por los estadísticos
Abstract:
Explicaré cómo el desafío de tener más predictores p que muestras n llevó al desarrollo de los Mínimos Cuadrados Parciales (PLS), un método preferido por los químicos pero inicialmente ignorado por los estadísticos. A pesar de su popularidad en campos como la quimiometría, donde tanto p como n crecen, se demostró que PLS era inconsistente bajo los marcos estadísticos tradicionales. Sin embargo, trabajos posteriores han demostrado que, en el contexto específico de la quimiometría, el estimador PLS puede ser consistente, resolviendo así un enigma clave en su aplicación.