Buscador UdeSA

Filtrar búsqueda por categorías

Simposio Científico de IA y Aplicaciones

Sábado 6 de septiembre de 9:30 a 16:30 | Campus Victoria

El Simposio Científico de Inteligencia Artificial y Aplicaciones (SCIAA) se organiza con la motivación de promover métodos contemporáneos de Inteligencia Artificial y Aprendizaje Automático con aplicaciones en Visión Computacional, Procesamiento de Lenguaje Natural, Ciencias Económicas, Neurociencias, Biología y Medicina Molecular, Robótica, y Ciencia de Datos entre otras áreas. Está orientado a un público de investigadores, profesionales, y estudiantes de grado y posgrado en el campo de la Ingeniería, Medicina, Ciencias Exactas y Naturales y Ciencias Económicas que trabajen, investiguen o tengan interés en profundizar metodologías de Inteligencia Artificial. 

El simposio busca fomentar la integración de la comunidad de Inteligencia Artificial y sus aplicaciones con el objetivo de facilitar la discusión y diseminación de nuevas metodologías y el desarrollo de nuevas tecnologías y aplicaciones. Además contará con una sesión de pósters científicos para que los jóvenes investigadores y grupos de investigación puedan compartir sus avances y resultados. Se entregarán certificados de asistencia y presentación de poster para los asistentes que lo requieran.

 

Becas de movilidad

Hay una cantidad limitada de becas de movilidad disponibles para aquellos que se encuentren fuera del área metropolitana de Buenos Aires (AMBA) y acrediten alguna necesidad. La asignación de becas quedará sujeta a la decisión del comité organizador.

Oradores

Jorge Sánchez

Más allá de la escala: Repensando los modelos de visión y lenguaje para una inteligencia fundamentada

Esta charla presentará una visión crítica de la evolución del campo, destacando los límites conceptuales y prácticos de los enfoques actuales. Se examinará, por qué la armonización entre modelos, si bien es necesaria, es insuficiente para una comprensión multimodal sólida.

Jorge Sanchez

Benjamín Herrmann

Modelamiento basado en datos para sistemas dinámicos: desafíos y oportunidades

Esta charla se enfocará en dos herramientas que permiten, 1 - descubrir leyes gobernantes a partir de datos y 2 - extraer patrones dominantes de señales espacio-temporales.

Benjamin Herrmann

Aiala Rosá

Modelos de Lenguaje basados en transformers: aspectos generales y entrenamiento de un modelo para la prensa uruguaya

En esta charla se introducirán los modelos de lenguaje basados en la arquitectura Transformers, y se presentarán las diferencias entre los modelos generativos (como GPT) y los modelos bidireccionales (como BERT).

Aiala Rosa

Victoria Peterson

Transferencia de aprendizaje en interfaces cerebro-computadora para rehabilitación basado en transporte óptimo

En esta charla, se presentará cómo se puede atacar la variabilidad de la señal de EEG a través de una formulación de adaptación de dominio basada en transporte óptimo. Se mostrará cómo es posible construir sistemas BCI de mínima calibración intra y entre-sujetos.

Victoria Peterson

Fecha límite para postulación y presentación de abstracts

Lunes 04 de agosto 23h59

Links útiles

Cronograma del evento

8:30 h

Acreditación y armado de pósters

9:30 h

Apertura

9:50 h

Charla

10:50 h

Charla

11:50 h

Poster Session

12:30 h

Almuerzo

13:40 h

Charla

14:40 h

Charla

15:40 h

Poster Session

16:10 h

Cierre

Inscribite

Comité Organizador

Mariano Beiró, Martín Palazzo y Patricio Clark Di Leoni.
Para más información escribinos a: sciaa@udesa.edu.ar

Ediciones Anteriores

4 de octubre 2023 | Campus Victoria, Universidad de San Andrés

El Simposio Científico de Inteligencia Artificial y Aplicaciones en su primera edición, reunió a destacados expertos en inteligencia artificial (IA) para explorar sus avances y aplicaciones en diversas disciplinas. Durante esta jornada, se presentaron conferencias sobre temas como el aprendizaje automático, la bioinformática, la neurociencia y el procesamiento del lenguaje natural, con un enfoque en su impacto en áreas sociales, médicas y científicas.

ORADORES

1) Walter Sosa Escudero

PhD in Economics (University of Illinois at Urbana-Champaign), Lic. en Economía (UBA), se especializa en econometría y estadística aplicada a cuestiones sociales.

Título: Machine Learning para estudios de pobreza y desarrollo
Esta charla discutió un "ecosistema" completo de la literatura sobre el uso de métodos de aprendizaje automático (ML) para estudios de pobreza, desigualdad y desarrollo (PID). Propuso una nueva taxonomía para clasificar las contribuciones de los métodos de ML y las nuevas fuentes de datos utilizadas en este campo. Las contribuciones se dividen en dos categorías principales.
La primera consiste en proporcionar mejores medidas y pronósticos de los indicadores de PID en términos de frecuencia, nivel de detalle y cobertura. La disponibilidad de medidas más detalladas ha sido la contribución más extensa del ML a los estudios de PID.
El segundo tipo de contribución involucra el uso de métodos de ML, así como nuevas fuentes de datos para la inferencia causal. Los métodos prometedores de ML para mejorar las técnicas existentes de inferencia causal han sido la principal contribución en el ámbito teórico, mientras que aprovechar la mayor disponibilidad de nuevas fuentes de datos para construir o mejorar la variable de resultado ha sido la principal contribución en el ámbito empírico.


2) Leandro Bugnon
Investigador en el sinc(i)-UNL-CONICET (Santa Fe), profesor en la Universidad Nacional del Litoral y en la Universidad Austral.

Título: Redes neuronales para datos secuenciales: predicción de estructuras en bioinformática.
Actualmente en bioinformática se requiere resolver tareas con datos secuenciales que presentan desafíos interesantes para los modelos basados en aprendizaje profundo.
Las capacidades de estos modelos para aprender a partir de pocos ejemplos etiquetados, generalizar correctamente y capturar relaciones entre elementos lejanos en una secuencia son aún problemas abiertos. Un tipo de secuencia de creciente interés son los ARNs no codificantes, que cumplen funciones regulatorias clave en varios procesos de interés en la industria y la salud.
Para poder entender sus mecanismos de acción es clave conocer su estructura, y dado que la determinación experimental es compleja, se espera que los métodos computacionales se vuelvan confiables para acelerar la investigación y desarrollo sobre estas secuencias. En esta charla se presentarán los desafíos computacionales que encontramos en esta aplicación y las arquitecturas y métodos  de entrenamiento que proponemos para resolverlos.


3) Laura Alonso Alemany
Doctora del programa de Ciencia Cognitiva y Lenguaje de la Universidad de Barcelona.

Título: Evaluar, optimizar y decidir ¿Podremos liberarnos de la sobresimplificación?


4) Diego Fernandez Slezak
Doctor en Ciencias de la Computación por la Universidad de Buenos Aires.

Título: En la Cancha se Ven los Pingos: Desafíos y Éxitos de una Red Neuronal Profunda en la Segmentación de Lesiones por Esclerosis Múltiple en Datos del Mundo Real

En esta charla voy a contar los avances que estamos haciendo en colaboración entre distintos grupos de investigación y Entelai para llevar adelante la implementación de modelos de Deep Learning para segmentación de cerebro y lesiones relacionadas a Esclerosis Múltiples. Comentaré acerca de los desafíos académicos y técnicos relacionados a la investigación así como los desafíos para su implementación en centros médicos para uso clínico.


5) José Ignacio Orlando
Doctor en Matemática Computacional e Industrial e Ingeniero de Sistemas por la Facultad de Ciencias Exactas de la UNICEN (Tandil, Argentina).

Título: One class to rule them all: Aplicaciones de clasificación a una clase en visión artificial y medicina
Los algoritmos de clasificación a una clase (one-class classification) fueron originalmente pensados para tareas no-supervisadas tales como la detección de muestras anómalas en conjuntos de datos no anotados y para el hallazgo de datos novedosos ante un flujo de nuevas entradas.
Sus versiones más primitivas, basadas en aprendizaje estadístico tradicional, han sido recientemente revisitadas y adaptadas para integrarse como parte de redes neuronales profundas, con el objeto de complementarlas en el aprendizaje de representaciones compactas. Durante esta charla se brindará un repaso general sobre este tipo de modelos, y se abordarán algunos experimentos realizados en nuestro laboratorio en aplicaciones en neuroimagen y oftalmología.

El evento fue una excelente oportunidad para profundizar en las aplicaciones de la inteligencia artificial en la investigación y la industria, y para conectar con líderes del campo.

Ver imágenes SCIAA 2023

2 de noviembre de 8:30 a 16:30 | Campus Victoria, Universidad de San Andrés

ORADORES

1) Luciana Ferrer

Luciana Ferrer es investigadora independiente en el Laboratorio de Inteligencia Artificial Aplicada (LIAA) del Instituto de Ciencias de la Computación, UBA-CONICET. Luciana completó su doctorado en Ingeniería Electrónica en Stanford University, California, USA, en 2009 y su grado de Ingeniería Electrónica en la Universidad de Buenos Aires en 2001. Su tema principal de investigación es el aprendizaje de máquinas aplicado a procesamiento de habla.

2) Liliana Forzani

Liliana María Forzani es una matemática y estadística, investigadora, profesora y divulgadora científica argentina. Investigadora principal del CONICET y Profesora titular en el Departamento de Matemática de la Facultad de Ingeniería Química de la UNL. También es la presidenta de la Unión Matemática de América Latina y el Caribe (UMALCA) desde 2021, convirtiéndose en la primera mujer en el cargo. Es reconocida por su trabajo de comunicación de la ciencia con iniciativas innovadoras, que promueven las matemáticas en niños y jóvenes además de la equidad de género.

3) Gabriel Mindlin

Gabriel Mindlin cursó la licenciatura en Física en la Universidad de La Plata, y su doctorado en Drexel University (Filadelfia, Estados Unidos). Fue investigador de la Universidad de California en San Diego (Estados Unidos) y profesor de la Universidad de Navarra (España). Se desempeña actualmente como Profesor Titular en el Departamento de Física de la Facultad de Ciencias Exactas de la Universidad de Buenos Aires, y es Investigador Superior del Consejo Nacional de Investigaciones Científicas y Tecnológicas (CONICET). Sus investigaciones se centran en los mecanismos físicos que subyacen a la producción de cantos de los pájaros cantores, produciendo modelos matemáticos e informáticos que reproducen de forma realista los cantos de varias especies.

4) Gerardo Simari

Gerardo Simari es profesor de la Universidad Nacional del Sur en Bahía Blanca (UNS) e investigador del CONICET en el Instituto de Ciencias e Ingeniería de la Computación (ICIC UNS-CONICET), donde dirige el Grupo de Investigación en Ingeniería Cognitiva y Bases de Datos. Obtuvo el título de Ph.D. en Ciencias de la Computación en University of Maryland College Park (EE.UU.) y realizó trabajo postdoctoral en University of Oxford (Reino Unido), donde también fue Junior Research Fellow de Somerville College. Actualmente, su trabajo se enfoca en las áreas de IA basada en conocimiento y abordajes híbridos incorporando Machine Learning (conocida como IA Neurosimbólica) para el desarrollo de sistemas socio-técnicos inteligentes.

5) Rodrigo Echeveste

Rodrigo Echeveste es Físico por el Instituto Balseiro, y Phd. en Ciencias Físicas por la Goethe University Frankfurt. Se desempeña como Investigador Adjunto en CONICET y Profesor Adjunto en la Universidad Nacional del Litoral (UNL). Sus temas de investigación abarcan las Neurociencias Computacionales, el Aprendizaje Automático y los Sistemas Complejos.

Charlas SCIAA

Gabriel Mindlin - La topología de los flujos reconstruida por codificadores automáticos

Abstract:

Hoy en día los jóvenes científicos deben enfrentarse a una decisión intelectual crucial a la hora de abordar un problema científico: la de hallar un balance entre los enfoques interpretables y aquellos basados en datos.

En esta charla discutiremos las diferencias y las profundas conexiones entre los sistemas dinámicos y las herramientas estrella de la IA, las redes neuronales, centrándonos en de qué manera los autocodificadores (autoencoders) y las redes recurrentes representan el flujo de un sistema dinámico no lineal de baja dimensión. 

Rodrigo Echeveste - Aprendizaje automático para el modelado del procesamiento visual en la corteza cerebral

Abstract:

En los últimos años, las herramientas de aprendizaje automático se han vuelto cada vez más eficaces como medio para modelar el procesamiento sensorial en la corteza. Una de las ideas centrales detrás de este enfoque es que al optimizar redes neuronales artificiales para tareas que son relevantes para el cerebro, es posible encontrar modelos que imitan diferentes aspectos del procesamiento cortical. Las redes neuronales convolucionales profundas (DNNs) se inspiraron originalmente en el procesamiento sensorial visual y son actualmente los mejores predictores de las respuestas neuronales medias en múltiples áreas del cerebro.
 

Sin embargo, estos modelos no están diseñados para representar fielmente la incertidumbre de sus predicciones, que es central en el contexto de la percepción, donde la información que recibimos de nuestros sentidos es siempre parcial e incompleta. Además, estos modelos carecen de dinámica y no capturan la rica variabilidad de las respuestas corticales. En esta charla, primero daré una breve descripción general del estado del arte en métodos basados ​​en DNNs como modelos de procesamiento visual cortical, para luego enfocarme en modelos propios, diseñados específicamente para representar fielmente la incertidumbre y variabilidad mediante la realización de inferencia bayesiana en dos enfoques diferentes.

En primer lugar, dentro del marco del muestreo, con redes que incorporan conexiones recurrentes para extraer muestras de distribuciones de probabilidad de interés. Curiosamente, estas redes muestran características muy generales de la dinámica cortical, como transitorios y oscilaciones. Finalmente, mostraré nuestro reciente trabajo dentro del marco de inferencia variacional, particularmente sobre cómo extender los autocodificadores variacionales clásicos (VAEs) para obtener modelos de percepción visual con estimaciones de incertidumbre bien comportadas.

Gerardo Simari - Ciberseguridad inteligente: IA Neurosimbólica al rescate

Abstract:

El manejo efectivo y eficiente de los datos y del conocimiento experto yace -- en mayor o menor medida -- en el corazón de toda aplicación exitosa de la Inteligencia Artificial en cualquiera de sus variantes en el espectro que va desde lo puramente perceptual (IA subsimbólica) hasta los abordajes que emplean maquinaria basada en lógica computacional (IA simbólica).

La IA híbrida o Neurosimbólica (NeSy, por su abreviatura en inglés) nació hace décadas como una forma prometedora de desarrollar herramientas inteligentes que puedan gozar de lo mejor de los dos mundos, y hoy en día está cobrando mayor relevancia de cara a las debilidades que exhibe el software en producción basado en métodos subsimbólicos. En esta charla, primero se brindará una breve introducción a la IA NeSy y la Ciberseguridad, disciplina que está actualmente sufriendo una revolución por la irrupción de la IA tanto del lado defensivo como el ofensivo. Luego, se presentarán algunas de las principales amenazas que se observan en el ecosistema socio-técnico moderno, y se presentarán resultados preliminares sobre el uso de IA NeSy para salir a su rescate.

Luciana Ferrer - Evaluación y calibración de clasificadores probabilísticos

Abstract:

Un clasificador probabilístico es aquel que produce a su salida la probabilidad a posteriori de cada clase dada la muestra entrada. Estas probabilidades pueden ser usadas para tomar decisiones categóricas para cualquier función de costo, usando la teoría de decisión de Bayes. Además, las probabilidades a posteriori pueden ser directamente interpretadas por los usuarios como la información que el sistema pudo extraer de la muestra de entrada.

La calidad de las probabilidades a posteriori está dada por la calidad de las decisiones que pueden ser tomadas con esas probabilidades. Esta es la idea detrás de las proper scoring rules (PSR), una familia de métricas que sirven para evaluar la calidad de clasificadores probabilísticos. En esta charla se describirán las PSRs y su relación con la teoría de decisión de Bayes. A continuación, se discutirán las razones principales por las cuales los clasificadores probabilísticos pueden producir probabilidades a posteriori muy pobres aún cuando la calidad de sus decisiones es muy buena. Finalmente, se describirá una solución sencilla a este problema que consiste en agregar al sistema una etapa de calibración dada por una simple transformación de las probabilidades a posteriori.

Liliana Forzani - Regresión por mínimos cuadrados parciales: un método preferido por los químicos pero inicialmente ignorado por los estadísticos

Abstract:

Explicaré cómo el desafío de tener más predictores p que muestras n llevó al desarrollo de los Mínimos Cuadrados Parciales (PLS), un método preferido por los químicos pero inicialmente ignorado por los estadísticos. A pesar de su popularidad en campos como la quimiometría, donde tanto p como n crecen, se demostró que PLS era inconsistente bajo los marcos estadísticos tradicionales. Sin embargo, trabajos posteriores han demostrado que, en el contexto específico de la quimiometría, el estimador PLS puede ser consistente, resolviendo así un enigma clave en su aplicación.

Ver imágenes SCIAA 2024

Este sitio utiliza Cookies