BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Etis - ECPv6.15.20//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-ORIGINAL-URL:https://www.etis-lab.fr
X-WR-CALDESC:Events for Etis
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:Europe/Paris
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20240331T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20241027T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20250330T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20251026T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20260329T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20261025T010000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20251215T140000
DTEND;TZID=Europe/Paris:20251215T170000
DTSTAMP:20260421T140448
CREATED:20251211T135840Z
LAST-MODIFIED:20251211T135840Z
UID:9649-1765807200-1765818000@www.etis-lab.fr
SUMMARY:Soutenance de thèse - Antoine Montmaur
DESCRIPTION:Antoine Montmaur soutiendra sa thèse “De l’impact des dynamiques internes des caractéristiques sur les réseaux de neurones de représentation pour l’apprentissage incrémental” le 15 décembre 2025 à l’ENSEA (Curium). \nRésumé :\nL’intelligence humaine\, avec sa capacité d’apprentissage continu et adaptatif et son ntégration dynamique des connaissances tout au long de la vie\, sert de référence essentielle pour les systèmes d’intelligence artificielle (IA) avancés. En revanche\, les réseaux neuronaux profonds (DNN) n’atteignent des performances de pointe que dans des conditions statiques et restrictives. L’entraînement conventionnel suppose que toutes les données sont disponibles simultanément et nécessite un réentraînement complet pour toute nouvelle information\, une limitation inhérente qui entrave sérieusement leur déploiement dans des environnements réels et non stationnaires. \nPour y remédier\, l’Apprentissage Continu (CL) fournit le cadre nécessaire à la création d’une IA adaptative en présentant séquentiellement les données et les tâches au modèle. Cependant\, cette approche incrémentale rend les DNN très sensibles à l’Oubli Catastrophique (OC) — la perte rapide et sévère des connaissances acquises antérieurement. L’objectif central du CL est donc de résoudre le dilemme stabilité–plasticité : maintenir l’intégrité des connaissances antérieures (stabilité) tout en intégrant efficacement les nouvelles informations (plasticité). Ce défi est le plus marqué dans l’apprentissage incrémental par classes\, où un unique classifieur doit reconnaître de manière robuste toutes les classes rencontrées au fil du temps\, nécessitant une adaptation continue et fiable à chaque étape. \nLe présent projet s’inscrit dans ce cadre ambitieux\, visant à rapprocher les capacités d’adaptation et de continuité de l’apprentissage humain de celles des systèmes artificiels\, en intégrant des mécanismes efficaces de mitigation de l’oubli catastrophique dans un contexte d’apprentissage incrémental en classe. Dans cette thèse\, nous avons mené une exploration approfondie de plusieurs stratégies d’apprentissage continu mentionnées précédemment\, avec pour objectif d’améliorer leur robustesse et leur adaptabilité dans un contexte incrémental en classe. Tout au long de cette investigation\, nous avons constaté qu’une compréhension des mécanismes internes de l’entraînement des réseaux est cruciale. Plus spécifiquement\, notre travail se concentre sur l’exploitation de cette compréhension approfondie de la construction des représentations afin de concevoir explicitement une contrainte qui impose une construction des caractéristiques qui soit continuellement compatible (ou constamment compatible). \nNous avons tout d’abord étudié les approches basées sur la répétition (replay)\, en exploitant les capacités hiérarchiques de représentation de l’apprentissage hyperbolique afin d’améliorer la structure et le pouvoir discriminant des caractéristiques présentes dans une mémoire semi-distribuée. Cette démarche nous a permis de mieux préserver les connaissances acquises tout en intégrant de nouvelles classes. Toutefois\, notre analyse de l’espace de représentation obtenu a révélé un certain enchevêtrement des classes\, limitant la stabilité à long terme. Pour remédier à ce problème\, nous avons développé une approche combinant optimisation et conception architecturale\, fondée sur une structure géométrique simplex avec prototypes de classes fixes\, garantissant des frontières de décision plus stables au fil des étapes d’apprentissage incrémental. Bien que cette méthode ait significativement réduit l’oubli\, une analyse plus poussée a mis en évidence des limites d’adaptabilité face à des variations inter-classes subtiles. En conséquence\, nous avons conçu un cadre de régularisation guidant l’apprentissage par des explications de la pertinence des caractéristiques\, incitant le modèle à maintenir des représentations interprétables et sémantiquement cohérentes dans le temps. Ensemble\, ces contributions constituent une progression cohérente — de l’amélioration de la mémoire replay\, à la mise en place de structures géométriques stables\, jusqu’à l’introduction d’une régularisation basée sur l’explication — chaque étape étant motivée par les forces et faiblesses identifiées à la précédente. \nAbstract:\nHuman intelligence\, with its capacity for continuous\, adaptive learning and dynamic knowledge integration across a lifetime\, serves as an essential reference for advanced artificial intelligence (AI) systems. In sharp contrast\, Deep Neural Networks (DNNs) achieve state-of-the-art performance only under restrictive\, static conditions. Conventional training assumes all data are available simultaneously and necessitates complete retraining for new information\, an inherent limitation that severely hinders their deployment in real-world\, non-stationary environments. \nTo address this\, Continual Learning (CL) provides the framework for creating continuously adaptive AI by presenting data and tasks sequentially to the model. However\, this incremental approach renders DNNs highly susceptible to Catastrophic Forgetting (CF)—the rapid and severe loss of previously acquired knowledge. The central objective in CL is thus to solve the stability–plasticity dilemma: maintaining the integrity of prior knowledge (stability) while effectively integrating new information (plasticity). This challenge is most pronounced in class-incremental learning\, where a single classifier must robustly recognize all encountered classes over time\, necessitating continuous and reliable adaptation at every step. \nThis thesis is situated within this challenging setting\, aiming to bridge the gap between human adaptive and continuous learning abilities and artificial systems\, by integrating effective forgetting detection mechanisms and strategies to mitigate catastrophic forgetting in a class-incremental learning context. In this thesis\, we conducted a thorough exploration of several continual learning strategies outlined above\, with the objective of improving their robustness and adaptability in the class-incremental setting. Throughout this investigation\, we have found that understanding the internal mechanics of network training is crucial. Specifically\, our work focuses on leveraging this deep understanding of representation construction to explicitly devise a constraint that enforces a continually compatible construction of features. \nWe first investigated replay-based approaches\, leveraging the hierarchical representational capabilities of hyperbolic learning to enhance the structure and discriminative power of semi-distributed memory features. This allowed us to better preserve previously acquired knowledge while integrating new classes. However\, our analysis of the resulting feature space revealed a degree of class entanglement that limited long-term stability. To address this issue\, we developed an optimization- and architecture-driven approach grounded in a simplex geometric structure with fixed class prototypes\, ensuring more stable decision boundaries across incremental learning stages. While this method significantly reduced forgetting\, further analysis highlighted limitations in adaptability when confronted with subtle inter-class variations. Consequently\, we designed a regularization framework that guides learning through explanations of feature relevance\, encouraging the model to maintain interpretable and semantically consistent representations over time. Together\, these contributions form a coherent progression—from enhancing replay memory\, to enforcing stable geometric structures\, to introducing explanation-based regularization—each step informed by the strengths and weaknesses identified in the preceding stage. \nComposition du jury\n\nProf. Stefan Duffner\, Université de Lyon\, Rapporteur\nProf. Hedi Tabia\, Université Paris Saclay\, Rapporteur\nProf. Ingemar Cox\, University College London Examinateur\nProf. Christel Vrain\, University of Orléans Examinatrice\nMCF Eva Feillet\, Université Paris Saclay\, Examinatrice\nMCF Ngoc-Son Vu\, Cergy-Paris Université\, Directeur de Thèse\n\nDate et lieu\n15 décembre 2025\, à 1400. \nENSEA\, Curium. \n\n\n\n\n\n\n\nLa soutenance se déroulera en anglais.\nPour les personnes souhaitant y assister à distance\, un lien sera transmis.\nLa soutenance sera suivie d’un pot\, qui se tiendra au 3ème étage du bâtiment D à l’ENSEA.
URL:https://www.etis-lab.fr/event/soutenance-de-these-antoine-montmaur/
LOCATION:ENSEA\, Curium\, avenue du Ponceau\, Cergy\, 95014\, France
CATEGORIES:PhD Defense
END:VEVENT
END:VCALENDAR