BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Etis - ECPv6.15.20//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALNAME:Etis
X-ORIGINAL-URL:https://www.etis-lab.fr
X-WR-CALDESC:Events for Etis
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:Europe/Paris
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20250330T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20251026T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20260329T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20261025T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20270328T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20271031T010000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20260402T100000
DTEND;TZID=Europe/Paris:20260402T113000
DTSTAMP:20260417T120541
CREATED:20260326T072532Z
LAST-MODIFIED:20260326T072532Z
UID:9968-1775124000-1775129400@www.etis-lab.fr
SUMMARY:Séminaire ETIS-CELL - Khemmar Redouane
DESCRIPTION:Orateur : Khemmar Redouane (ESIGELEC) \nTitre : Contribution à la perception pour la smart mobilité\nRésumé :\nLes véhicules autonomes sont de plus en plus présents dans notre quotidien\, ouvrant de nouvelles perspectives pour la smart mobilité. Un véhicule autonome doit comprendre 3 fonctions essentielles : perception\, décision et actions. Plus le système est capable de percevoir son environnement\, plus il prendra de meilleures décisions lui permettant\, in fine\, de déclencher des actions répondant aux exigences de sécurité\, confort et d’énergie. La détection\, localisation et tracking d’objets sont des tâches indispensables pour la perception. Depuis 2012\, le deep learning est devenu un outil très puissant en raison de sa capacité à traiter de grandes quantités de données. L’apparition de nombreuses méthodes basées sur l’apprentissage profond a conduit à des progrès significatifs. Malgré cet engouement à l’IA\, peu de méthodes se concentrent sur l’aspect temps-réel\, essentiel pour les applications réelles et ce\, en raison des coûts de calcul élevés. En plus\, ces algorithmes présentent des lacunes évidentes dans les scènes complexes en partie à cause du manque de données vérité terrain comme pour la smart mobilité ferroviaire et la santé. En plus de la précision et la vitesse\, les algorithmes de perception doivent prendre en compte la contrainte d’énergie liée aux systèmes embarqués. Mes travaux de recherche sont concernés par cette problématique et se concentrent donc sur la perception d’environnement pour deux domaines de la smart mobilité : routier/ferroviaire et robotique mobile/santé. L’objectif est d’atteindre un niveau d’analyse et de compréhension de scènes complexes permettant d’assurer une smart mobilité de très haut niveau de sécurité\, de confort et d’énergie optimale. Cela repose sur deux briques essentielles et complémentaires : 1. Système fusion multicapteurs permettant d’enrichir davantage la perception avec des données hétérogènes\, 2. Perception d’environnement basée IA permettant l’exploitation des données collectées pour une meilleure prédiction de l’ensemble des situations. Il s’agit donc du développement de plateformes génériques ouvertes pour expérimenter et valider des concepts technologiques et scientifiques du monde académique et industriel. \nShort bio: Après une formation d’ingénieur en électronique\, un DEA en informatique industrielle et d’un Master européen en traitement d’images à l’Université de Poitiers (2002)\, j’ai préparé au sein de l’Université de Strasbourg un doctorat en traitement d’images et vision par ordinateur (2005). J’ai obtenu par la suite une Habilitation à Diriger des Recherches (HDR) en vision par ordinateur\, intelligence artificielle et smart mobilité à l’Université Rouen Normandie (2022). J’ai été moniteur au Centre d’Initiation à l’Enseignement Supérieur (CIES Alsace) pour une formation d’enseignant chercheur (2002-2005). J’ai occupé le poste d’Attaché Temporaire d’Enseignement et de Recherche (ATER) pendant 2 ans à l’Université de Strasbourg (2005-2007) et un PostDoc en gestion électronique des documents (GED) et dématérialisation au sein du groupe Jouve (2007-2008). Par la suite\, j’ai occupé plusieurs postes en industrie en tant que chef de projet au sein des grands comptes industriels (JOUVE\, THALES\, ALTEN). Depuis 2009\, je suis enseignant chercheur à l’ESIGELEC en systèmes embarqués\, robotique mobile et smart mobilité. Mes travaux de recherche portent principalement sur la vision par ordinateur\, robotique mobile\, intelligence artificielle et smart mobilité. \nTeams link: https://teams.microsoft.com/meet/382497063309?p=QKk3yAxhEeTcXWt1Ch\nMeeting ID: 382 497 063 309\nPasscode: vH39fR9F
URL:https://www.etis-lab.fr/event/seminaire-etis-cell-khemmar-redouane/
LOCATION:Online
CATEGORIES:ETIS,Seminar
ATTACH;FMTTYPE=image/png:https://www.etis-lab.fr/wp-content/uploads/2026/03/Redouane_Khemmar.png
ORGANIZER;CN="St%C3%A9phane Zuckerman":MAILTO:stephane.zuckerman@etis-lab.fr
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20260402T160000
DTEND;TZID=Europe/Paris:20260402T173000
DTSTAMP:20260417T120541
CREATED:20260326T072830Z
LAST-MODIFIED:20260326T072855Z
UID:9971-1775145600-1775151000@www.etis-lab.fr
SUMMARY:Séminaire ETIS-CELL - Sylvain Colomer
DESCRIPTION:Orateur : Sylvain Colomer \nTitle: Visual perception across scales: from bio-inspired navigation to large-scale scene understanding\nAbstract:\nVisual perception\, or computer vision\, is a central component of intelligent and robotic systems. It plays a key role in a wide range of applications\, from robotic navigation to remote sensing\, scene understanding\, medical imaging\, or large-scale visual data analysis. Although visual data is very rich in information\, it is also highly complex\, as it is subject to many challenges such as illumination variations\, weather conditions\, viewpoint and scale changes\, as well as domain shifts or noise. Learning efficient and meaningful representations from such data is therefore a major challenge for intelligent systems\, especially under constraints related to performance\, computational cost\, and energy efficiency. In this context\, my research focuses on understanding how visual representations can be learned and exploited across different scales and application domains. In particular\, I investigate how perception models can be designed to remain robust and adaptable when moving from local\, embodied settings to large-scale visual understanding tasks. During my PhD\, I developed bio-inspired approaches for visual navigation and localization\, leveraging principles from neuroscience to design robust and adaptive models for decision-making in autonomous systems. These models aim to bridge perception and action through structured visual representations\, with a particular emphasis on efficiency through the use of simple\, optimized monocular vision systems and lightweight computational models. In addition\, part of this work focused on deploying these models on FPGA platforms\, with the goal of designing efficient hardware implementations and exploring circuit architectures adapted to bio-inspired and neural computation. More recently\, my work has explored large-scale scene understanding in the context of remote sensing\, using deep learning techniques for tasks such as instance segmentation and analysis of hyperspectral aerial imagery\, in particular for large-scale forest monitoring in Canada. This setting introduces new challenges related to scale\, variability\, and data complexity\, and raises questions about the deployment of such systems directly on drones to enable efficient and adaptive forest monitoring. In this talk\, I will highlight the connections between these research directions and show how they contribute to the design of more general\, robust\, and efficient visual perception systems. I will finally discuss perspectives towards adaptive\, energy-efficient\, and deployable AI models\, capable of bridging embodied perception and large-scale visual understanding in real-world applications. \nBio: Sylvain Colomer is a researcher in computer vision and robotic navigation. His work focuses on designing robust and efficient visual models for real-world applications\, from autonomous navigation to large-scale remote sensing. He obtained his PhD from CY Cergy Paris University\, where he developed bio-inspired approaches for visual navigation on embedded systems. He then worked as a postdoctoral researcher at the University of Toronto on deep learning methods for hyperspectral image analysis and forest monitoring. His research aims to bridge embodied perception and large-scale visual understanding. His current research focuses on designing robust and efficient visual perception models that can operate in real-world conditions\, from resource-constrained embedded systems to large-scale data analysis\, with an emphasis on multimodality\, generalization\, and deployment. \nTeams link: https://teams.microsoft.com/meet/37168326511389?p=dQSREX67PUox8rsHTo\nMeeting ID: 371 683 265 113 89\nPasscode: Ry6ZC3bU
URL:https://www.etis-lab.fr/event/seminaire-etis-cell-sylvain-colomer/
LOCATION:Online
CATEGORIES:ETIS,Seminar
ORGANIZER;CN="St%C3%A9phane Zuckerman":MAILTO:stephane.zuckerman@etis-lab.fr
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20260402T160000
DTEND;TZID=Europe/Paris:20260402T173000
DTSTAMP:20260417T120541
CREATED:20260401T052928Z
LAST-MODIFIED:20260401T052928Z
UID:10037-1775145600-1775151000@www.etis-lab.fr
SUMMARY:Séminaire ETIS-CELL - Julien Le Kernec
DESCRIPTION:Orateur : Julien Le Kernec\, Senior Lecturer\, HDR\, University of Glasgow. \nTitle: Radar sensing in assisted living: an overview\nAbstract: In this keynote\, I will discuss the place of radar for assisted living. First\, the context of assisted living and the urgency to address the problem will be described. The second part will give an overview of existing sensing modalities for assisted living and explain why radar is an upcoming preferred modality to address this issue. The third section presents developments in machine learning that help improve performances in classification\, especially with deep learning with a reflection on lessons learned from it. Finally\, I’ll conclude with open challenges and future developments. \nBio: Dr Julien Le Kernec is currently a Senior Lecturer with the School of Engineering in the Autonomous Systems & Connectivity Group\, University of Glasgow\, he is also an adjunct Associate Professor at the University Cergy-Pontoise\, France\, in the ETIS (Information and Signal Processing group). Previous to this\, he held a post-doctoral position with the Kuang-Chi Institute of Advanced Technology\, Shenzhen\, China\, from 2011 to 2012 and he was a Lecturer at the Department of Electrical and Electronic Engineering at the University of Nottingham Ningbo China\, from 2012 to 2016. Dr Le Kernec received his B.Eng. and M.Eng. degrees in Electronic Engineering from the Cork Institute of Technology\, Ireland\, in 2004 and 2006\, respectively\, and his Ph.D. degree in Electronic Engineering from the University Pierre and Marie Curie\, France\, in 2011. In 2022\, he received “Habilitation a Diriger des Recherches” from University Cergy-Pontoise\, France.\nHis research interests include radar system design\, software-defined radio/radar\, signal processing\, and health applications. Dr Le Kernec has over 130 publications in journals (IEEE sensors\, IEEE Signal processing Magazine\, IEEE Journal of Biomedical and Health Informatics\, Nature Scientific Reports)\, Conferences (IET internation radar conference\, IEEE radarcon\,..)\, book chapters\, patents and databases. \nTeams link: https://teams.microsoft.com/meet/335139198265625?p=Gym3TZyH3Fd4cQMDaB\nMeeting ID: 335 139 198 265 625\nPasscode: ZV98iz9b
URL:https://www.etis-lab.fr/event/seminaire-etis-cell-julien-le-kernec/
LOCATION:ENSEA\, salle 331\, 6 avenue du Ponceau\, Cergy\, 95000\, France
CATEGORIES:ETIS,Seminar
ATTACH;FMTTYPE=image/jpeg:https://www.etis-lab.fr/wp-content/uploads/2026/04/julien_le_kernec.jpg
ORGANIZER;CN="St%C3%A9phane Zuckerman":MAILTO:stephane.zuckerman@etis-lab.fr
END:VEVENT
END:VCALENDAR