L’IA et la robotique sont actuellement à la recherche de nouveaux paradigmes pour l’efficacité computationnelle et l’apprentissage continu. Comparativement, le cerveau a toujours une longueur d’avance en terme de rapidité d’apprentissage, de capacité, de coût énergétique et computationnel par unité de calcul (les neurones). Comment le cerveau fait-il pour ne pas oublier? Comment un contrôle du geste parfait peut-il être exécuté malgré la faible précision de nos senseurs et de nos muscles?
Je présenterai un nouveau type de réseaux de neurones bio-inspirés qui maximisent leur capacité de stockage, équivalent à un codage numérique de l’information, dans le sens de Shannon. Etonnamment, cette approche a des similarités avec les turbo-codes et les LDPC en communication, et certaines nouvelles architectures en Machine Learning, comme les modern Hopfield Network et les Sparse Distributed Memory. Ces résultats ouvrent potentiellement la voie à une théorie de l’information en réseau de neurones et en IA, actuellement manquante, mais nécessaire pour une meilleure efficacité énergétique (Green AI et EdgeAI), et un apprentissage en continue en robotique et machine learning (continual learning), ainsi que le contrôle de robots sous-actionnés (soft robotics).