Le thème explore les capacités de l’apprentissage profond à extraire automatiquement des représentations complexes de données hétérogènes (images, textes, signaux, données biologiques). Ces représentations, souvent sous forme d’embeddings, permettent de capturer des structures abstraites utiles pour l’analyse et la prédiction.
Au-delà de la performance, le thème vise à développer des modèles compréhensibles et fiables. L’interprétabilité est essentielle pour garantir la confiance des utilisateurs, en particulier dans des domaines sensibles comme la santé ou l’environnement.
Ces travaux portent également sur la robustesse des modèles face à des données bruitées, incomplètes ou biaisées.
Le thème s’intéresse aux approches discriminatives (classification, détection) comme aux approches génératives (modèles de langage, génération d’images ou de données). L’essor des grands modèles de langage ouvre notamment de nouvelles perspectives pour le traitement automatique des langues, y compris dans des contextes peu dotés.
Un axe important concerne le développement de modèles d’IA plus économes en ressources, capables de fonctionner sur des dispositifs contraints (capteurs, systèmes embarqués). Cet objectif est crucial pour garantir l’accessibilité et la durabilité des solutions développées.
Les performances des modèles d’IA dépendent fortement de la qualité des données. Les biais, le manque de diversité ou les erreurs d’annotation peuvent fortement limiter leur généralisation. Le thème travaille en lien étroit avec les autres axes pour améliorer la qualité et la représentativité des données
L’annotation des données constitue un coût majeur. Le thème explore des approches alternatives, comme l’apprentissage semi-supervisé, l’apprentissage continu ou les méthodes intégrant l’humain dans la boucle, afin de tirer parti de données partiellement annotées.
La conception d’architectures adaptées reste un défi, souvent abordé de manière empirique et coûteuse. Le thème vise à mieux structurer cet espace de conception, notamment pour développer des modèles plus efficaces et frugaux.
Analyse d’images (récifs coralliens), traitement de données écologiques, construction d’indicateurs environnementaux.
Traitement automatique des langues, extraction d’information à partir de corpus juridiques ou scientifiques.
Le thème organise et soutient une animation scientifique dynamique :
financement de projets collaboratifs,
organisation de formations et séminaires,
mise en place d’un cycle régulier de séminaires internes.
Une attention particulière est portée à l’animation d’une communauté large incluant doctorants, post-doctorants et jeunes chercheurs, afin de favoriser les échanges et la veille scientifique dans un domaine en évolution rapide.