Projects
Contributions à la détection-prédiction des maladies neurodégénératives en intégrant un système de recommandation VR/AR.
Le projet proposé fait suite à plusieurs travaux préliminaires concernant respectivement le développement logiciel d’une plate-forme de démonstration destinée à la détection et la prédiction des maladies neurodégénératives en se basant sur un système de recherche d’images et un système de recommandation VR/AR pour aider les patients.
Détection des signes dépressifs sur les réseaux sociaux en intégrant une approche VR/AR pour mieux orienter et accompagner les victimes.
L’objectif de cette thèse est de développer de nouvelles méthodes pour la détection et la reconnaissance des signes dépressifs à partir du contenu partagé sur les réseaux sociaux. Le but ultime étant de pouvoir venir à l’aide des victimes à temps et ce en intégrant une approche basée sur la réalité virtuelle et la réalité augmentée..
Développement d’un système de classification des images médicales basé sur le Deep-Learning
L’objectif de ce sujet est de proposer une nouvelle méthode de classification des images médicales basée sur les techniques d’apprentissage profond qui permettent de traiter avec précision un grand volume de données. Dans ce travail, nous nous intéressons à la classification des images médicales thoraciques en utilisant l’apprentissage profond et les techniques de l’apprentissage par transfert.
Reconnaissance automatique des émotions
L’objectif consiste à proposer des méthodes pour analyser le contenu des données multimédia (image, vidéo, audio), dans des bases de l’état de l’art, pour détecter des émotions évoquées par ces données sur l’être humain. Quelle émotion (peur, joie, etc.) est évoquée chez un humain en regardant une scène présentée sous forme d’une séquence vidéo ou une image.
Conception d'un système d'indexation et de recherche d'images par le contenu
Grâce aux avancées récentes de la technologie ces dernières années et la grande quantité de données images qui augmente de jours en jour, un problème qui se pose est comment exploiter efficacement ces données ? Pour résoudre ce problème on a besoins d’un système
d’indexation d’image par son contenu (CBIR) qui est une technique permettant de rechercher des images à partir de ses caractéristiques visuelles. Ce système est composé de deux phases : une phase d’indexation (off-line) et une autre phase de recherche (on-line).
Indexation et recherche par contenu visuel, sémantique et multi-niveaux des documents multimédias
Nous avons proposé, tout d’abord, un modèle d’indexation et de recherche de planes vidéos (ou images) par son contenu visuel (ISE). Les fonctionnalités innovantes d'ISE sont les suivantes : (i) définition d'un nouveau descripteur (PMC) et (ii) application de l'algorithme génétique (AG) pour améliorer la recherche (PMGA). Ensuite, nous nous sommes intéressés à la détection des concepts dans les plans vidéo (Approche LAMIRA). Dans ce même contexte, nous avons proposé une méthode d’annotation semi-automatique des plans vidéo afin d’améliorer la qualité d’indexation basée sur l’AG. Puis, nous avons fourni une méthode d’indexation sémantique séparant le niveau donné, d’un niveau conceptuel et d’un autre, plus abstrait, contextuel. Ce nouveau système intègre, aussi, des mécanismes d’expansion de la requête et de retour de pertinence. Pour donner plus de fluidité dans la requête utilisateur, l’utilisateur peut effectuer une recherche par navigation sur les trois niveaux d’abstraction. Deux systèmes appelés VISEN et VINAS ont été mis en place pour valider ces dernières positions. Finalement, un Framework SIRI a été propose sur la base d’une fusion multi-niveaux combinant nos 3 systèmes : ISE, VINAS et VISEN. Ce Framework fournit une représentation bidimensionnelle de vecteurs descripteurs (haut niveau et bas niveau) pour chaque image.
Intégration d'un moteur IA de recherche d'images par le contenu dans une base d’images radiologiques
Organismes d’accueil : Entreprise EITA-Paris, MACS à l’ENIG, Université de Gabes - Tunisie.
Doctorant : Abdelbaki Souid
Soutenance prévue : Mars 2024
Dirigé par : Pr. Hedi Sakli ( he-di.s@eitaconsulting.fr)
Encadré par : Dr. Mohamed Hamroun (mohamed.hamroun@unilim.fr)
Résume : Ce projet porte sur l’intégration d’un moteur de recherche d’images par le contenu dans une base d’images médicales pour apporter une aide aux médecins radiologues dans
L’interprétation d’images en hôpitaux ou en cliniques et la prise de diagnostic. Le sujet est en collaboration entre le laboratoire Modélisation, Analyse et Commande des Systèmes LR16ES22 (MACS) à l’Ecole Nationale d’Ingénieurs de Gabes de l’Université de Gabes, et la société EITA Consulting avec son pôle R&D à Paris. D’un point de vue académique, le caractère innovant repose sur le développement de nouvelles approches d’indexation et de recherche d’images similaires via des descripteurs visuels issus de réseaux de neurones profonds (convolutionnels). D’un point de vue industriel, ce projet représente une rupture technologique avec l’existant étant donné qu’actuellement, les systèmes d’information et de gestion d’images radiologiques intégrés dans les hôpitaux en routines ne peuvent être interrogés que par « mot-clés » et la fouille d’images par le contenu n’est pas exploitable malgré la masse d’images préalablement diagnostiquées et interprétées disponibles.