- Programme synthétique
- Détail des sessions:
- Conférenciers invités:
- Leila Amgoud (J, 9h-10h)
- Sylvie Le Hagarat-Mascle (J, 12h-13h)
- Olivier Strauss (V, 9h-10h)
Programme synthétique
Jeudi 14/11/2019 | Vendredi 15/11/2019 | |
08:00-08:45 | Accueil | |
08:45-09:00 | Ouverture de la conférence (amphi JBD) | |
09:00-10:00 | Oratrice invitée : L. Amgoud
(amphi JBD) |
Orateur invité : O. Strauss
(amphi JBD) |
10:00-11:20 | Session 1 (amphi JBD) | Session 4 (amphi JBD) |
11:20-12:00 | Poster / Café
(Salle René Denni) |
Poster / Café
(Salle René Denni) |
12:00-13:00 | Oratrice invitée : S. Le Hegarat-Mascle
(amphi JBD) |
Session de clôture (amphi JBD) |
13:00-14:15 | Buffet (cyber espace) | Buffet (cyber espace) |
14:15-15:30 | Session 2 (amphi JBD) | |
15:30-16:10 | Poster / Café (Salle René Denni) | |
16:10-17:30 | Session 3 (amphi JBD) | |
17:30-18:00 | Poster (Salle René Denni) | |
19:00-20:00 | Réception à la Mairie | |
20:00-… | Dîner de Gala
Restaurant “Le Riche” |
Détail des sessions (Amphi JBD)
Session 1 (jeudi 14 novembre, 10:00-11:10) | ||
10:00-10:10 | Ahmad Tay, Frédéric Lafont, Jean-François Balmat et Nathalie Pessel | Système d’Aide à la Décision à base de Logique Floue: Application à l’Agriculture Intelligente |
10:10-10:20 | Zied Ben Othmane, Amine Aït Younes, Cyril de Runz et Vincent Mercelot | Quantifier la variabilité de séries temporelles de données imprécises |
10:20-10:30 | Yu Du, Sylvie Ranwez, Nicolas Sutton-Charani et Vincent Ranwez | Ajustement bayésien des mesures de similarité entre utilisateurs pour améliorer les recommandations basées sur un filtrage collaboratif |
10:30-10:40 | Driss Gretete, Khalid El Aroui et Mbarek Zaoui | Degré chrysippien dans une structure d’opérateurs de logique floue |
10:40-10:50 | Lucie Jacquin, Abdelhak Imoussaten, François Trousset, Jacky Montmain et Didier Perrin | Classification imprécise : application au tri des plastiques |
10:50-11:00 | Larbi Kharroubi, Hichem Maaref et Wahid Nouibat | Proposition d’une approche mixte floue et neuro-floue pour le contrôle d’un système sous actionné et couplé |
11 :00-11:10 | Tekwa Tedjini, Sohaib Afifi, Frédéric Pichon et Eric Lefévre | Un modèle Belief-Constrained Programming pour le VRPTW avec temps de service et de trajet crédibilistes |
Session 2 (jeudi 14 novembre, 14:15-15:30) | ||
14:15-14:25 | Sébastien Destercke, Marie-Hélène Masson et Benjamin Quost | Clustering prudent : une approche relationnelle par seuillage |
14:25-14:35 | Siwar Jendoubi, Didier Coquin et Reda Boukezzoula | Fusion multimodale pour la reconnaissance des espèces d’arbres à partir des feuilles et des écorces |
14:35-14:45 | Marie-Jeanne Lesot, Grégory Smits, Pierre Nerzic et Olivier Pivert | Génération efficace d’estimations fiables de résumés linguistiques |
14:45-14:55 | Didier Dubois, Faux Francis, Henri Prade et Agnes Rico | Trois usages des capacités qualitatives |
14:55-15:05 | Mohamed Haddache, Allel Hadjali et Hamid Azzoune | Sur le raffinement du skyline : Une approche utilisant le treillis des concepts formels flous |
15:05-15:15 | Emmanuel Ramasso et Thierry Denoeux | Partitionnement de séries temporelles par moles de mélange avec contraintes sur les instants d’amorçage des clusters |
15:15-15:25 | Maxime Chaveroche, Franck Davoine et Véronique Cherfaoui | Efficient Möbius Transformations and their applications to Dempster-Shafer Theory |
Session 3 (jeudi 14 novembre, 16:10-17:30) | ||
16:10-16:20 | Cyprien Neverov, Chihab Khnifass, Papa Beye, Nicolas Sutton-Charani, Abdelhak Imoussaten, Willy Fagart, Mylène Blot et Arnaud Dupeyron | Modélisation incertaine à partir de mesures non-reproductibles. Application à la comparaison de pression exercée par des matelas |
16:20-16:40 | Adrien Revault d’Allonnes et Marie-Jeanne Lesot | Etude d’un opérateur d’agrégation à la baisse en logique multivalente |
16:40-16:50 | Charles Lesniewska-Choquet, Gilles Mauris et Abdourrahmane Atto | Transformation possibiliste de lois de probabilités multi-variées elliptiques |
16:50-17:00 | Behrang Moradi Koutchi et Baptiste Magnier | Une nouvelle méthode normalisée pour la reconnaissance supervisée et la localisation d’objets basée sur la forme |
17:00-17:10 | Laurence Boudet, Jean-Philippe Poli, Louis-Pierre Bergé et Michel Rodriguez | Règles spatiales floues et SIG pour l’évaluation d’un risque : le cas des feux de forêt |
17:10-17:20 | Reda Boukezzoula, Luc Jaulin et Laurent Foulloy | Sur le concept d’Intervalle Graduel Epais (IGE) : son sens, son utilité et son arithmétique associée |
17:20-17:30 | Siti Mutmainah, Frédéric Pichon et David Mercier | Apprentissage de corrections contextuelles crédibilistes à partir de données partiellement étiquetées en utilisant la fonction de contour |
Session 4 (vendredi 15 novembre, 10:00-11:20) | ||
10:00-10:10 | Helmi Manai et Zied Elouedi | Possibilistic Hierarchical Clustering |
10:10-10:20 | Nicolas Sutton-Charani | Correction bayésienne de prédictions issues d’arbres de décision et évaluation crédibiliste |
10:20-10:30 | Pierre Couturier, Abdelhak Imoussaten et Jacky Montmain | Formalisation possibiliste du dilemme volonté/capacité à faire |
10:30-10:40 | Olivier Strauss et Agnès Rico | Une extension signée de la transformation floue imprécise |
10:40-10:50 | Didier Dubois, Luc Jaulin et Henri Prade | Ensembles épais, fonctions multivoques, et théorie des possibilités |
10:50-11:00 | Edwin Friedmann et Jean-Philippe Poli | Système à base de règles floues pour la reconnaissance de composés chimiques |
11:00-11:10 | Christophe Marsala et Bernadette Bouchon-Meunier | Entropies et ensembles flous intuitionnistes |
11:10-11:20 | Dickson Owuor, Anne Laurent et Joseph Orero | Extraction de motifs graduels temporels flous |
Conférenciers invités
Leila Amgoud – Jeudi 14/11 – 9:00-10:00
Méthodes d’évaluation des arguments
L’argumentation est l’action de convaincre, et pousser ainsi un auditoire à agir, par des arguments. Un argument est, en logique et en linguistique, l’ensemble des prémisses données en support à une conclusion. Il peut généralement être affaibli par d’autres arguments qui attaquent un ou plusieurs de ses trois composants (prémisses, conclusion, lien). Sa force dépend donc de la plausibilité des prémisses, de la nature du lien entre elles et la conclusion, et de l’acceptabilité préalable de la conclusion. L’évaluation des arguments est une tâche cruciale, et un nombre considérable de méthodes a été proposé dans la littérature. J’aborderai deux classifications des méthodes existantes : la première est basée sur le type des résultats retournés et la seconde sur les objectifs poursuivis.
Directrice de recherche au CNRS, IRIT.
Sylvie Le Hegarat-Mascle – jeudi 14/11 – 12:00-13:00
Fonctions de croyance : de la théorie à la pratique
Bien que la théorie des fonctions de croyance ait été largement popularisée ces deux dernières décennies, il demeure des difficultés lors de sa mise en œuvre dans des applications réelles, de sorte que certains détracteurs arguent de son caractère « jouet ». Dans cette présentation, nous nous attacherons à illustrer l’utilité d’outils des fonctions de croyance dans des trois applications réelles. La première des applications est la localisation GNSS (Global Navigation Satellite System) en environnement contraint, pour laquelle des phénomènes de propagation multi-trajets, par exemple, génèrent des données aberrantes. Nous montrerons comment l’exploitation de la mesure de conflit en fonctions de croyance offre une mesure de la cohérence d’un sous-ensemble de mesures (excluant les données aberrantes) en alternative à la q-relaxation utilisée en analyse par intervalles. La seconde des applications est l’identification d’objets à partir d’un système multi-capteurs incluant une caméra hyperspectrale. Le problème est formulé comme un double problème de segmentation et de labellisation des objets en termes de matériaux. Comme précédemment, la mesure de conflit est l’indicateur utilise pour évaluer automatiquement la consistance d’une part de la segmentation courante (dans le cadre d’un algorithme itératif) et d’autre part de la labellisation. Ainsi, nous montrerons comment d’une part la fiabilité de la labellisation peut être évaluée au niveau des régions conjointement à la validation des régions elles-mêmes, et d’autre part, l’information de labellisation peut interagir sur les régions initiales pour aller vers une segmentation au niveau « objet ». La troisième des applications concerne la détection et le suivi de piétons à partir d’un système multi-caméras. Ce problème implique un sous-problème de localisation, ici considérée sur le plan du sol. Dans cette partie, nous montrerons comment l’approximation par sous-ensembles de pavés utilisée pour la localisation GNSS a été revue pour permettre le passage à l’échelle. Ainsi, nous avons proposé une représentation des hypothèses de localisation imprécise qui est invariante au changement de résolution spatiale, et qui permet de définir de façon efficace les opérateurs de base et les règles de combinaison entre fonctions de croyance. Par ailleurs, en décrivant les relations entre les hypothèses (notamment intersection et inclusion) sous forme de graphe, nous sommes à même de définir des versions efficaces d’algorithmes (notamment pour la comparaison des croyances impliquée dans toute prise de décision).
Professeur des universités à l’Université de Paris Sud, Polytech Paris Sud.
Olivier STRAUSS – Vendredi 15/11 – 9:00-10:00
Imprécision et incertitude dans les signaux numériques
Le traitement du signal a pour objet la détection, l’analyse, la transmission, la séparation et l’interprétation des signaux. C’est une discipline qui relève à la fois de la théorie des systèmes et de celle des processus stochastiques. Historiquement, elle concernait surtout les signaux physiques continus (on parle aussi de traitement des signaux analogiques). Le traitement du signal était alors réalisé au moyen de circuits principalement électriques mais aussi pneumatiques ou optiques. De nos jours, l’omniprésence de l’ordinateur en traitement de l’information a fait quasiment disparaitre le traitement du signal analogique au profit de celui du signal numérique. Un signal numérique est une série de nombres entiers reliée au signal continu qu’il représente via deux opérations qui sont l’échantillonnage et la quantification. En traitement du signal numérique, des algorithmes remplacent les circuits spécialisés assurant non seulement la détection, l’analyse, la transmission, la séparation et l’interprétation des signaux mais aussi leur compression, leur chiffrage (et déchiffrage), etc. Une transformation inverse existe permettant de passer des signaux numériques aux signaux continus pour leur restitution qui porte le nom de reconstruction ou d’interpolation. Les signaux numériques étant issus d’une numérisation de signaux réels, il est important que le résultat du traitement numérique ait un sens dans le monde physique, c’est à dire que la relation entre le signal numérisé en entrée et le signal reconstruit en sortie ait un sens physique, par exemple l’augmentation du niveau relatif des aigus dans un morceau de musique. De nombreuses techniques existent permettant d’assurer cette cohérence, mais ce problème qui reste ouvert s’avère très intéressant pour la communauté des théories de l’incertain. En effet, dû à la nature même du signal numérique, il mélange de l’aléatoire (dû au bruit de mesure, aux perturbations induites par des signaux parasites, . . .) et de l’imprécision induit par l’échantillonnage et la quantification. De plus, la numérisation étant une transformation faisant perdre de l’information, manipuler un signal numérique en lieu et place du signal continu dont il est issu, c’est manipuler une représentation approximative. Cette représentation approximative, on la retrouve dans les outils manipulés comme les transformées de Fourier, les fonctions de transfert, les réponses impulsionnelles, etc. Au cours de cet expose, je vous propose de vous présenter un ensemble de problèmes ouverts par le traitement du signal numérique pouvant aboutir soit à des applications intéressantes des concepts que notre communauté sait manipuler, soit des problèmes théoriques ouverts qu’il serait intéressant d’investiguer. Cet expose sera illustré d’exemples monodimensionnels (traitement du son) et bidimensionnels (traitement des images).
Maître de Conférences HDR, Université Montpellier, Laboratoire d’Informatique, de Robotique et de Micro-électronique de Montpellier