Partenaires

CNRS
Ministère de l'Enseignement Supérieur et de la Recherche
Ecole Centrale de Lille
Université de Lille 1
CRIStAL

« juillet 2017 »
L M M J V S D
26 27 28 29 30 1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31 1 2 3 4 5 6


Rechercher

Sur ce site

Sur le Web du CNRS


Accueil du site > Equipes > Signal et Image (SI) > Seminars

List of previous and upcoming seminars

More scientific adventures to come in our new lab : CRIStAL

Seminar history :

Nicolas Dobigeon (ENSEEIHT / IRIT) : Bayesian fusion of multiple multi-band images — Beyond pansharpening, december 2014,
abstract :
In this talk, we address the problem of fusing remotely sensed multi-band images. The observed images are related to the high spectral and high spatial resolution image to be recovered through physical degradations, e.g., spatial and spectral blurring and/or subsampling defined by the sensor characteristics. The fusion problem will be formulated within a Bayesian estimation framework. Three different prior models will be introduced, as well as the the associated algorithms required to approximate the Bayesian estimators of the scene of interest. In particular, one of the proposed model allows the spectral blurring operator to be estimated jointly with the high spectral and high spatial resolution image.

Jean-François Delaigne (société ACIC-Tech) : Video surveillance, november 2014,
abstract :
La vidéosurveillance intelligente ou vidéosurveillance automatisée est un domaine industriel qui a ses origines dans les années 90. Ses bases scientifiques sont issues de la vision par ordinateur. La « vision » proposée à l’époque, à savoir l’automatisation complète de la surveillance par caméra, n’a aujourd’hui toujours pas été atteinte … loin de là.
Pourtant, il existe aujourd’hui des milliers d’installations de ces systèmes matériels ou logiciels partout dans le monde et des dizaines de sociétés sont toujours actives dans ce domaine.
Cet exposé présentera de façon assez complète, mais sans doute non-exhaustive, les applications populaires aujourd’hui avec des exemples concrets, celles qui arrivent et les verrous technologiques qu’il reste à lever pour se rapprocher de l’objectif original.

Sylvain Rousseau (Post-doc LAGIS) : Détection comprimée de motifs par matrice d’acquisition circulante orthogonale partielle, october 2014,
abstract :
Les capteurs multi- et hyper-spectraux génèrent un énorme flot de données. Un moyen de contourner cette difficulté est de pratiquer une acquisition comprimée de l’objet multi- et hyper-spectral. Les données sont alors directement comprimées et l’objet est reconstruit lorsqu’on en a besoin. L’étape suivante consiste à éviter cette reconstruction et à travailler directement avec les données comprimées pour réaliser un traitement classique sur un objet de cette nature. Nous présentons donc d’abord les principes de l’acquisition comprimée puis nous adaptons un algorithme original de détection de signature de Guo et Osher reposant sur une minimisation L1 dans le cas d’une acquisition comprimée. Une seconde généralisation va permettre de réaliser de la détection de motifs dans une image multispectrale au travers d’une transformation formelle. Et enfin, nous introduisons de nouvelles matrices d’acquisition qui simplifient énormément les calculs tout en gardant de bonnes qualités de mesures.

Tanya Ignatenko (Eindhoven University of Technology) : authentification biométrique et aspects sécurité, july 2014,
abstract :
In this talk we discuss biometric systems with template protection. We concentrate on the system where a common secret has to be generated from enrolment and authentication biometric sequences. This secret key has to be used for authentication purposes in access control systems. In order to generate such secret keys two terminals have to interchange a public message. This message should contain only a negligible amount of information about the secret, but in addition it should leak as little information as possible about the biometric data or, put in differently, privacy leakage should be small. The fundamental trade-offs between the secret-key rates and privacy leakage were determined in Ignatenko and Willems [2009]. In this talk we demonstrate how the fundamental limits relate to the typical biometric performance measures such as FRR and FAR.

Laurent Bougrain (Université de Lorraine / Inria Lorraine) : analyse temps-fréquence de signaux EEG et ECOG, june 2014,
abstract :
One way to better understand brain activities is to be able to analyse a large amount of experimental data such as EEG, ECoG, LFP and Spike trains. More precisely, I develop new techniques to analyse at various scales and in real-time a large amount of noisy physiological data and propose new health solutions (brain-computer interfaces, neuroprosthesis, sleep scoring...).

Jihad Zallat (Université de Strasbourg / Icube) : Self-calibrating polarimeters and advanced image-like data reconstruction/processing algorithms, may 2014,
abstract :
A key issue that arises at early stages in spectro-polarimeter design and operation is proper calibration that allows defining precisely the wavelength-dependent polarization measurement matrix that relates the measured polarized spectral radiances to the sought polarization parameter at different wavelength. This step is usually done over a narrow spectral bandwidth (the spectral variation of the polarization properties are ignored) where the characteristics (e.g., retardances) of optical components are considered constant. Many approaches that use reference optical eleme ! nts have been proposed in the past years where each has its own drawbacks :

  • The need of extra optical elements that have to be aligned carefully and to first be characterized to high accuracy.
  • The calibration procedures often need to be done incrementally to reach high precision
  • These methods do not handle efficiently spectral-polarimetric calibration since the polarization elements are usually tuned for a specific wavelength or lead to a complex calibration procedure
  • Calibration procedure has to be repeated regularly before and after each measurement to ensure that no drifts (due to temperature, etc.) of the instrument occ urred meanwhile. This is not compatible with most of the real time optical analysis and biopsies.

In this presentation, I present a novel architecture we developed coupled to a straightforward calibration method that circumvents these drawbacks.
The data acquired using a spectro-polarimeter are noisy and indirect versions of the parameters of interest, which are the pixel-wise Mueller matrix of the probed tissue. The inversion of these data requires special care, in order to ensure physical admissibility of the estimate. It is well-known that pseudo-inversion propagates noise and does not meet the admissibility constraints. Physically admissible inversion of Mueller data has long been an open problem. We have recently proposed different approaches attenuating the effect of noise and ensuring p ! hysical admissibility, which is for the time being the only method meeting the objectives mentioned. Our « inversion-estimation-segmentation » methods are suitable for any kind of Mueller imaging data. I will present here our last developments related to this issue.

Yvon Voisin (Université de Bourgogne / Le2i) : Some considerations on multispectral imaging, april 2014, PDF
abstract :
How can we achieve the acquisition 3D color ?
Rather than making a 3D acquisition and mapping a color image on the cloud of points, we propose an approach based on the use of multispectral imaging. Thus we can work on the reflectance of each point of the point cloud.
The main problem is the large volume of data to manipulate. We will present our considerations (Hardware and Software). A few examples applications will be presented.


Vincent Mazet (Université de Strasbourg / ICUBE) : décomposition conjointe de signaux spectroscopique, march 2014, PDF
abstract :
On dispose d’un ensemble de signaux spectroscopiques dont les raies évoluent doucement d’un spectre à l’autre. L’objectif est de décomposer cette séquence de spectres en raies dont on estime les paramètres (position, amplitude, largeur). La décomposition est effectuée conjointement sur toute la séquence afin de prendre en compte l’évolution lente des raies : cette approche est plus pertinente qu’une méthode dans laquelle les spectres sont décomposés séparément.
Nous avons dans un premier temps développé un modèle bayésien où un champ de Markov gaussien modélise l’évolution douce. Le nombre de raies et de groupes de raies étant inconnues, l’algorithme RJMCMC est choisi pour échantillonner la loi a posteriori. Différents aspects ont permis d’accélérer la convergence de l’algorithme.
Dans un deuxième temps, nous avons implémenté deux méthodes d’approximation parcimonieuse. Dans la première, les spectres sont décomposés de façon séquentielle avec une contrainte de positivité sur les amplitudes en utilisant une implémentation non-négative de l’algorithme IR-l1. Dans la seconde, la décomposition est conjointe avec une contrainte de douceur sur l’évolution des positions des motifs. Dans les deux cas, l’algorithme hongrois est appliqué pour relier les atomes sélectionnés afin de retrouver les trajectoires des raies. Les méthodes ont été testées sur des spectres de photoélectrons (séquence temporelle). À terme, nous souhaitons également l’utiliser sur des images multispectrales astronomiques (séquence spatiale 2D) pour étudier la cinématique des galaxies.
Ces travaux ont été effectués en collaboration avec Sylvain Faisan (ICube), Charles Soussen (CRAN) et El-Hadi Djermoune (CRAN).

Yohan Petetin (Telecom SudParis / CEA Saclay) : Estimation bayésienne séquentielle mono- et multi-objet(s) dans des modèles Markoviens, february 2014, PDF
abstract :
Cet exposé est consacré à la présentation et l’analyse d’algorithmes de filtrage statistique. Ces algorithmes visent à estimer récursivement des états inconnus à partir d’observations, dans des modèles stochastiques de Markov cachés ou des modèles de Markov à sauts conditionnellement markoviens. Nous considérons simultanément les problèmes de filtrage mono- et multi- objets. Dans ce dernier cas, le nombre d’états cachés devient inconnu et nous abordons le problème sous l’angle de la théorie des ensembles statistiques finis et du filtre « Probability Hypothesis Density ».
Tout d’abord, nous nous intéressons à l’importante classe d’approximations que constituent les algorithmes de Monte Carlo séquentiels ou de filtrage particulaire, qui incluent les algorithmes d’échantillonnage d’importance séquentiel et de filtrage particulaire auxiliaire. Les boucles de propagation mises en jeux dans ces algorithmes sont étudiées afin de proposer des algorithmes alternatifs. Les algorithmes de filtrage particulaire dits « localement optimaux », c’est à dire les algorithmes d’échantillonnage d’importance avec densité d’importance conditionnelle optimale et de filtrage particulaire auxiliaire pleinement adapté sont comparés statistiquement et de façon non asymptotique, en fonction des paramètres du modèle donné.
Ensuite, les méthodes de réduction de variance basées sur le théorème de Rao-Blackwell sont exploitées dans le contexte du filtrage mono- et multi-objet(s). Ces méthodes, utilisées principalement en filtrage mono-objet lorsque la dimension du vecteur d’état à estimer est grande, sont dans un premier temps étendues pour les approximations Monte Carlo du filtre Probability Hypothesis Density. D’autre part, des méthodes de réduction de variance alternatives sont proposées : bien que toujours basées sur le théorème de Rao-Blackwell, elles ne se focalisent plus sur le caractère spatial du problème mais plutôt sur son caractère temporel.
Enfin, nous nous plaçons dans le cadre de modèles de Markov couple et triplet qui étendent les modèles probabilistes Markoviens classiquement utilisés. Le problème de filtrage multi-objets par ensembles statistiques finis est tout d’abord traité dans le cadre de modèles de Markov couple. Par ailleurs, nous exploitons les propriétés statistiques plus générales des modèles de Markov triplet afin de proposer des algorithmes de filtrage rapide (linéaire dans le nombre d’observations) et exact (ne nécessitant ni approximation numérique, ni filtrage particulaire) dans une classe de modèles Markoviens à sauts physiquement pertinents.

Sebastien Destercke (CNRS Heudiasyc) : Traitement robuste de signal au moyen de probabilités imprécises, january 2014, PDF
abstract :
dans diverses tâches du traitement numérique d’un signal, il peut arriver que les observations soient imprécises (du fait de la quantification, des approximations algorithmiques, ...) et/ou que le système fournissant le signal ne soit que partiellement défini. Dans ces situations, il est souhaitable d’intégrer ces imperfections au traitement du signal, en fournissant éventuellement des réponses dont l’imprécision reflète le manque de connaissance sur les données et/ou le modèle. Pour ce faire, nous proposons dans cet exposé d’utiliser des outils et méthodes issues des probabilités imprécises. Nous traiterons en particulier les problèmes de filtres partiellement identifiés et des tests statistiques sur données imprécises. Des illustrations des techniques employées au traitement d’image seront données.

Eric Barat (CEA Saclay) : Une approche bayésienne non paramétrique pour les problèmes inverses. Application à la tomographie quantique homodyne, november 2013.

Julien Rabin (Greyc / Université de Caen) : Transfert de caractéristiques entre images, october 2013.