| |
Titres et résumés
- Jean-Yves Audibert (CERTIS, École Nationale des Ponts et Chaussées)
Titre: ``Graph Laplacian for transductive
learning: application to image segmentation and interactive image search''
Résumé: To extract knowledge from a small
number of samples containing very complex high-dimensional data is impossible
if the data
has no particular structure. This presentation will consider the case when
the high dimensional data lies on an unknown low dimensional manifold. In this
situation,
one can avoid the curse of dimensionality
by using algorithms based on appropriate neighborhood graphs.
The discrete Laplacians on such graphs can be used successfully to do
transductive learning and solve efficiently some computer vision tasks.
We will first present the pointwise limit of the three different
graph Laplacians used in the literature as the sample size increases and the
neighborhood
size approaches zero.
Then we will illustrate Graph Laplacian based tranductive learning by
considering two computer vision tasks: segmenting an image into regions
consistent with user-supplied seeds (e.g., a
sparse set of broad brush strokes), and interactive image search in a large
image database.
- Francis Bach (Willow Project, École Normale Supérieure)
Titre: ``Méthodes à noyaux pour
l'analyse d'images''
Résumé: Je présenterai certains développement
récents des méthodes à noyaux
ainsi que leur application à l'analyse d'images. En particulier,
l'accent sera mis sur (1) les méthodes d'apprentissage du noyau et
leurs liens avec les normes parcimonieuses, et (2) et sur les noyaux
structurés utilisables en vision, qui mettent en oeuvre les
représentations classiques des images (segmentations, points
d'intérêt, etc...).
- Sylvain Baillet (LENA, Université Pierre et Marie Curie)
Titre: ``Identification and tracking in
time-resolved functional brain imaging''
Résumé: Functional brain mapping is
developing rapidly through a variety of
techniques. Electromagnetic functional imaging has recently emerged as a
direct imaging tool of electrical currents generated by neural cell
assemblies. The resulting modality has reasonable centimetre spatial
resolution and excellent millisecond time resolution.
The resulting analysis of dense sequences of brain responses implies that
salient functional features be identified and tracked in time onto the
complex circumvoluted cortical surface.
We have recently proposed an extension of the estimation of optical flow on
arbitrary manifolds [1]. In our application, the resulting vector field is
representative of the local dynamics of neural current flows on the cortical
mantle. We propose to design new indices of brain dynamics using this
measure; one key application being the identification of modulations on the
dynamics of brain activity.
[1] Lefèvre, J. & Baillet, S. Optical Flow and Advection on 2-Riemannian
Manifolds: a Common Framework IEEE Trans. on Pattern Analysis & Machine
Intelligence, 2008, in press - available online
- Toni Buades (MAP5, Université Paris Descartes)
Titre: ``Analysis of the bidimensional
distribution of natural colors in RGB space''
Résumé: When observing the colours of a natural image in RGB space (the so-called RGB cube) one realizes that they are distributed roughly following some surfaces that stretch from dark to brigh colors. Moreover, when removing from the representation the colors with low local density most of the isolated points dissappear
and these surfaces are more clearly visible, almost becoming 1D structures.
These observations lead Omer and Werman to propose a new representation for color images based on these 1D structures, which they called color lines. They applied this representation to segmentation,
compression, color editing and color correction.
However, in most cases, by removing these points important
image information may be missed.
We pretend to make conspicuous the 2D structure of the distribution of the colors in natural images. To this aim the original 2D
structure shall be interpolated and a new, cleaner and clearer representation shall be obtained.
- Bernard Chalmond (CMLA, École Normale Supérieure de Cachan)
Titre: ``3D cell high resolution imaging
advances : slice-to-volume registration, reconstruction and deconvolution''
(joint work with Y. Yu, A. Trouvé and B. Le Saux).
Résumé: Cell imaging is based on two data
sets of different type : a slice stack of the cell at low resolution and
an unregistered slice series of this cell at standard resolution. We propose
a statistical procedure to compute an isotropic high resolution of the cell
volume.
- Antoine Chambaz (MAP5, Université Paris Descartes)
Titre: ``A propos de la dimension intrinsèque''
Résumé: Je présenterai le problème de
l'estimation de la dimension intrinsèque en m'appuyant sur un certain
nombre d'articles récents.
- Serge Cohen (Netherlands Cancer Institute NKI, Pays-Bas)
Titre:
Résumé:
- Julie Delon (TSI, Telecom Paris)
Titre: ``Réduction du papillonnage
dans les vieux films''
Résumé: Le phénomène de papillonnage
dans les vieux films, appelé aussi ``flicker'',
se caractérise par d'importantes variations de contraste d'une image
à l'autre (dûes par exemple pour les vieux films à l'instabilité des
produits chimiques utilisés pour la pellicule, ou encore à une
non-uniformité des temps d'exposition pour chaque image). Dans cet exposé,
nous introduirons d'abord le modèle mathématique utilisé pour modéliser le
flicker, puis nous expliquerons la difficulté du problème de suppression
du flicker, particulièrement dans le cas où celui-ci est local et varie
spatialement d'une image à l'autre.
Nous proposerons ensuite une méthode de réduction du flicker et nous en
montrerons les résultats sur différents exemples.
- Agnès Desolneux (MAP5, Université Paris Descartes)
Titre: ``Méthodes a contrario et méthodes
bayesiennes: quels liens et quelles différences ?''
Résumé: Dans cet exposé, nous commencerons par illustrer à travers quelques exemples l'idée de l'approche a contrario en analyse d'images. Puis nous discuterons quels sont les liens et les différences avec des méthodes bayesiennes qui nécessitent la donnée d'un a priori.
- Bruno Galerne (CMLA, École Normale Supérieure de Cachan)
Titre: ``Synthèse de textures par principe
de transparence''
Résumé: Dans cet exposé nous nous intéressons à la synthèse de textures par principe de transparence. Dans un premier temps nous présentons le "spot noise" qui est une méthode de synthèse de textures introduite par van Wijk. Ici la transparence est linéaire puisque cette méthode de synthèse consiste à superposer un grand nombre de translations aléatoires d'une même image. Nous définissons rigoureusement la texture stationnaire asymptotique obtenue par le "spot noise", puis nous comparons visuellement cette technique de synthèse avec le procédé qui consiste à rendre aléatoire la phase de l'image originale.
Dans la seconde partie de l'exposé, le principe de transparence par superposition linéaire est remplacé par un principe plus physique qui correspond au principe d'occlusion entre objets transparents. Ce principe de transparence est illustré par l'étude d'un nouveau processus stochastique, le modèle "feuilles mortes transparentes".
Les différentes méthodes de synthèse sont analysées dans les espaces fonctionnelles qui leurs sont propres et illustrées par des expériences numériques.
Ces travaux sont effectués sous la direction de Yann Gousseau et de Jean-Michel Morel.
- Donald Geman (Department of Applied Mathematics and Statistics, Johns Hopkins University, Baltimore, USA)
Titre: ``Interactive Search for Image
Categories by Mental Matching''
Résumé: Everybody knows about Google.
Inventing analogues for image-based
search is proving far more difficult, partly because large image
databases are not, and currently cannot be, sematically annotated.
The standard scenario in image retrieval, and the one that works well,
is "query-by-visual-example": the "query image" resides in the
database and is matched by the system with other images. Suppose,
instead, the query image is "external" and the matching is "mental."
For instance, an image resides in the mind of the user or there is an
actual object or photograph. The user may seek versions of the same
image (e.g., the same face) or images belonging to the same class
(e.g., similar landscapes) and responds to a sequence of
machine-generated queries designed to accelerate the search. For
example, the user declares which of several displayed images is
"closest" to his query. These similarity decisions are entirely
subjective and user-dependent. I will discuss a stochastic,
model-based interactive search engine which mixes geometry,
information theory and statistical inference. Performance is measured
by the expected number of iterations necessary to display an exemplar
from the user's class. Designing metrics and models which are
consistent with human behavior is essential for achieving practical
results with large databases, as illustrated with art and faces.
- Joan Glaunès (MAP5, Université Paris Descartes)
Titre: ``Modèles de courants pour la
comparaison des courbes et surfaces''
Résumé: Ce travail trouve son origine
dans le problème de la comparaison et du
recalage des images médicales, basé sur l'extraction préalable de points
d'intérêt, qui peuvent être de différentes natures géométriques: points de
références simples, mais aussi bouts de courbes, ou surfaces. Se pose
alors la question: comment comparer des courbes ou des surfaces, comment
définir une distance ayant un sens géométrique entre de tels objets ? Leur
modélisation en tant que mesures vectorielles (courants) est un outil
commode pour les décrire en tant qu'éléments d'un espace vectoriel, puis
pour les comparer via des normes duales calculables explicitement. Cette
approche permet d'écrire des méthodes d'appariement efficaces dont je
montrerai quelques exemples. Ce modèle de courant est assez souple et
permet en fait de considérer d'autres objets tels que des moyennes de
surfaces, faisceaux de courbes, images, ou bien des données fonctionnelles
sur des surfaces, pour lesquels il devient alors possible de mener des
calculs statistiques sur des groupes de données.
- Rafael Grompone (CMLA, École Normale Supérieure de Cachan)
Titre: ``LSD: a line segment detector''
Résumé: A new line segment detector will
be introduced.
It is a fast algorithm based on Desolneux, Moisan and Morel
a contrario detection theory. It produces accurate results without
the need of parameter tuning. An extension to curve detection
and some experiments of image analysis will be discussed.
- Mohamed Hachama (MAP5, Université Paris Descartes)
Titre: ``Modèles de classes pour le recalage
des images médicales''
Résumé: Le recalage des images est un sujet
central en imagerie médicale, utilisé
dans beaucoup d'applications [1]. Bien qu'il ait bénéficié d'une attention
particulière de la part des chercheurs, le recalage pose toujours des
problèmes non résolus.
Dans cet exposé, nous présentons des méthodes pour résoudre un problème
particulier, rencontré dans plusieurs applications. Il s'agit de la
présence de classes de pixels, avec des propriétés différentes. Nous
développons deux méthodes de recalage [2, 3]. La première s'apparente à un
recalage robuste, tandis que la deuxième combine le recalage des images et
la classification des pixels. Deux exemples d'application sont exposés :
la segmentation par transport de prototype et la détection de lésions en
mammographie. En plus, une évaluation quantitative sur une base d'images
simulées est réalisée.
[1] F. Richard, "Modèles élastiques d'ajustement d'images et applications
aux paires bilatérales et temporelles de mammographies", PHD thesis,
Université René Descartes, Paris, France, décembre 2000
[2] M. Hachama, F. Richard and A. Desolneux "A mammogram registration
technique dealing with outliers", Proc. of the IEEE International
Symposium on Biomedical Imaging, ISBI'06 , Arlington, Virginia, USA,
april, 2006.
[3] M. Hachama, A. Desolneux et F. Richard, "A probabilistic approach for
the simultaneous mammogram registration and abnormality detection", In
Proc. of the International Workshop on Digital Mammography, IWDM'06 ,
LNCS, vol. 4046, pp. 205-212, Manchester, UK, 2006.
- Jérémie Jakubowicz (CMLA, École Normale Supérieure)
de Cachan
Titre: ``Segmentation des signaux par
modélisation a contrario''
Résumé: En cherchant à détecter les
segments de droites dans les images [3],
nous avons mis au point un algorithme de segmentation des suites
binaires via une méthode a contrario. Afin de comparer la qualité des
différentes segmentations on associe un test à chaque
segmentation. Puis à chaque test, on associe un nombre réel, son
nombre de fausses alarmes (NFA), conformément à ce qui est fait dans
[1] et [2]. On compare alors la pertinence des différents tests en
comparant leur NFA (plus le NFA est petit, plus le test est
significatif).
On présentera une modification de cette méthode pour l'adapter au cas
des signaux quelconques et plus forcément binaires. Ce problème fait
l'objet d'une abondante bibliographie. On comparera notre algorithme
de segmentation a contrario à d'autres méthodes bien connues.
[1] A Unified Framework for Detecting Groups and Application to Shape
Recognition. F. Cao, J. Delon, A. Desolneux, P. Musé, F. Sur. JMIV 2007.
[2] Meaningful Alignments. A. Desolneux, L. Moisan, J.-M. Morel. IJCV 2000.
[3] On Straight Line Segment Detection. R. Grompone von Gioi,
J. Jakubowicz, J.-M. Morel, G. Randall. Prépublication CMLA,
http://www.cmla.ens-cachan.fr/fileadmin/Documentation/Prepublications/2007/CMLA2007-09.pdf
- Erwan Le Pennec (LPMA, Université Paris 7)
Titre: ``Bien représenter pour les problèmes inverses: l'exemple de l'estimation tomographique par needlets de Radon''
(en collaboration avec G. Kerkyacharian et D. Picard)
Résumé:
Dans les problèmes inverses, il faut souvent choisir une représentation bien adaptée à l'opérateur (SVD) ou une représentation bien adaptée aux signaux à estimer. Lorsque les vecteurs propres de la SVD correspondent à la base de Fourier, je montrerai pourquoi les ondelettes constituent souvent un très bon choix.
Dans l'estimation tomographique, les vecteurs propre de la SVD ne sont plus des éléments de la base de Fourier. Il s'agit alors de construire à partir de ces vecteurs propres une nouvelle représentation, adaptée à la fois à l'opérateur et aux images, la représentation en needlet de Radon.
On verra ensuite comment un simple opérateur de seuillage dans cette représentation permet de définir un estimateur d'une fonction à partir de sa transformée de Radon qui est minimax sur des classes de fonctions intéressantes.
Enfin une illustration numérique de ces résultats sera proposée.
- Cécile Louchet (MAP5, Université Paris Descartes)
Titre: ``Total Variation denoising using
posterior expectation''
Résumé:
Total Variation image denoising, generally formulated in a variational
setting, can be seen as a Maximum A Posteriori Bayesian estimate relying
on a simple analytic image prior.
In this formulation, the denoised image is the most likely image of the
posterior distribution, which favors regularity but produces staircasing
artifacts: in regions where smooth-varying intensities would be expected,
constant zones appear separated by artificial boundaries. In this talk,
we propose to use the Least Square Error (LSE) criterion instead of the
MAP, yielding a more realistic denoising method called TV-LSE. This new
filter, which amounts to compute the expectation of the posterior
distribution, can be implemented with a Monte-Carlo Markov Chain based on
Metropolis scheme. We discuss the properties of this filter, and show in
particular that it does not suffer from the staircasing effect.
- François Malgouyres (LAGA et L2TI, Université Paris 13)
Titre: ``Average performance of the sparsest
approximation using a general dictionary''
(joint work with Mila Nikolova)
Résumé: We consider the minimization
of the number of non-zero coefficients
(the l0 ``norm'') of the representation of a data set in terms
of a dictionary under a fidelity constraint. (Both the dictionary and
the norm defining the constraint are arbitrary.) This (nonconvex)
optimization problem naturally leads to the sparsest representations,
compared with other functionals instead of the l0 ``norm''.
Our goal is to measure the sets of data yielding a K-sparse solution -i.e.
involving K non-zero components. Data are assumed uniformly
distributed on a domain defined by any norm- to be chosen by the
user. A precise description of these sets of data is given and
relevant bounds on the Lebesgue measure of these sets are derived.
They naturally lead to bound the probability of getting a K-sparse
solution. We also express the expectation of the number of non-zero components.
- Lionel Moisan (MAP5, Université Paris Descartes)
Titre: Mise en correspondance de points
par méthode a contrario
(travail réalisé en collaboration avec Bérenger Stival)
Résumé: Nous dérivons et discutons
des critères
statistiques pour l'appariement automatique de points entre deux images,
sous diverses hypothèses de déformation, allant du simple mouvement
de translation à la déformation 3D générale (stéréovision).
- Sylvain Pelletier (CEREMADE, Université Paris-Dauphine)
Titre: ``Segmentation vidéo temps-réel
par méthode a contrario''
Résumé: On présente une nouvelle
méthode temps-réel pour détecter les objets en
mouvement dans un film vidéo tourné avec une caméra fixe.
D'abord, on utilise les lignes de niveaux pour comparer le fond avec
l'image courante, de manière à déterminer les pixels occultés par les
objets en mouvement.
Ensuite, on utilise la méthode générale de détection a contrario pour
détecter les groupements de pixels où il y a de forts changements.
Contrairement à la plupart des méthodes temps-réels, l'algorithme
consiste en une détection de régions, et non uniquement en une
classification fond/dynamique des pixels.
- Xavier Pennec (projet ASCLEPIOS, INRIA Sophia-Antipolis)
Titre: ``Statistics on manifolds for
computational anatomy''
Résumé: Computational anatomy is an emerging discipline that aim at analysing and modeling the biological variability of the human anatomy. The goal in not only to model the representative normal shape (the atlas) and its normal variations among a poulation, but also discover morphological differences between normal and pathological populations, and possibly to detect, model and classify the pathologies from structural anomalities. To reach this goal, the method is to identify anatomically representative geometric features (points, tensors, curves, surfaces, volume transformations), and to describe their statistical distribution. This can be done for instance via a mean shape and covariance structure after a group-wise matching. Then, in order to compare populations, we need to compare feature distributions and to test for statistical differences.
Unfortunately, geometric features often belong to manifolds that are not vector spaces. Based on a Riemannian manifold structure, we previously develop a consistent framework for statistical computing on manifolds which proves to be also usefull for a number of more classical image analysis problems (e.g. DTI processing). For computational anatomy, we used this framework to model the brain variability from a dataset of lines on the cerebral cortex. As a result, we obtained a dense 3D variability map which can be seen as the diagonal elements of the Green's function of the Brain accross subjects. We will first present new results which extend this modeling with non-diagonal element by computing significantly correlated regions in the brain. Finally, we will discuss some recent methods for computing statistics on diffeomorphisms and show how the computational advances they bring practically improves non-linear registration algorithm.
- Maël Primet (MAP5, Université Paris Descartes)
Titre: ``Suivi d'objets en mouvement :
revue et développements''
Résumé: Le suivi d'objets dans une séquence vidéo est un problème fréquemment rencontré dans les domaines de la vision et du traitement d'image,
de part ses nombreuses applications : pour le suivi de personnes ou de véhicules (surveillance), la compression des signaux vidéo (MPEG),
de nombreuses applications scientifiques (comptage et suivi de cellules), ou l'amélioration d'algorithmes existants (déflouage, super-résolution).
Nous nous proposons d'effectuer une revue des principaux cadres et algorithmes de suivi d'objets utilisés aujourd'hui (se basant sur des principes
d'optimisation ou sur des cadres statistiques), et de présenter des pistes de développement utilisant le cadre a contrario de Desolneux, Moisan et
Morel pour améliorer les algorithmes existants ou en proposer de nouveaux.
- Julien Rabin (TSI, Telecom Paris)
Titre: ``Des descripteurs locaux aux objets,
approches a contrario pour la mise en correspondance d'images''
(en collaboration avec Julie Delon et Yann Gousseau, TELECOM ParisTech)
Résumé: La représentation des images par
des descripteurs
géométriques locaux s'est imposée dans nombre d'applications comme la
détection d'objets, l'identification de scène, la reconstruction 3D,
la création de panorama, etc. Ces descripteurs sont généralement
construits autour de points d'intérêt, par exemple sous la forme
d'histogrammes locaux d'orientation du gradient de l'image (cas des
descripteurs SIFT proposés par D. Lowe), ce qui leur permet d'être
invariants ou robustes à de nombreuses transformations et altérations
de l'image.
Dans cet exposé, on s'intéresse à l'appariement de tels
descripteurs. Pour chaque descripteur d'un ensemble de requêtes, on
souhaite décider s'il ressemble ou non à certains descripteurs d'une
base de données. Dans la littérature, cette étape se résume souvent au
choix d'un seuil sur la distance euclidienne au plus proche voisin. La
procédure de mise en correspondance que nous proposons utilise d'une
part une distance de transport entre descripteurs et d'autre part une
approche a contrario qui permet de valider ou pas les mises en
correspondance. Cette approche fournit des seuils de validation qui
s'adaptent automatiquement à la complexité de chaque descripteur
requête et à la diversité de la base de données. Elle permet à la fois
de détecter plusieurs occurrences d'une même requête et de gérer
correctement les cas où aucune de ces requêtes n'est présente dans la
base de données. Aux appariements ainsi validés correspondent des
transformations dans le plan des images. La détection de groupes
géométriquement cohérents permet in
fine de reconnaître des "formes globales" entre les images
considérées.
- Frédéric Richard (MAP5, Université Paris Descartes)
Titre: ``Tests statistiques d'anisotropie
sur textures browniennes et applications en imagerie médicale''
Résumé: Nous présentons une méthode d'analyse de textures qui inclut de nouveaux tests statistiques d'anisotropie. Cette méthode, qui est basée sur des modèles de champs aléatoires browniens fractionnaires anisotropes, repose sur l'utilisation d'estimateurs de paramètres directionnels pour lesquels nous avons établi des résultats de convergence. Nous appliquons cette méthode à deux problèmes importants d'imagerie médicale : la caractérisation de la densité des seins à partir des textures mammographiques et la caractérisation de l'ostéoporose à partir des radiographies d'os.
- Nicolas Rougon (ARTEMIS, Telecom &er; Management SudParis)
Titre: ``Mesures d'informations
généralisées pour le recalage, la segmentation
et le filtrage statistique d'images''
Résumé: L'utilisation de mesures
d'information dans le cadre d'approches
variationnelles de recalage et de segmentation d'images a fait l'objet
d'actives recherches en vision par ordinateur et en imagerie médicale.
En raison de l'universalité du cadre de Shannon en l'absence de connaissances a priori, ces recherches se sont focalisés sur l'information mutuelle et sur des mesures entropiques dérivées. La pertinence de mesures d'information non Shannoniennes a toutefois été suggérée et investiguée dans des contextes restreints : recalage rigide par f-informations, segmentation par régions actives pour les flots de Bhattacharyaa, Hellinger et Renyi.
Dans cet exposé, nous présenterons une synthèse de nos travaux en vue
d'élaborer un cadre variationnel statistique de portée générale pour la
vision bas-niveau fondé sur la classe de mesures d'information d'Ali-Silvey.
Nous aborderons successivement :
- leur optimisation sur des espaces de transformations spatiales régulières (de dimension finie ou infinie), aboutissant à des modèles de recalage non rigide statistique;
- leur optimisation sur des espaces de formes régulières, conduisant à des
modèles (paramétriques ou non paramétriques) de régions actives statistiques (info-snakes); les différences avec des modèles dérivés d'approximations ergodiques des mesures associées seront en particulier discutées;
- l'application de flots de type info-snake à la décomposition morphologique d'une image en ensembles de niveau, débouchant sur des modèles non-locaux de filtrage statistique par EDP.
- Neus Sabater (CMLA, École Normale Supérieure de Cachan)
Titre: ``Meaningful Matches in Stereovision''
Résumé: Binocular stereo reconstruction algorithms aim at reconstructing a 3D model of a scene from two or more images acquired
from different angles. Assuming that the cameras are calibrated and the image stereo-rectified, our work focuses on the
correspondence process in a pair of stereo images.
We shall focus on the simplest and probably the most popular method, namely the block or patch matching, which compares
iteratively windows, or patches, of the left image with windows of the right image in an epipolar neighborhood.
Conventionally, manual thresholding is used to decide when a patch is similar to another. Because of occlusions we cannot presuppose
the existence of correspondences for any pixel in the image. Thus, a decision must be taken of whether a patch in the
left image actually meaningfully matches or not to its best match in the right image. We shall address this problem in
a statistical setting usually called the a contrario approach.
- Joseph Salmon (LPMA, Université Paris 7)
Titre: ``Survol sur l'agrégation
d'estimateurs en lien avec les NL-Means''
Résumé: Depuis leur introduction, la méthode
de débruitage d'image numérique par NL-Means a su prouver son efficacité
numérique. Les performances actuelles font de cette méthode un "état de l'art"
dans le domaine.
Pour autant, le cadre théorique des NL-Means reste en grande partie à
développer. Dans cette présentation, après avoir rappelé le fonctionnement
de la méthode elle-même, nous envisagerons une voie permettant de rendre
compte de son efficacité. Nous ferons donc un survol des techniques dites
"d'agrégation d'estimateurs " en abordant les points suivants: poids
exponentiels, optimalité et PAC-Bayesien, à la lumière des travaux récents
dans ce domaine.
- Alain Trouvé (CMLA, École Normale Supérieure de Cachan)
Titre:
Résumé:
- Nicolas Vayatis (CMLA, École Normale Supérieure de Cachan)
Titre: ``On ROC curves from the viewpoint
of statistical learning''
(joint work with Stéphan Clémençon, Telecom-ParisTech)
Résumé: Receiver Operating Characteristic
(ROC) curves were first introduced to measure the performance of detection
devices used in signal processing. Now, ROC curves have become a standard
tool for visualizing test results in medical diagnosis. These curves have
also been considered for assessing performance in ranking applications. In
the talk, I will present learning methods based on the optimization the ROC
curve and related performance measures.
- Tieyong Zeng (CMLA, École Normale Supérieure de Cachan)
Titre: ``Statistical approach for dictionary
learning''
(joint work with Alain Trouvé, ENS Cachan)
Résumé: This talk explores the dictionary learning problem. The developing point of view is to regard this problem as a parameter estimation problem in a family of additive generative models. The introduction of random on/off switches of Bernoulli activating or deactivating each element of a translation invariant dictionary to be estimated allows the identification under rather general conditions in particular if the coefficients are Gaussian. By using an EM variational technique and the approximation of the posterior distribution by mean field, we derive from an estimation principle by maximum likelihood a new effective algorithm of dictionary learning which one can connect for certain aspects with algorithm K-SVD. The experimental results on synthetic data illustrate the possibility of a correct identification of a source dictionary and several applications in image decomposition and image denoising.
|