![]() |
Projets sur financement de la Fondation Télécom mise à jour : 14 septembre 2011 |
![]() |
1 - Thèses Futur & Ruptures
2008 |
Sébastien François : Appropriations et transpositions amateurs des mass-médias sur Internet. directrice Dominique Pasquier | Alexandre Lung-Yut-Fong : Détection d'anomalies sur un réseau de capteurs - directeurs Olivier Cappé & Céline Lévy-Leduc |
Merhez Selmi :
Outils de traitement du signal
pour les réseaux optiques à haut débit |
Gui-Song Xia : Quelques méthodes géométriques d’Analyse statistique d’images et de textures -directeurs Yann Gousseau & Julie Delon | |
Anne Marie Hébert : Analyse ethnographique de la conception d'un jeu mobile multmédia - directeur Christian Licoppe | Magalie Prost : Les aspects affects de la coopération médiée - directrice Béatrice Cahour | |
2009 |
Milhad Sefidgaran : Communication et complexité - directeur Aslan Tchamkerten & Philippe Ciblat | Bert Buchholtz : Abstraction et traitement de masses de données 3D animées - directeur Tamy Boubekeur |
Anne Marin : Intrication dans les Réseaux d'Information Quantique - directeur de thèse Damian Markham | Simon Perrault : Techniques d'interaction pour les dispositifs miniaturisés de l'informatique mobile - directeurs : Yves Guiard, Eric Lecolinet | |
Abd-al-Bassir Abou-El-Ailah : amélioration des performances de compression du codage vidéo distribué - Directeur :Marco Cagnazzo | Irina Nemoianu : Codage réseau pour la diffusion de contenus vidéo de haute qualité - Directrice : Béatrice Pesquet | |
2010 |
Feryel Ben Abdallah : Modélisation et vérification formelle de la consommation d'énergie pour la conception des systèmes sur puces. - directeurs Ludovic Apvrille, Renaud Pacalet | Joe Ghalbouni : sources de photons intriques pour les communications quantiques - directrices Isabelle Zaquine et Eleni Diamanti |
Olivier Morillot : Reconnaissance de documents multilingues par Reseaux Bayesiens - directrice Laurence Likforman-Sulem | Dinh-Phong Vo : Variétés et Recherche d'Images - directeur Hichem Sahbi | |
Aude Guyot-Mbodji: Entre « sur mesure » et design global - directrice : Annie Gentes | Anais Vergne : Topologie algebrique pour le sensing en radio-cognitive - directeur Laurent Decreusefond | |
Jianfeng Yao : Estimation en grande dimension - directeurs Jamal Najim, Eric Moulines | Sylvaine Tuncer : Dispersion attentionnelle et multiactivité dans les activités professionnelles directeur Christian Licoppe | |
2011 |
Aloizio Pereira - Compilation orientée énergie - directeur Gérard Memmi | Yafei Xing : Codage vidéo pour l'holographie numérique 3D -directeur Frédéric Dufaux |
Gemma Morral : Optimisation stochastique distribuée dans les réseaux de capteur - directeur Pascal Bianchi | Giovanni Cherchia : Compression & networking solutions for interactive multiview streaming - directeur Marco Cagnazzo | |
Quin Hao : Sécurité pratique des systèmes de cryptographie quantique - directeur Romain Alléaume | Antoine Saillenfest : Modélisation de l'intérêt dans le récit fictionnel - directeur Jean-Louis Dessalles | |
Rupesh Kumar : système de localisation indoor pour l'aide à la télésurveillance - directeur Jean- Christophe Cousin |
2 - Projets courts : postdocs et sabbatiques
2008 |
Projet DACOMS Distributed Asynchronous Codes for wireless Mesh- Ghaya Rekaya Ben Othman | Projet i-GATE : Internet - Game theritical Analysis of Traffic Engeineering mechanisms - Jean-Louis Rougier |
Projet ICOX : Intégration de la conscience contextuelle dans les communications du futur Houda Labiod et Hassam Afifi | Projet "Information Dffusion within Social Networks" : Stéphan Clémençon | |
Projet TSIFIQ : Traitement du Signal pour les finances quantitatives - Eric Moulines | MOGI : la proximité à distance : ethnographie des usages d'une communauté géolocalisée au Japon - Christian Licoppe | |
2009 |
Sabbatique d'Alain Bretto : Hypergraphes : de la modélisation du contenu à la représentation des connaissances- Soufiane Rital | Sabbatique de Dr Naofumi Homma : Security Evaluation Techniques for Cryptographic Modules - Jean-Luc Danger |
Primitives cryptographiques quantiques dans des environnements réalistes - Eleni Diamanti | Métaverses coopératifs - Françoise Détienne | |
2010 |
Postdoc d'Adrien Saumard : Meta Ranking : Ranking et sélection automatique de modèle - Stephan Clémençon et Patrick Gallinari | Postdoc de Clara Lamiraux : Écologies de la lumière. Innovations et expérimentations en éclairage public urbain -Jérôme Denis |
Postdoc de Ken Prepin : Modélisation et test d'une intersubjectivité entre agent conversationnel animé et utilisateur - Catherine Pélachaud | Postdoc d'Amy Frettas : Micralingua : TIC et pratiques linguistiques des migrants : le cas de la traduction numérique -Dana diminescu | |
PostDoc Philippe Lacour : TraduXio : une plateforme pour la traduction collaborative de précision - Annie Gentès | Postdoc de Julien Figeac : De proche en proche. L’impact de la géolocalisation sur les pratiques de communication - Christian Licoppe | |
2011 |
Agile RF Receiver for future Wireless Communication Systems - VanTam Nguyen | Théorie des jeux et gestion des risques - Jean Leneutre |
Visio & Justice Comparaître à distance. Les usages de la visioconférence dans la sphère judiciaire : Christian Licoppe |
1 - Thèses
TII/TSI /Télécom ParisTech
Thèse sous la direction de Tamy Boubekeur
Débutée le 16/09/2009, soutenance à mi parcours : à venir
soutenance à mi-parcours le : document, rapport
Titre :
Abstraction et traitement de masses de données 3D animées
Ce travail concerne la
manipulation et le traitement de très grands ensembles de données pour
l’animation graphique, la synthèse d’image et la réalité virtuelle.
Travail ayant déjà donné lieu à 2 présentations en conférences et de 2 articles
actuellement soumis et en cours de reviewing :
·
Paramétrisation
de lignes animées en 3D : un article soumis à
une conférence/journal
·
Modèle Analytique de Squelette de Formes 3D pour le traitement
et l'édition 3D : un article soumis
Tous les projets publiés,
soumis ou en cours de développement (cf. rapport thèse à mi-parcours) sont
accompagnés de programmes implémentant et démontrant les algorithmes proposés,
parfois même d'outils 3D complets reposant sur les articles.
Trois types de résultats ont
été obtenus jusqu’à présent :
1.
Une partie, intitulée “Hybrid Binary Shading” concerne la
génération des images avec une forte
réduction du nombre de couleurs. Elle est motivée par des usages artistiques,
pour faire de la stylisation, pour respecter les contraintes d’écran ou pour
une meilleure représentation visuelle. Dans le cas traité c’est une réduction
jusqu’à deux couleurs qui donne des images binaires.
2.
La paramétrisation de lignes de
manière temporellement cohérente est intéressante pour de nombreux domaines
mais particulièrement pour les dessins animés. Dans les dessins animés générés
par ordinateur, les lignes sont normalement les contours des objets de la
scène. Souvent, ces lignes ne sont pas seulement dessinées par un trait de la
même couleur et la même épaisseur, mais par des traits variants
(en utilisant des textures) pour ressembler à des dessins d’un artiste humain.
Pour cela, une paramétrisation des lignes est
nécessaire. La méthode, présentée ici à cet objectif. Elle suit les travaux de Kalnins qui a le même objectif mais propose une technique temps réel. Celle-ci ne peut donc pas prendre
en compte la partie de l’animation future et ainsi ne peut pas trouver une
solution globalement optimale mais juste une solution d’une trame à l’autre.
3.
Il existe plusieurs représentations volumiques d’un maillage 3D,
notamment la méthode utilisant une grille régulière 3D (hexaèdres) alignée avec
les axes à l’intérieur et une subdivision plus fine près de la surface
approximée. Une autre méthode est la tétraédrisation,
qui rempli le maillage avec des tétraèdres sans avoir à approximer la surface.
Le désavantage de la tétraédrisation par rapport à la
hexaédrisation, est qu’il n’y a pas d’ordre à
l’intérieur du maillage. Notamment dans le but d’appliquer des traitements
interactifs et de paramétrer l’intérieur, cela peut être problématique. Nous
avons proposé une représentation volumique qui soit dérivée de la surface et
qui continue vers l’intérieur d’une manière facilement compréhensible pour
faciliter l’utilisation interactive.
Bibliographie :
Binary Shading Using Appearance and Geometry
http://perso.telecom-paristech.fr/~boubek/papers/BSAG/
Auteur(s) : Bert Buchholz, Tamy Boubekeur, Doug DeCarlo et Marc Alexa
Revue: Computer Graphics Forum Journal
Date : Août 2010
Clé de citation: BBDA-CGF-2010
Catégorie : Article de revue avec comité de lecture
État: publié
Curve Skeleton from Topological Disks & Cylinders
Decomposition
http://perso.telecom-paristech.fr/~boubek/papers/Skel/
Auteur(s) : Jean-Marc Thiery, Tamy Boubekeur et Bert Buchholz
Conférence : ACM SIGGRAPH/Eurographics
Symposium on Geometry
Processing 2010 - Poster Session.
Date : Juin 2010
Clé de citation: TBB-2010
Catégorie : Article de colloque avec actes
État: publié
SES Télécom ParisTech
Thèse sous la direction de
Dominique Pasquier
Débutée le 06/10/2008
soutenance à mi-parcours le 29/03/2010 : document, rapport
Titre :
Appropriations et transpositions amateurs des mass-médias sur
Internet. Deux études de cas : les fanfictions et les
vidéos amateurs
L’objectif de cette thèse est
d’étudier les fan-fictions et des vidéos d’amateurs inspirées d’Harry Potter,
c'est-à-dire d’un très important corpus directement disponible sur le web. La
présentation faite lors de l’évaluation à mi parcours a permis de dégager 2
contributions principales :
1.
Tout d’abord le problème de l’historicité des phénomènes de
reprise (que ce soit des pastiches ou des produits dérivés) et des politiques auctoriales qui mettent en évidence des règles beaucoup plus souples et
permissives que pour les documents traditionnels, qui, en obéissant à des
contraintes techniques et sociétales très différentes, vont jusqu’à une rupture
des codes de l’imprimé.
2.
Ensuite l’auteur aborde le problème de l’articulation
entre
une analyse du corpus en termes d’expression de soi et en termes de stratégies auctoriales.
Publications :
Fanf(r)ictions. Tensions identitaires et relationnelles chez les
auteurs de récits de fans
Auteur(s) : Sébastien FRANCOIS
Revue: Réseaux
Date : Janvier 2009
Réf. : vol. 27, n° 153, pp. 157-189
Clé de citation: SF:RES-09
Catégorie : Article de revue avec
comité de lecture
État: publié
L'appropriation des contenus audiovisuels : les enseignements des fanfictions
Auteurs : FRANÇOIS Sébastien
(2008), «»,
Revue : Observatoire des
média de l’INA, dossier « L'avenir de l'audiovisuel passe-t-il par le web ?
»,
mis en ligne le 12 décembre 2008 sur
le site :
http://www.ina-sup.com/ressources/dossiers-de-laudiovisuel/lappropriation-des-contenus-audiovisuels-les-enseignements-des-f
SES Télécom ParisTech
Thèse sous la direction de
Christian Licoppe
Débutée le 01/10/2008
soutenance à mi-parcours le 29/03/2010 : document, rapport
Titre : Analyse ethnographique de la conception d'un jeu mobile multmédia (An ethnographic study of a musical video game design)
The purpose of this ethnographic study is to understand how creativity is achieved through collaboration between designers and in which interactional frameworks. This will be done through an ethnographic study of a video game design.
At a macroscopic level, our research aims to understand how the design process unfolds in terms of design organization, in terms of social aspects of the team design and design artifacts.
We will approach this aim with a macroscopic analysis of the whole design organization. This structural analysis of design organization will encompass three levels: prototypes, themes and iterative cycles. In social aspects of design, we will consider the various participants involved in design, their expertise, rights and access to design data and their affiliation to the design project. Finally, artifacts will be analyzed through the whole design organization in terms of characteristics as well as their uses and functions.
At a fine-grain level of specific interactions, our research aims to understand how creativity is achieved through collaboration between designers and in which collaborative interactional frameworks. From a design process perspective we will consider that collaborative processes involve symmetric contributions in information pooling, design ideas generation, evaluation and argumentation as well as regular exchanges in interactive positions (e.g. shift between idea generation and evaluation). One question will be to understand at a fine grain level these collaborative processes in a naturalistic project of creative design.
At this level, the originality of our approach will be to articulate a content analysis with an interactional analysis. The interactional mechanisms entailed in collaborative and creative design are sparely analyzed in the literature. However, an approach based on participation framework and production formats (Goffman, 1981; Goodwin and Goodwin, 2004) could highlight how participants guide their „delivery‟ in design. For example this approach can serve as a structural basis for analyzing changes in footing regarding the production format: the animator (someone whose talking), the principal (someone whose position is established by the words that are spoken) and the author (someone who has selected words and sentiments expressed). One question will be to understand the different production formats involved in collaborative creative moments characterized by specific collaborative processes and specific uses of surfaces.
TSI/STA /Télécom ParisTech
Thèse sous la direction
d’Olivier Cappé et Céline Lévy Leduc
Débutée le 25/09/2008
soutenance à mi-parcours 30/03/2010 document rapport
Titre : Détection d'anomalies à partir de mesures collectées par un réseau de
capteurs et application à la détection d'attaques dans le trafic Internet
La détection d'anomalies est
une problématique importante ; les applications sont nombreuses : le contrôle
de qualité, la détection de fraudes bancaires, le diagnostic médical, etc. Nous
nous intéressons particulièrement à la sécurité des infrastructures de réseaux
informatiques. Les systèmes de détection d'intrusion (Intrusion Detection Systems, ou IDS) permettent de repérer les comportements
anormaux visant un réseau ou un hôte, résultant la plupart du temps d'attaques
ayant un but malveillant.
De nombreuses solutions de détection
d'intrusion ont été proposées, Ces méthodes sopnt
dites centralisées ; les données sont collectées en plusieurs emplacements d'un
réseau, mais elles sont toutes transmises sans traitement à un unique point qui
effectue l'analyse des données. La quantité de données circulant dans un réseau
pouvant être immense, cette centralisation peut poser plusieurs problèmes. Des
méthodes permettant de diminuer les échanges réseau et le temps de calcul sont
donc nécessaires à partir du moment où le réseau
atteint
une certaine échelle. Nous nous sommes jusqu'à présent intéressés à une
approche que l'on peut qualifier de « semi-décentralisée ». Dans cette
approche, les sondes filtrent l'information localement et envoient cette
information filtrée à un collecteur central qui prend la décision finale concernant
la présence éventuelle d'une anomalie.
Nous avons adopté 2 approches
différentes :
1.
Le TopRank décentralisé, qui reprend
une méthode centralisée qui avait été développée à l’école et l’étend au cas
distribué. Le TopRank distribué obtient de bons résultats
comparé à une méthode plus simple utilisant la correction de Bonferroni, et les performances sont à peine dégradées par
rapport au TopRank non décentralisé, pour une économie
notable de trafic échangé.
2.
Un tests d'homogénéité et de détection
de changement pour données multivariées. Les efforts
portent actuellement sur les performances de cette approche.
Bibliographie :
Robust
Changepoint detection based on multivariate rank statistics
Auteur(s) : A. Lung-Yut-Fong, C. Lévy-Leduc et Olivier Cappé
Conférence : IEEE Int. Conf. Acoust.,
Speech, Signal Processing (ICASSP)
Lieu:
Prague, Czech Republic
Date : Mai 2011
Clé de citation: 11-lung-icassp
Catégorie : Article de colloque avec
actes
État: publié
Distributed detection/localization of change-points in
high-dimensional network traffic data
Auteur(s)
: A. Lung-Yut-Fong, C.
Lévy-Leduc et Olivier Cappé
Revue: Statistics
and Computing
Date : Février 2011
Clé de citation: LYF:StatComp-2011
Catégorie : Article de revue avec
comité de lecture
État: à paraître
Distributed detection/localization of network
anomalies using rank tests
Auteur(s)
: A. Lung-Yut-Fong, C.
Lévy-Leduc et Olivier Cappé
Conférence : IEEE Workshop on Statistical Signal Processing, 2009
Lieu:
Cardiff, UK
Date : Septembre 2009
Réf. : pp. 749-752
DOI: 10.1109/SSP.2009.527846
Clé de citation: LYF-DistTop-2009
Catégorie : Article de colloque avec
actes
État: publié
Détection et localisation
décentralisées d'anomalies dans le trafic internet
Auteur(s) : A. Lung-Yut-Fong, Olivier Cappé, C.
Lévy-Leduc et François Roueff
Conférence : GRETSI
Lieu: Dijon, France
Date : Septembre 2009
Clé de citation: LYF-DistTopGretsi-2009
Catégorie : Article de colloque avec
actes
État: publié
A Regularized Kernel-based Approach to Unsupervised
Audio Segmentation
Auteur(s)
: Z. Harchaoui, F. Vallet, A. Lung-Yut-Fong et O. Cappé
Conférence : ICASSP 2009
Lieu: Taiwan
Date : Avril 2009
Réf. : pp. 1665--1668
DOI: 10.1109/ICASSP.2009.495992
Clé de citation: HVLC:ICASSP:09
Catégorie : Article de colloque avec
actes
État: publié
SES /Télécom ParisTech
Thèse sous la direction de Béatrice
Cahour & Françoise Détienne
Débutée le 19/12/2008
soutenance
à mi-parcours 22/06/2010
Titre : Les aspects affects de la coopération médiée
: étude des interactions et de l'expérience vécue dans le support social en
ligne
Les organisations du travail et
les technologies évoluent et ont des répercussions à différents niveaux. Les
lieux de partage social dans les entreprises tendent à disparaitre et les professionnels
doivent trouver de nouveaux moyens de gérer les situations de travail
difficile. Cette thèse fait tout d’abord le bilan des modes de coping dont ceux-ci disposent pour gérer la pénibilité mentale.
Les stratégies de coping correspondent aux
stratégies, plus ou moins conscientes, que les personnes mettent en place pour
gérer des situations d’inconfort émotionnelles. Les stratégies de coping permettent ainsi la gestion et la résolution de vécus
difficiles. Les recherches sur ces thèmes montrent que ces processus sont liés
à la personnalité de l’individu et à ses interactions avec son entourage. Le
soutien social est un outil qui aide à redéfinir son travail par rapport à ses
objectifs, ses compétences et ses valeurs, pour redonner du sens à son travail.
En ce sens, il peut être considéré comme une stratégie de coping.
Les professionnels ont investi, depuis peu, les forums de discussion sur
lesquels ils échangent leur vécu de situations de travail problématiques. Les
forums peuvent être considérés comme le reflet de ce qui met en péril
l’équilibre des professionnels. Nous nous sommes donc particulièrement
intéressées au soutien social entre professionnels sur les forums de discussion.
Activités :
o
Communication orale, Journées Scientifiques de Nantes, 7 juin 2010.
o
Communication affichée, ECCE European Conference on Cognitive Ergonomics
2010, 25-27 août, Delft, Pays-Bas
o
Communication orale, 45ème congrès SELF « Fiabilité, adaptation et résilience »
du 13 au 15 septembre 2010, Liège, Belgique.
o
1 mois au laboratoire School of Education de l’université
de Nottingham (accueil : Charles Crook) (fin d’année
2010)
Bibliographie :
PROST M., CAHOUR B. & DETIENNE F. (à paraître). « Collectifs virtuels de soutien entre professionnels : formes des échanges et vécus associés », in Henri Boyer (Ed.), Au fil des discussions : les forums et l’engagement social via internet, coll. Langue et Parole, Paris : L’Harmattan.
PROST M., CAHOUR B. & DETIENNE F. (2010). « Le soutien mutuel sur le Web : un nouveau mode d’adaptation aux vécus professionnels difficiles ? » 45ème congrès de la SELF, Liège, Belgique, septembre 2010.
PROST M., CAHOUR B. & DETIENNE F. (2010). « Analysing online social support between professionals », communication affichée, ECCE, Delft, Pays-Bas, août 2010.
PROST M., CAHOUR B. & DETIENNE F. (2010). « Modes de construction collective du soutien social sur le Web » communication orale, Nantes, France, juin 2010.
Comelec/Comnum /Télécom ParisTech
Thèse sous la direction d'Aslan
Tchamkerten
Débutée le O5/10/2008
soutenance
à mi-parcours 16/03/2011
Titre : Communication et complexité
Assume a sensor network with a directed tree configuration constituted of sensors that have local measurements and a root who wants to compute a function of these measurements. What is the minimum number of bits needed to be communicated from these sensors toward the root within the defined configuration? Obviously this amount may be less than the case where the root wants to recover all the measurements, but what is the minimum amount of bits to be transmitted for enabling the reliable function computation at root, given to the function, joint probability distribution of measurements and the node configuration?
In this thesis we consider the problem of finding the minimum number of bits needed to be transmitted for recovering a function of correlated sources with high probability. We consider different configurations. One we considered is the Slepian-Wolf configuration which is one of the sub-configurations that can be seen in networks. We have derived inner and outer bounds for the union region of rate1 pairs that lead to reliable function computation at receiver in this configuration which depend on the function and joint probability distribution of random variables and we have shown that the achievable rate region is tight in some special cases.
The results we derived is for the problem of computing a function of correlated sources. More precisely, a receiver wants to compute a function f of two correlated sources X and Y and side information Z. What is the minimum number of bits that needs to be communicated by each transmitter? This setting extends the Orlitsky-Roche setting to multiple sources. We first establish an outer bound to the rate region by simply applying the converse result of Point-to- Point communication with side information at receiver in [16]. Then we propose an inner bound. Although this inner bound is not tight in general, we show that it is tight for the case where X is inferable, i.e., when X is a function of f(X; Y;Z) and Z, and for the case where Y is constant. In the latter case, we recover Orlitsky and Roche’s result.
Publications :
M. Sefidgaran, A. Tchamkerten, Computing a function of correlated sources: a rate region. Submitted to ISIT 2011.
Comelec/Comnum & GTO /Télécom ParisTech
Thèse sous la direction de Philippe
Ciblat et Yves Jaouen
Débutée le 22/10/2008
soutenance
à mi-parcours 08/07/2010
Titre : Outils avancés de traitement du signal pour les réseaux optiques à
haut débit
Les nouvelles générations de systèmes de communications optiques à très haut débit, de type 100G‑Ethernet sont basées sur l'utilisation de modulations multi-états combinée à une détection cohérente. L'accroissement de la vitesse des convertisseurs analogiques/numériques et des circuits électroniques permet aujourd'hui d'effectuer le traitement numérique du signal associé à cette détection cohérente. Compte-tenu des défis à relever, les premiers algorithmes de traitement de signal, rudimentaires dans leur principe mais très innovants pour le domaine des communications optiques commencent à être implantés physiquement avec des circuits électroniques dédiés. La thèse s'est principalement focalisée sur des systèmes optiques cohérents utilisant des modulations à haute efficacité spectrale (format QAM), ce qui induit une sensibilité accrue aux sources de dégradations, et un besoin d’algorithmes plus performants pour combattre les sources de dégradation et donc plus complexes tant d'un point de vue conceptuel que d'un point de vue implémentation.
Les principaux résultats obtenus concernent
1- Détermination précise du résidu de fréquence
La dérive en fréquence des lasers peut être compensée dans le domaine électrique. Les estimateurs de résidu de fréquence développés pour les systèmes QPSK ne sont pas toujours suffisamment performants pour les systèmes QAM. Pour les QAM, nous avons montré que l'estimateur basé sur la maximisation du spectre des échantillons à la puissance 4 (conçu à l'origine pour des QPSK) avait encore un sens et pouvait être implémenté en deux étapes [1]:
- Détection du maximum du périodogramme du signal élevé à la puissance 4 (précision en 1/N2)
- Calcul de la fonction coût autour de ce maximum combiné à un algorithme de descente
de gradient (précision en 1/N3)
Il faut noter que la seconde étape est primordiale et n'était pas réalisée jusqu'à présent en optique.
2- Egalisation adaptative
Le phénomène de biréfringence résiduelle dans les fibres engendre le mélange des signaux à la réception, la dispersion de polarisation (PMD) ajoutant une distorsion des signaux durant la propagation. L’algorithme CMA permet de combiner la séparation de source et la compensation des effets de dispersion (PMD et dispersion chromatique résiduelle). La valeur du paramètre d'adaptation µ dans une implémentation adaptative du CMA résulte d’un compromis entre vitesse de convergence et précision. Une version (elle-même) adaptative du calcul du paramètre µ (algorithme pseudo-Newton) a permis d’accroître les performance du CMA [2]. Il a été étudié dans le cas du canal optique où la PMD fluctue.
3- Egalisation bloc
La vitesse des circuits de traitement électroniques impose de paralléliser le traitement électronique des signaux et donc de les traiter finalement par bloc. L’égalisation par bloc permet également d’accroître l’estimation de la statistique du signal. Des versions CMA bloc à µ fixe et µ variable ont été proposés et comparés au CMA adaptatif. Les résultats montrent un temps de convergence fortement diminué sans perte de précision [3, 4]. Il est à noter que la convergence du CMA bloc est accrue d’un facteur ~10 pour une augmentation de la complexité de traitement d’un facteur ~4 [5].
4- Résultats expérimentaux
Les algorithmes développés ont été validés sur des signaux obtenus expérimentalement sur une plateforme de transmission (collaboration HHI Berlin). Les signaux sont enregistrés au moyen d’un oscilloscope temps-réel 4 voies (signaux I&Q sur 2 polarisations orthogonales). Des signaux 8-PSK 60Gb/s et 16-QAM 200Gb/s multiplexés en polarisation ont été analysés suivant différents scénarios (sensibilité OSNR, compensation de la dispersion chromatique en ligne, effets non-linéaires, …). Un ensemble d’outils de traitement de signal pour l’analyse des signaux réels (ré-échantillonnage des signaux, compensation de la dispersion chromatique par filtre FIR, récupération de porteuse, synchronisation, décision et comptage d’erreur) ont également été développés. Notre participation au NoE EUROFOS nous a permis de confronter les performances de nos nouveaux algorithmes avec d’autres laboratoires.
Bibliographie :
Block versus Adaptive MIMO Equalization for Coherent PolMux QAM Transmission Systems
Auteur(s) : M. Selmi,
Ph. Ciblat, Christophe Gosset et Yves Jaouën
Conférence : European
Conference on Optical Communications (ECOC)
Lieu: Turin (Italie)
Date : Septembre 2010
Clé de citation: scjg:ecoc2010
Catégorie : Article de colloque avec
actes
État: publié
Pseudo-Newton based equalization algorithms for QAM
coherent optical systems
Auteur(s)
: Mehrez Selmi, Philippe Ciblat, Yves Jaouën et Christophe
Gosset
Conférence : Optical fiber conference (OFC 2010)
Lieu: San Diego (USA)
Date : Mars 2010
Réf. : vol. paper OThM3
Clé de citation: YJ:OFC10
Catégorie : Article de colloque avec
actes
État: publié
Accurate digital frequency offset estimator for
coherent PolMux QAM transmission systems
Auteur(s)
: M. Selmi, Y. Jaouën et P.
Ciblat
Conférence : European
Conference on Optical Communications (ECOC)
Lieu: Vienne, Autriche
Date : Septembre 2009
Réf. : n° paper
P3.08
Clé de citation: YJ:ECOC2009-2
Catégorie : Article de colloque avec
actes
État: publié
(soumis :
M. SELMI, C. GOSSET, M. NOELLE, P. CIBLAT and Y. JAOUEN, "Blockwise digital signal processing for PolMax QAM/PSK optical coherent systems" Submitted to IEEE Journal of Lightwave Technology.
M. SELMI, P. CIBLAT, Y. JAOUEN and C. GOSSET "Complexity analysis of block equalization approach for PolMux QAM coherent systems" Submitted to SPPcom 2011.
TII/TSI /Télécom ParisTech
Thèse sous la direction de Yann
Gousseau et Julie Delon
Débutée le 10/07/2007
soutenance
à mi-parcours 24/11/2009
soutenance
finale le 16/03/2011
Titre : Sur quelques méthodes géométriques d’Analyse statistique d’images et de
textures
La thèse a donné lieu à
plusieurs contributions originales dans des domaines relativement variés, tous
utilisant des propriétés géométriques et structurelles soit des lignes de
niveaux dans les images naturelles, soit de la grandeur duale, l’orientation du
gradient. Les contributions sont de 3 types :
1.
Tout d’abord un nouveau schéma d’analyse des textures est
proposé, qui s’appuie sur la carte topographique (une organisation en arbre de
l’image). Ce schéma permet en particulier d’obtenir une description invariante
aux déformations de « drappé », permettant
donc de retrouver, avec des performances remarquables les textures dans des
bases de données. Ces modèles de texture permettent également de segmenter une
scène sur des propriétés de texture ce qui les rendent particulièrement utiles
pour de nombreuses applications (imagerie aérienne, imagerie médicale).
2.
On tire profit de cette carte topographique pour proposer une
méthode, originale également, pour représenter de façon schématique et
abstraite l’image. Cette même méthode permet également de créer des images de
synthèse respectant un « style » imposé. Cette approche permet de
plus d’intéressants résultats en débruitage et
restauration.
3.
Enfin on propose une technique de détection des jonctions dans
les images, ces jonctions étant des points importants pour décrire l’image. La
méthode proposée relève des techniques stochastiques dites « a
contrario » et reposent sur des principes identiques à la théorie de la Gestalt
dans la vision humaine. Cette méthode qui n’est régit que par un seul paramètre
est insensible aux phénomènes d’échelle, de rotation ou de contraste et dépasse
largement en performances les méthodes concurrentes
Démonstration
en ligne :
http://perso.telecom-paristech.fr/~xia/texture.html
Bibliographie :
Shape-based
Invariant Texture Indexing
Auteur(s) : G.-S. Xia, J. Delon et Y. Gousseau
Revue: International Journal of Computer Vision
Date : Juillet 2010
Réf. : vol. 88, n° 3, pp. 382-403
DOI: 10.1007/s11263-009-0312-3
Clé de citation: XDG:IJCV-09
Catégorie : Article de revue avec comité de lecture
État: publié
Invariant texture indexing
using topographic maps
Auteur(s) : G.-S. Xia, J. Delon et Y. Gousseau
Références : Telecom ParisTech
Date : 2009
Réf. : n° 2009D007
Clé de citation: XDG:pre09
Catégorie : Rapport de recherche (rapport interne)
État: soumis
Locally Invariant Texture Analysis from the
Topographic Map
Auteur(s)
: G.-S. Xia, J. Delon et Y. Gousseau
Conférence : ICPR 08
Lieu: Tampa, Etats-Unis
Date : Décembre 2008
Clé de citation: GSX:ICPR08
Catégorie : Article de colloque avec
actes
État: publié
RMS/InfRes /Télécom ParisTech
Thèse sous la direction de
Damian Markham et Gilles Zémor (Université de Bordeaux)
Débutée le 11/2009, soutenance à mi parcours : faite
soutenance à mi-parcours le : document, rapport
Titre : Intrication dans
les Réseaux d'Information Quantique
L’intrication est une propriété spécifique à l’information quantique et est au coeur des ressources potentielles pour transmettre et coder de l’information quantique. Néanmoins, nous sommes loin d’en connaitre toutes les conséquences. En outre, l’information quantique est appliquée à de plus en plus de protocoles cryptographiques, tel le partage de secret qui constitue la première grande partie d’étude de ma thèse. Pour cela nous utilisons des « états-graphes » qui sont des états intriqués, parmi les plus simples à implémenter et les plus largement étudiés, du fait de leur structure simple. Basé sur le précédent travail , nous pouvons explorer plusieurs domaines : la théorie des codes afin d’identifier et de classer les schémas (im)possibles de partage de secret en fonction de leurs paramètres, la théorie des graphes afin de caractériser les « flow »d’information correspondants dans un graphe, et les protocoles de cryptographie afin d’imaginer de nouvelles applications pouvant elles-mêmes impliquer de nouvelles propriétés.
The research in
this thesis is aimed at the development of quantum information networks. Quantum
information offers great benefits, including absolute security in cryptography
and exponential speed up in computation. So far however, the main focus of
research in quantum information has either been on a single two party protocol
(quantum key distribution) or understanding the power of a quantum computer (and
its implementation). In the same way that the internet is much more powerful
than a single computer and any single two party protocol, we can expect that
quantum networks has much more to offer. Therefor we look at what can be done
with more involved quantum networks where several devices of varying power
communicate via different means and protocols and to different ends.
Our approach is to focus on schemes using a particular set of quantum states
known as 'graph states'. Graph states are a class of quantum states which are
both strong candidates for implementation (the highest number of entangled
systems we have are graph states), and have a particularly elegant formalism
where a quantum state is in one to one correspondence with a simple undirected
graph (bringing a rich mathematical structure). Almost all quantum information
processing schemes so far can be phrased in terms of graph states, making them
the ideal candidate, theoretically and experimentally, to act as resources for a
future quantum network of integrated tasks.
So far in this thesis a generalization of known secret sharing using graph
states has been made to cover all possible access structures, paving the way for
the use and integration of secret sharing schemes into general network tasks
(submission to QCYPT 2011 now in progress). This has involved connecting several
different areas of mathematics and quantum information, including graph theory,
quantum error correction and quantum key distribution. As such it has led to
interaction with several groups across France and further afield. The next steps
will be to develop the language of Flow to integrate secret sharing to other
protocols such as blind quantum computation and multi-party secure computation.
At the same time we work with experimentalists (in Telecom ParisTech and in
Calgary Canada) on implementing proof of principle experiments.
Activities:
- Work with Gilles Zémor in University of Bordeaux-1.
27-29 July 2010.
- SMS 2010-Advanced School in Quantum Information Processing and Quantum
Cryptography in Montreal. 21 June - 2 July 2010.
- Invited work at Quantum Information team of LIG in Grenoble. 29 Nov - 3 Dec
2010.
- Poster Presentation at GDR-IQFA Colloquium in Nice. 23-25 March 2011.
- Teaching for computer science labwork (C Langage and Operating System). First
Semester 2010-2011.
- (current) Submission of an article to QCRYPT Conference in Z¨urich. 12-16 Sept
2011.
2 - Projets courts : Post-Docs et Sabbatiques
Rapport : Ghaya Rekaya-Ben Othman
Main results
DACOMS project was enrolled in the context of “Futur et Rupture” projects of the Scientific Direction of Institute TELECOM, from February 2009 to May 2010.
The project finances a post-doctoral research position for Miss Mireille Sarkiss.
The research work addressed mainly the construction of new delay-tolerant space-time codes for ad-hoc sensor networks and cooperative networks. In such systems the synchronism hypothesis is not still valid like in point to point communications. Unfortunately, the perfect codes which are optimal codes in synchronous MIMO transmission loose their full diversity, and so their optimality in presence of delays.
In this work, we construct new delay-tolerant distributed codes based on the perfect codes algebras from a different point of view. The new construction is obtained from the tensor product of two number fields, one of them being the field used for the perfect code. The codes are designed in such a way to maintain the same properties of their corresponding perfect codes namely full-rate, full-diversity and non-vanishing minimum determinant for both cases, synchronous and asynchronous transmissions.
We propose new delay-tolerant space-time codes for dimensions M = 2, 3 and 4. We prove the full-rankness of the shifted matrices for arbitrary delay profiles ans so we guaranteed the delay-tolerance of these codes. We study the performance of the proposed codes through simulation results, for example we have shown 5dB gain of the proposed code compared to the perfect code 3X3 in asynchronous transmission.
The last two months of the project were dedicated to the study of fast-decodable space-time codes. Linear high rate space-time codes, like perfect codes, are decoded using a Sphere Decoder. The complexity of this decoder remains prohibitive specially when higher modulations are involved and higher number of antennas is used. Full-rate, full-diversity space-time codes have been recently developed in the aim of reducing the ML decoding complexity. We were interested in such code design, and we have made a review of the main fast-decodable codes proposed in the literature (Silver Code, Sezginer-Sari Code, Srinath- Rajan Codes...).
Publications
M. Sarkiss, G. Rekaya.-Ben Othman, M. O. Damen, and J-C. Belfiore, Construction of new delay tolerant space-time codes In Proceeding of IEEE International Symposium Personal, Indoor, Mobile Radio Communications, September (PIMRC) 2010.
M. Sarkiss, G. Rekaya-Ben Othman, M. O. Damen, and J-C. Belfiore, Construction of new delay tolerant space-time codes accepted in IEEE Transactions on Information Theory, available at http://arxiv.org/list/cs.IT , 2010.
Project ICOX : Intégration de la connaissance contextuelle dans les communications du futur
Rapport : Houda Labiod, Infres / RMS Telecom ParisTech, Hossam Afifi, Telecom SudParis
Résultats Principaux
Dans le cadre du projet ICOX nous avons traité principalement deux problèmes en intégrant la connaissance contextuelle (context awareness) :
le routage dans les réseaux ad hoc,
l’allocation de contenus dans les serveurs de partage de Vidéo pair à pair (P2P).
La
majorité des travaux concernant la connaissance contextuelle portent sur des
propositions dédiées aux couches hautes et applicatives. Cependant,
l’exploitation d’informations mises à jour sur le réseau, les noeuds, les
applications utilisées ainsi
que sur l’utilisateur peut être extrêmement bénéfique pour le routage. Ainsi, le
choix de routes devient plus précis et plus optimal. La solution que nous
proposons prend en compte la notion de connaissance contextuelle dans les
décisions de routage, permettant ainsi l’optimisation et l’adaptation de
l’utilisation des ressources réseau.
Nous avons proposé ainsi le
protocole CAMIR (Context Aware Mulipath reactIve Routing protocol), et nous
avons focalisé nos travaux sur les configurations ad hoc
de type MANET (Mobile Ad hoc NETwork) et DTN (Delay Tolerant Network). Les
réseaux DTN entrent dans le cadre des travaux de l’IRTF, sous la tutelle du DTN
Research Group. Ils désignent des réseaux capables de transmettre des
informations de bout en bout, même lorsque le réseau n’est pas connecté en
permanence. L’aspect multipath est également présent dans ce protocole puisqu’il
permet de construire plusieurs routes différentes. Cette approche est
particulièrement adaptée au contexte des réseaux autonomes.
Séjour sabbatique d'Alain Bretto
séjour de février à décembre 2010, Professeur à L'université de Caen rapport
rapport de Soufiane Rital TSI/TII Telecom ParisTech
L'objectif du séjour était le renforcement de la modélisation des données et des connaissances par l’utilisation dela théorie des hypergraphes. Les résultats de ces travaux pendant son séjour sont les suivants.
En télédétection, développement d'un algorithme de simplification d'hypergraphe et application en classification du contenu des images satellitaires [CIARP 2010].
En imagerie médicale, nous nous sommes intéressés à la morphologie mathématique sur hypergraphes. Nous avons introduit des treillis particuliers sur les sommets et les hyperarêtes. De là, nous avons étudié la notion de dualité d'hypergraphes et d'opérateurs morphologiques. Nous avons également introduit une notion de similarité sur hypergraphe en partant d'opérateurs de dilatations [DGCI 2011].
En théorie des hypergraphes : Initiation de la partie théorique du Max-flow sur hypergraphe (Cette partie servira prochainement dans nos applications images ou autres) [Chapitre de thèse de Yannick Silvestre].
Autres retombées en relation
avec les bases de données multimédia.
Développement d'un algorithme de clustering sur hypergraphe et application
en clustering des bases d'images. Cet algorithme sera intégré prochainement dans
la plateforme MultiMedia Massif, une fois cette dernière opérationnelle [ISIVC
2010-a].
Développement d'un algorithme de génération des superpixels [ISIVC
2010-b]..
Le séjour du professeur a eu
aussi d'autres retombées :
Plusieurs
séminaires autour de la théorie des graphes et hypergraphes dans le groupe TII.
Organisation d'un workshop autour des graphes/hypergraphes et applications (Theoretical
modeling and image processing – ITNG 2010). [ITNG 2010]
Montage
d'un projet ANR : appel Cosinus (refusé avec des critiques mineures) sur les
séries temporelles avec les hypergraphes.
Soutien
de nos doctorants TII sur la théorie des graphes.
Co-encadrement de deux Master de recherches :
◦ Abir Ncibi (Ecole nationale des ingénieurs de Tunis (ENIT) : Master2
traitement de l’information et complexité du vivant(TICV) .Option : Image et
vivant.) : Sujet : Appariement des hypergraphes.
◦ Xu Huang (Université Paris Sud XI Orsay, Master 2 Professionnel
Informatique) : Sujet : Extraction des primitives d'une image satellitaire, en
utilisant une approche spectrale sur des hypergraphes partiels.
Publications
[ISIVC
2010-b] A. Ducournau, S. Rital, A. Bretto and B. Laget, A. Ducournau, S. Rital,
A. Bretto, and B. Laget, Hypergraph Coarsening and Image Superpixels Algorithm,
ISIVC, 2010 (publié).
[ISIVC 2010-a] S . Rital, A. Ducournau and A. Bretto, Image Database
Clustering, ISIVC 2010 (publié).
[CIARP 2010] Alain Bretto, Aurélien Ducournau, Soufiane Rital : A Hypergraph
Reduction Algorithm for Joint Segmentation and Classification of Satellite Image
Content. Lecture Notes in Computer Science, Volume 6419, Nov. 2010, Pages 38-45
(publié).
[PR-2011] A. Bretto, A. Ducournau, B. Laget, S. Rital, A multilevel k-way
hypergraph cut and image segmentation (envoyé à Pattern Recognition).
[DGCI 2011] Isabelle Bloch and Alain Bretto; Mathematical Morphology on
Hypergraphs: Preliminary Definitions and Results; 16th IAPR International
Conference, DGCI 2011, Nancy, France, April 6-8, 2011, Proceedings, Series: LNCS,
Vol. 6607.
Séjour sabbatique de Naofumi Homma
Le professeur Naofumi HOMMA
de l'université de TOHOKU a effectué un séjour sabbatique de 10 mois à Télécom
Paristech entre Juin 2009 et Mars 2010.
Durant cette période il a effectué des recherches conjointes avec le groupe
"Systèmes électroniques numériques" de Télécom ParisTech.
Ses activités ont porté sur la sécurité des systèmes embarqués, notamment la
compréhension des "attaques" correspondant à l'analyse des "fuites"
électromagnétiques lors du calcul du processeur intégré dans un circuit
électronique, comme une carte à puce.
L'objectif étant de pouvoir cerner pourquoi le secret cryptographique,
généralement la clé de chiffrement, pouvait être déduite facilement de
l'observation de l'activité électronique du calculateur.
Les expériences effectuées avec le professeur HOMMA ont montré qu'il était
possible d'extraire un secret en positionnant une antenne à quelques cm d'une
carte SASEBO embarquant des cryptoprocesseurs AES et RSA dans une circuit
électronique de type FPGA.
Ce séjour sabbatique a permis de proposer en 2010 un projet d'envergure du nom
de SPACES autour de la sécurité des systèmes embarqués (http://spaces.enst.fr).
Ce projet franco-japonais, accepté et financé par l'ANR pour la partie française (budget de 305K€ pour Telecom ParisTech), regroupe
4 partenaires japonais (Tohoku, AIST, Kobe univesity, UEC) et 3 français
(Telecom ParisTech + MORPHO + UPMC).
Il a pour but la modélisation de la robustesse des circuits face aux attaques
émanant de l'observation des circuits.
Cette modélisation permet de vérifier le niveau de sécurité par simulation,
évitant ainsi la phase coûteuse de fabrication du circuit, si celui-ci n'est pas
conforme à un certain niveau de robustesse.
Le séjour du professeur HOMMA a eu bien d'autres retombées positives pour Télécom ParisTech, notamment :
La mise en place en 2011 du concours international "DPA Contest V3" avec AIST et TOHOKU ( http://www.dpacontest.org/v3/index.php)
Des publications scientifiques communes
L'étude de la nouvelle carte d'analyse SASEBO-W permettant de connecter une carte à puce
Bibliographie :
Olivier Meynard, Denis Réal, Sylvain Guilley, Jean Luc Danger et Naofumi Homma, (2011), Enhancement of Simple Electro Magnetic Attacks by Pre characterization in Frequency Domain and Demodulation Techniques, "DATE 2011", Grenoble, France.
Projet "Information Diffusion within Social Networks"
Post-Doc de Charanpal Dhanjal
Rapport : Stéphan Clémençon, rapport
This work is motivated by
the needs of state agencies which are responsible for managing various risks in
social life issue advisories to the public to prevent and mitigate various
hazards. We
investigated how information about a common food born health hazard, known as
Campylobacter, spreads once it was delivered to a random sample of individuals
in France. The aim of the work is to
study how properties of the individual and broader social network effect the
diffusion of information within a simulated process. To this effect we modelled
a social network using a set of characteristics
of individuals over Erdos-Renyi and Small World random graph models.
The social network was based on the data collected following a survey on
Campylobacter conducted in France. Using
this information we were also able to learn when information transmissions
occurred between pairs of individuals, and could then simulate the di usion
process over the simulated network and
measure certain properties of interest.
The results uncovered a
strong predictability of information transmission, providing a balanced error
rate of 0:092. The diffusion model was studied in the context of the effect of
the network
structure in the overall diffusion, and also how prediction was made for a
particular social tie.Furthermore, graph visualisation methods were used in
order to understand the largest connected
component of the transmission graph.
In conjunction with this work we also considered a well known problem in
percolation theory. In graph percolation, vertices within a graph have a binary
states and a percolation process decides
how activity spreads within the graph. An interesting question about a
percolation process within the social network is which k vertices
should one choose in order to maximise the influence of the data. This question
has been studied in the context of the Linear Threshold and Independent Cascade
percolation models.
We generalise the problem by
considering activations in [0; 1], measuring the \quality" of percolation, and
percolation decays along edges in the percolation graph. For a varying cost of
activating
each vertex, we maximise the total activation whilst keeping within a budget
L. We further consider the unbudgeted version of the problem in which one
simply wishes to select k initially active
vertices. Both problems can be solved with greedy algorithms with a guaranteed
approximation qualities, and furthermore we show a close connection to the
maximal coverage problem. The
unbudgeted algorithm is analysed empirically over predicted percolation graphs
on a synthetic dataset and on the real dataset modelling information diffusion
within a social network.
In conjunction with the research work conducted above, a significant amount of
software has been written in Python for the experimental aspects. This code is
available online via
the following address (published in a package called Another Python Graph
Library (APGL)
http://www.somethingaboutme.net/code2.php
Références :
Charanpal Dhanjal, Sandrine Blanchemanche, Stephan Clemencon, Akos Rona-Tas, Fabrice Rossi,
Charanpal Dhanjal and Stephan Clemencon, Maximising the Quality of Inuence, Accepted for publication in the SIAM International Conference on Data Mining, 2010
Charanpal Dhanjal, An Introduction to APGL, Statistics and Applications Group, Telecom ParisTech, 2010