Projets sur financement de la

Fondation Télécom

 mise à jour : 14 septembre 2011

 

1 - Thèses Futur & Ruptures

 

 2008

Sébastien François : Appropriations et transpositions amateurs des mass-médias sur Internet directrice Dominique Pasquier Alexandre Lung-Yut-Fong : Détection d'anomalies sur un réseau de capteurs - directeurs Olivier Cappé & Céline Lévy-Leduc
  Merhez Selmi : Outils de traitement du signal pour les réseaux optiques à haut débit -directeur Yves Jaouen & Philippe Ciblat Gui-Song Xia : Quelques méthodes géométriques d’Analyse statistique d’images et de textures -directeurs Yann Gousseau & Julie Delon
   Anne Marie Hébert : Analyse ethnographique de la conception d'un jeu mobile multmédia - directeur Christian Licoppe Magalie Prost : Les aspects affects de la coopération médiée - directrice Béatrice Cahour

2009

Milhad Sefidgaran : Communication et complexité - directeur Aslan Tchamkerten & Philippe Ciblat  Bert Buchholtz : Abstraction et traitement de masses de données 3D animées - directeur Tamy Boubekeur
   Anne Marin : Intrication dans les Réseaux d'Information Quantique - directeur de thèse Damian Markham Simon Perrault : Techniques d'interaction pour les dispositifs miniaturisés de l'informatique mobile - directeurs : Yves Guiard, Eric Lecolinet
   Abd-al-Bassir  Abou-El-Ailah : amélioration des performances de compression du codage vidéo distribué - Directeur :Marco Cagnazzo  Irina Nemoianu : Codage réseau pour la diffusion de contenus vidéo de haute qualité - Directrice : Béatrice Pesquet

2010

Feryel Ben Abdallah : Modélisation et vérification formelle de la consommation d'énergie pour la conception des systèmes sur puces. - directeurs Ludovic Apvrille, Renaud Pacalet   Joe Ghalbouni : sources de photons intriques pour les communications quantiques - directrices Isabelle Zaquine et Eleni Diamanti
  Olivier Morillot : Reconnaissance de documents multilingues par Reseaux Bayesiens - directrice Laurence Likforman-Sulem  Dinh-Phong Vo : Variétés et Recherche d'Images - directeur Hichem Sahbi
  Aude Guyot-Mbodji: Entre « sur mesure » et design global - directrice : Annie Gentes  Anais Vergne : Topologie algebrique pour le sensing en radio-cognitive - directeur Laurent Decreusefond
   Jianfeng Yao : Estimation en grande dimension - directeurs Jamal Najim, Eric Moulines  Sylvaine Tuncer : Dispersion attentionnelle et multiactivité dans les activités professionnelles   directeur Christian Licoppe

2011

 Aloizio Pereira - Compilation orientée énergie - directeur Gérard Memmi Yafei Xing : Codage vidéo pour l'holographie numérique 3D -directeur Frédéric Dufaux
  Gemma Morral : Optimisation stochastique distribuée dans les réseaux de capteur - directeur Pascal Bianchi Giovanni Cherchia  : Compression & networking solutions for interactive multiview streaming - directeur Marco Cagnazzo
  Quin Hao : Sécurité pratique des systèmes de cryptographie quantique - directeur  Romain Alléaume  Antoine Saillenfest : Modélisation de l'intérêt dans le récit fictionnel - directeur Jean-Louis Dessalles
   Rupesh Kumar : système de localisation indoor pour l'aide à la télésurveillance - directeur Jean- Christophe Cousin  

 

2 - Projets courts : postdocs et sabbatiques

 

 2008

Projet DACOMS Distributed Asynchronous Codes for wireless Mesh- Ghaya Rekaya Ben Othman  Projet i-GATE : Internet - Game theritical Analysis of Traffic Engeineering mechanisms - Jean-Louis Rougier
  Projet ICOX : Intégration de la conscience contextuelle dans les communications du futur Houda Labiod et Hassam Afifi  Projet "Information Dffusion within Social Networks" : Stéphan Clémençon
   Projet TSIFIQ : Traitement du Signal pour les finances quantitatives - Eric Moulines MOGI : la proximité à distance : ethnographie des usages d'une communauté géolocalisée au Japon - Christian Licoppe

 2009

Sabbatique d'Alain Bretto : Hypergraphes : de la modélisation du contenu à la représentation des connaissances- Soufiane Rital Sabbatique de Dr Naofumi Homma :  Security Evaluation Techniques for Cryptographic Modules  - Jean-Luc Danger
  Primitives cryptographiques quantiques dans des environnements réalistes - Eleni Diamanti Métaverses coopératifs - Françoise Détienne

2010

Postdoc d'Adrien Saumard : Meta Ranking : Ranking et sélection automatique de modèle  - Stephan Clémençon et Patrick Gallinari Postdoc de Clara Lamiraux : Écologies de la lumière. Innovations et expérimentations en éclairage public urbain  -Jérôme Denis
   Postdoc de Ken Prepin : Modélisation et test d'une intersubjectivité entre agent conversationnel animé et utilisateur - Catherine Pélachaud  Postdoc d'Amy Frettas : Micralingua : TIC et pratiques linguistiques des migrants : le cas de la traduction numérique -Dana diminescu
   PostDoc Philippe Lacour : TraduXio : une plateforme pour la traduction collaborative de précision - Annie Gentès  Postdoc de Julien Figeac : De proche en proche. L’impact de la géolocalisation  sur les pratiques de communication - Christian Licoppe

2011

Agile RF Receiver for future Wireless Communication Systems - VanTam Nguyen Théorie des jeux et gestion des risques - Jean Leneutre
  Visio & Justice Comparaître à distance. Les usages de la visioconférence dans la sphère judiciaire : Christian Licoppe  

 

 

 

 

 

 

 

1 - Thèses

 


 

Bert Buchholz

 

 

TII/TSI /Télécom ParisTech

Thèse sous la direction de Tamy Boubekeur

Débutée le 16/09/2009,  soutenance à mi parcours : à venir

soutenance à mi-parcours le :    document,   rapport

 

Titre : Abstraction et traitement de masses de données 3D animées

 

Ce travail concerne la manipulation et le traitement de très grands ensembles de données pour l’animation graphique, la synthèse d’image et la réalité virtuelle.

 

Travail ayant déjà donné lieu à 2 présentations en conférences et de 2 articles actuellement soumis et en cours de reviewing :

·         Paramétrisation de lignes animées en 3D : un article soumis à  une conférence/journal

·         Modèle Analytique de Squelette de Formes 3D pour le traitement et l'édition 3D : un article soumis

 

Tous les projets publiés, soumis ou en cours de développement (cf. rapport thèse à mi-parcours) sont accompagnés de programmes implémentant et démontrant les algorithmes proposés, parfois même d'outils 3D complets reposant sur les articles.

 

Trois types de résultats ont été obtenus jusqu’à présent :

1.      Une partie, intitulée “Hybrid Binary Shading” concerne la génération des images avec une  forte réduction du nombre de couleurs. Elle est motivée par des usages artistiques, pour faire de la stylisation, pour respecter les contraintes d’écran ou pour une meilleure représentation visuelle. Dans le cas traité c’est une réduction jusqu’à deux couleurs qui donne des images binaires.

2.      La paramétrisation de lignes de manière temporellement cohérente est intéressante pour de nombreux domaines mais particulièrement pour les dessins animés. Dans les dessins animés générés par ordinateur, les lignes sont normalement les contours des objets de la scène. Souvent, ces lignes ne sont pas seulement dessinées par un trait de la même couleur et la même épaisseur, mais par des traits variants (en utilisant des textures) pour ressembler à des dessins d’un artiste humain. Pour cela, une paramétrisation des lignes est nécessaire. La méthode, présentée ici à cet objectif. Elle suit les travaux de Kalnins qui a le même objectif mais propose une technique temps réel. Celle-ci ne peut donc pas prendre en compte la partie de l’animation future et ainsi ne peut pas trouver une solution globalement optimale mais juste une solution d’une trame à l’autre.

3.      Il existe plusieurs représentations volumiques d’un maillage 3D, notamment la méthode utilisant une grille régulière 3D (hexaèdres) alignée avec les axes à l’intérieur et une subdivision plus fine près de la surface approximée. Une autre méthode est la tétraédrisation, qui rempli le maillage avec des tétraèdres sans avoir à approximer la surface. Le désavantage de la tétraédrisation par rapport à la hexaédrisation, est qu’il n’y a pas d’ordre à l’intérieur du maillage. Notamment dans le but d’appliquer des traitements interactifs et de paramétrer l’intérieur, cela peut être problématique. Nous avons proposé une représentation volumique qui soit dérivée de la surface et qui continue vers l’intérieur d’une manière facilement compréhensible pour faciliter l’utilisation interactive.

 

 

Bibliographie :

 

Binary Shading Using Appearance and Geometry

http://perso.telecom-paristech.fr/~boubek/papers/BSAG/ 

      Auteur(s) : Bert Buchholz, Tamy Boubekeur, Doug DeCarlo et Marc Alexa

      Revue: Computer Graphics Forum Journal

      Date : Août 2010

      Clé de citation: BBDA-CGF-2010

      Catégorie : Article de revue avec comité de lecture

      État: publié

 

Curve Skeleton from Topological Disks & Cylinders Decomposition

    http://perso.telecom-paristech.fr/~boubek/papers/Skel/

      Auteur(s) : Jean-Marc Thiery, Tamy Boubekeur et Bert Buchholz

      Conférence : ACM SIGGRAPH/Eurographics Symposium on Geometry Processing 2010 - Poster Session.

      Date : Juin 2010

      Clé de citation: TBB-2010

      Catégorie : Article de colloque avec actes

      État: publié


 

Sébastien François

 

 

SES Télécom ParisTech

Thèse sous la direction de Dominique Pasquier

Débutée le 06/10/2008

soutenance à mi-parcours le 29/03/2010  :    document,   rapport

 

Titre : Appropriations et transpositions amateurs des mass-médias sur Internet. Deux études de cas : les fanfictions et les vidéos amateurs

 

 

L’objectif de cette thèse est d’étudier les fan-fictions et des vidéos d’amateurs inspirées d’Harry Potter, c'est-à-dire d’un très important corpus directement disponible sur le web. La présentation faite lors de l’évaluation à mi parcours a permis de dégager 2 contributions principales :

1.      Tout d’abord le problème de l’historicité des phénomènes de reprise (que ce soit des pastiches ou des produits dérivés) et des politiques auctoriales qui mettent en évidence  des règles beaucoup plus souples et permissives que pour les documents traditionnels, qui, en obéissant à des contraintes techniques et sociétales très différentes, vont jusqu’à une rupture des codes de l’imprimé.

2.      Ensuite l’auteur aborde le problème de l’articulation entre une analyse du corpus en termes d’expression de soi et en termes de stratégies auctoriales.

 

Publications :

 

Fanf(r)ictions. Tensions identitaires et relationnelles chez les auteurs de récits de fans

        Auteur(s) : Sébastien FRANCOIS

        Revue: Réseaux

        Date : Janvier 2009

        Réf. : vol. 27, n° 153, pp. 157-189

        Clé de citation: SF:RES-09

        Catégorie : Article de revue avec comité de lecture

        État: publié

L'appropriation des contenus audiovisuels : les enseignements des fanfictions

Auteurs : FRANÇOIS Sébastien (2008), «»,

Revue : Observatoire des média de l’INA, dossier « L'avenir de l'audiovisuel passe-t-il par le web ? »,

mis en ligne le 12 décembre 2008 sur le site : http://www.ina-sup.com/ressources/dossiers-de-laudiovisuel/lappropriation-des-contenus-audiovisuels-les-enseignements-des-f



 

ANNE-MARIE HEBERT

SES Télécom ParisTech

Thèse sous la direction de Christian Licoppe

Débutée le 01/10/2008

soutenance à mi-parcours le 29/03/2010  :    document,   rapport

 

Titre : Analyse ethnographique de la conception d'un jeu mobile multmédia (An ethnographic study of a musical video game design)

The purpose of this ethnographic study is to understand how creativity is achieved through collaboration between designers and in which interactional frameworks. This will be done through an ethnographic study of a video game design.

At a macroscopic level, our research aims to understand how the design process unfolds in terms of design organization, in terms of social aspects of the team design and design artifacts.

We will approach this aim with a macroscopic analysis of the whole design organization. This structural analysis of design organization will encompass three levels: prototypes, themes and iterative cycles. In social aspects of design, we will consider the various participants involved in design, their expertise, rights and access to design data and their affiliation to the design project. Finally, artifacts will be analyzed through the whole design organization in terms of characteristics as well as their uses and functions.

At a fine-grain level of specific interactions, our research aims to understand how creativity is achieved through collaboration between designers and in which collaborative interactional frameworks. From a design process perspective we will consider that collaborative processes involve symmetric contributions in information pooling, design ideas generation, evaluation and argumentation as well as regular exchanges in interactive positions (e.g. shift between idea generation and evaluation). One question will be to understand at a fine grain level these collaborative processes in a naturalistic project of creative design.

At this level, the originality of our approach will be to articulate a content analysis with an interactional analysis. The interactional mechanisms entailed in collaborative and creative design are sparely analyzed in the literature. However, an approach based on participation framework and production formats (Goffman, 1981; Goodwin and Goodwin, 2004) could highlight how participants guide their „delivery‟ in design. For example this approach can serve as a structural basis for analyzing changes in footing regarding the production format: the animator (someone whose talking), the principal (someone whose position is established by the words that are spoken) and the author (someone who has selected words and sentiments expressed). One question will be to understand the different production formats involved in collaborative creative moments characterized by specific collaborative processes and specific uses of surfaces.

 


Alexandre LUNG-YUT-FONG

 

TSI/STA /Télécom ParisTech

Thèse sous la direction d’Olivier Cappé et Céline Lévy Leduc

Débutée le 25/09/2008

soutenance à mi-parcours 30/03/2010   document rapport

 

Titre : Détection d'anomalies à partir de mesures collectées par un réseau de capteurs et application à la détection d'attaques dans le trafic Internet

 

La détection d'anomalies est une problématique importante ; les applications sont nombreuses : le contrôle de qualité, la détection de fraudes bancaires, le diagnostic médical, etc. Nous nous intéressons particulièrement à la sécurité des infrastructures de réseaux informatiques. Les systèmes de détection d'intrusion (Intrusion Detection Systems, ou IDS) permettent de repérer les comportements anormaux visant un réseau ou un hôte, résultant la plupart du temps d'attaques ayant un but malveillant.

 

De nombreuses solutions de détection d'intrusion ont été proposées, Ces méthodes sopnt dites centralisées ; les données sont collectées en plusieurs emplacements d'un réseau, mais elles sont toutes transmises sans traitement à un unique point qui effectue l'analyse des données. La quantité de données circulant dans un réseau pouvant être immense, cette centralisation peut poser plusieurs problèmes. Des méthodes permettant de diminuer les échanges réseau et le temps de calcul sont donc nécessaires à partir du moment où le réseau

atteint une certaine échelle. Nous nous sommes jusqu'à présent intéressés à une approche que l'on peut qualifier de « semi-décentralisée ». Dans cette approche, les sondes filtrent l'information localement et envoient cette information filtrée à un collecteur central qui prend la décision finale concernant la présence éventuelle d'une anomalie.

 

Nous avons adopté 2 approches différentes :

1.      Le TopRank décentralisé, qui reprend une méthode centralisée qui avait été développée à l’école et l’étend au cas distribué. Le TopRank distribué obtient de bons résultats comparé à une méthode plus simple utilisant la correction de Bonferroni, et les performances sont à peine dégradées par rapport au TopRank non décentralisé, pour une économie notable de trafic échangé.

2.      Un tests d'homogénéité et de détection de changement pour données multivariées. Les efforts portent actuellement sur les performances de cette approche.

 

 

Bibliographie :

 

Robust Changepoint detection based on multivariate rank statistics

        Auteur(s) : A. Lung-Yut-Fong, C. Lévy-Leduc et Olivier Cappé

        Conférence : IEEE Int. Conf. Acoust., Speech, Signal Processing (ICASSP)

        Lieu: Prague, Czech Republic

        Date : Mai 2011

        Clé de citation: 11-lung-icassp

        Catégorie : Article de colloque avec actes

        État: publié

 

Distributed detection/localization of change-points in high-dimensional network traffic data

        Auteur(s) : A. Lung-Yut-Fong, C. Lévy-Leduc et Olivier Cappé

        Revue: Statistics and Computing

        Date : Février 2011

        Clé de citation: LYF:StatComp-2011

        Catégorie : Article de revue avec comité de lecture

        État: à paraître

 

Distributed detection/localization of network anomalies using rank tests

       Auteur(s) : A. Lung-Yut-Fong, C. Lévy-Leduc et Olivier Cappé

        Conférence : IEEE Workshop on Statistical Signal Processing, 2009

        Lieu: Cardiff, UK

        Date : Septembre 2009

        Réf. : pp. 749-752

        DOI: 10.1109/SSP.2009.527846

        Clé de citation: LYF-DistTop-2009

        Catégorie : Article de colloque avec actes

        État: publié

 

Détection et localisation décentralisées d'anomalies dans le trafic internet

        Auteur(s) : A. Lung-Yut-Fong, Olivier Cappé, C. Lévy-Leduc et François Roueff

        Conférence : GRETSI

        Lieu: Dijon, France

        Date : Septembre 2009

        Clé de citation: LYF-DistTopGretsi-2009

        Catégorie : Article de colloque avec actes

        État: publié

 

A Regularized Kernel-based Approach to Unsupervised Audio Segmentation

        Auteur(s) : Z. Harchaoui, F. Vallet, A. Lung-Yut-Fong et O. Cappé

        Conférence : ICASSP 2009

        Lieu: Taiwan

        Date : Avril 2009

        Réf. : pp. 1665--1668

        DOI: 10.1109/ICASSP.2009.495992

        Clé de citation: HVLC:ICASSP:09

        Catégorie : Article de colloque avec actes

        État: publié

 


Magali Prost

 

SES /Télécom ParisTech

Thèse sous la direction de Béatrice Cahour & Françoise Détienne

Débutée le 19/12/2008

soutenance à mi-parcours 22/06/2010   document   rapport 

 

Titre : Les aspects affects de la coopération médiée : étude des interactions et de l'expérience vécue dans le support social en ligne

 

Les organisations du travail et les technologies évoluent et ont des répercussions à différents niveaux. Les lieux de partage social dans les entreprises tendent à disparaitre et les professionnels doivent trouver de nouveaux moyens de gérer les situations de travail difficile. Cette thèse fait tout d’abord le bilan des modes de coping dont ceux-ci disposent pour gérer la pénibilité mentale. Les stratégies de coping correspondent aux stratégies, plus ou moins conscientes, que les personnes mettent en place pour gérer des situations d’inconfort émotionnelles. Les stratégies de coping permettent ainsi la gestion et la résolution de vécus difficiles. Les recherches sur ces thèmes montrent que ces processus sont liés à la personnalité de l’individu et à ses interactions avec son entourage. Le soutien social est un outil qui aide à redéfinir son travail par rapport à ses objectifs, ses compétences et ses valeurs, pour redonner du sens à son travail. En ce sens, il peut être considéré comme une stratégie de coping. Les professionnels ont investi, depuis peu, les forums de discussion sur lesquels ils échangent leur vécu de situations de travail problématiques. Les forums peuvent être considérés comme le reflet de ce qui met en péril l’équilibre des professionnels. Nous nous sommes donc particulièrement intéressées au soutien social entre professionnels sur les forums de discussion.

 

Activités :

o Communication orale, Journées Scientifiques de Nantes, 7 juin 2010.

o Communication affichée, ECCE European Conference on Cognitive Ergonomics 2010, 25-27 août, Delft, Pays-Bas

o Communication orale, 45ème congrès SELF « Fiabilité, adaptation et résilience » du 13 au 15 septembre 2010, Liège, Belgique.

o 1 mois au laboratoire School of Education de l’université de Nottingham (accueil : Charles Crook) (fin d’année 2010)

 

Bibliographie :

  1. PROST M., CAHOUR B. & DETIENNE F. (à paraître). « Collectifs virtuels de soutien entre professionnels : formes des échanges et vécus associés », in Henri Boyer (Ed.), Au fil des discussions : les forums et l’engagement social via internet, coll. Langue et Parole, Paris : L’Harmattan.

  2. PROST M., CAHOUR B. & DETIENNE F. (2010). « Le soutien mutuel sur le Web : un nouveau mode d’adaptation aux vécus professionnels difficiles ? » 45ème congrès de la SELF, Liège, Belgique, septembre 2010.

  3. PROST M., CAHOUR B. & DETIENNE F. (2010). « Analysing online social support between professionals », communication affichée, ECCE, Delft, Pays-Bas, août 2010.

  4. PROST M., CAHOUR B. & DETIENNE F. (2010). « Modes de construction collective du soutien social sur le Web » communication orale, Nantes, France, juin 2010.

       

       


MIled Sefidgaran

 

 

Comelec/Comnum  /Télécom ParisTech

Thèse sous la direction d'Aslan Tchamkerten et Philippe Ciblat

Débutée le O5/10/2008  

soutenance à mi-parcours 16/03/2011   document   rapport     -  

 

Titre : Communication et complexité

 

Assume a sensor network with a directed tree configuration constituted of sensors that have local measurements and a root who wants to compute a function of these measurements. What is the minimum number of bits needed to be communicated from these sensors toward the root within the defined configuration? Obviously this amount may be less than the case where the root wants to recover all the measurements, but what is the minimum amount of bits to be transmitted for enabling the reliable function computation at root, given to the function, joint probability distribution of measurements and the node configuration?

In this thesis we consider the problem of finding the minimum number of bits needed to be transmitted for recovering a function of correlated sources with high probability. We consider different configurations. One we considered is the Slepian-Wolf configuration which is one of the sub-configurations that can be seen in networks. We have derived inner and outer bounds for the union region of rate1 pairs that lead to reliable function computation at receiver in this configuration which depend on the function and joint probability distribution of random variables and we have shown that the achievable rate region is tight in some special cases.

The results we derived is for the problem of computing a function of correlated sources. More precisely, a receiver wants to compute a function f of two correlated sources X and Y and side information Z. What is the minimum number of bits that needs to be communicated by each transmitter? This setting extends the Orlitsky-Roche setting to multiple sources. We first establish an outer bound to the rate region by simply applying the converse result of Point-to- Point communication with side information at receiver in [16]. Then we propose an inner bound. Although this inner bound is not tight in general, we show that it is tight for the case where X is inferable, i.e., when X is a function of f(X; Y;Z) and Z, and for the case where Y is constant. In the latter case, we recover Orlitsky and Roche’s result.

Publications :

M. Sefidgaran, A. Tchamkerten, Computing a function of correlated sources: a rate region. Submitted to ISIT 2011.

 


Merhez Selmi

 

 

Comelec/Comnum & GTO /Télécom ParisTech

Thèse sous la direction de Philippe Ciblat et Yves Jaouen

Débutée le 22/10/2008  

soutenance à mi-parcours 08/07/2010   document   rapport     -   présentation vidéo disponible

 

 

 

Titre : Outils avancés de traitement du signal pour les réseaux optiques à haut débit

 

Les nouvelles générations de systèmes de communications optiques à très haut débit, de type 100G‑Ethernet sont basées sur l'utilisation de modulations multi-états combinée à une détection cohérente. L'accroissement de la vitesse des convertisseurs analogiques/numériques et des circuits électroniques permet aujourd'hui d'effectuer le traitement numérique du signal associé à cette détection cohérente. Compte-tenu des défis à relever, les premiers algorithmes de traitement de signal, rudimentaires dans leur principe mais très innovants pour le domaine des communications optiques commencent à être implantés physiquement avec des circuits électroniques dédiés. La thèse s'est principalement focalisée sur des systèmes optiques cohérents utilisant des modulations à haute efficacité spectrale (format QAM), ce qui induit une sensibilité accrue aux sources de dégradations, et un besoin d’algorithmes plus performants pour combattre les sources de dégradation et donc plus complexes tant d'un point de vue conceptuel que d'un point de vue implémentation.

                                         

Les principaux résultats obtenus concernent

1- Détermination précise du résidu de fréquence

La dérive en fréquence des lasers peut être compensée dans le domaine électrique. Les estimateurs de résidu de fréquence développés pour les systèmes QPSK ne sont pas toujours suffisamment performants pour les systèmes QAM. Pour les QAM, nous avons montré que l'estimateur basé sur la maximisation du spectre des échantillons à la puissance 4 (conçu à l'origine pour des QPSK) avait encore un sens et pouvait être implémenté en deux étapes [1]:

     - Détection du maximum du périodogramme du signal élevé à la puissance 4 (précision en 1/N2)

     - Calcul de la fonction coût autour de ce maximum combiné à un algorithme de descente

         de gradient (précision en 1/N3)

Il faut noter que la seconde étape est primordiale et n'était pas réalisée jusqu'à présent en optique.

2- Egalisation adaptative

Le phénomène de biréfringence résiduelle dans les fibres engendre le mélange des signaux à la réception, la dispersion de polarisation (PMD) ajoutant une distorsion des signaux durant la propagation. L’algorithme CMA permet de combiner la séparation de source et la compensation des effets de dispersion (PMD et dispersion chromatique résiduelle). La valeur du paramètre d'adaptation µ dans une implémentation adaptative du CMA résulte d’un compromis entre vitesse de convergence et précision. Une version (elle-même) adaptative du calcul du paramètre µ (algorithme pseudo-Newton) a permis d’accroître les performance du CMA [2]. Il a été étudié dans le cas du canal optique où la PMD fluctue.

3- Egalisation bloc                                                                               

La vitesse des circuits de traitement électroniques impose de paralléliser le traitement électronique des signaux et donc de les traiter finalement par bloc. L’égalisation par bloc permet également d’accroître l’estimation de la statistique du signal. Des versions CMA bloc à µ fixe et µ variable ont été proposés et comparés au CMA adaptatif. Les résultats montrent un temps de convergence fortement diminué sans perte de précision [3, 4]. Il est à noter que la convergence du CMA bloc est accrue d’un facteur ~10 pour une augmentation de la complexité de traitement d’un facteur ~4 [5].

4- Résultats expérimentaux

Les algorithmes développés ont été validés sur des signaux obtenus expérimentalement sur une plateforme de transmission (collaboration HHI Berlin). Les signaux sont enregistrés au moyen d’un oscilloscope temps-réel 4 voies (signaux I&Q sur 2 polarisations orthogonales). Des signaux 8-PSK 60Gb/s et 16-QAM 200Gb/s multiplexés en polarisation ont été analysés suivant différents scénarios (sensibilité OSNR, compensation de la dispersion chromatique en ligne, effets non-linéaires, …). Un ensemble d’outils de traitement de signal pour l’analyse des signaux réels (ré-échantillonnage des signaux, compensation de la dispersion chromatique par filtre FIR, récupération de porteuse, synchronisation, décision et comptage d’erreur) ont également été développés. Notre participation au NoE EUROFOS nous a permis de confronter les performances de nos nouveaux algorithmes avec d’autres laboratoires.

 

 

Bibliographie :

 

 

Block versus Adaptive MIMO Equalization for Coherent PolMux QAM Transmission Systems

        Auteur(s) : M. Selmi, Ph. Ciblat, Christophe Gosset et Yves Jaouën

        Conférence : European Conference on Optical Communications (ECOC)

        Lieu: Turin (Italie)

        Date : Septembre 2010

        Clé de citation: scjg:ecoc2010

        Catégorie : Article de colloque avec actes

        État: publié

 

Pseudo-Newton based equalization algorithms for QAM coherent optical systems

       Auteur(s) : Mehrez Selmi, Philippe Ciblat, Yves Jaouën et Christophe Gosset

        Conférence : Optical fiber conference (OFC 2010)

        Lieu: San Diego (USA)

        Date : Mars 2010

        Réf. : vol. paper OThM3

       Clé de citation: YJ:OFC10

        Catégorie : Article de colloque avec actes

        État: publié

 

Accurate digital frequency offset estimator for coherent PolMux QAM transmission systems

        Auteur(s) : M. Selmi, Y. Jaouën et P. Ciblat

        Conférence : European Conference on Optical Communications (ECOC)

        Lieu: Vienne, Autriche

        Date : Septembre 2009

        Réf. : n° paper P3.08

        Clé de citation: YJ:ECOC2009-2

        Catégorie : Article de colloque avec actes

        État: publié

 

(soumis :

M. SELMI, C. GOSSET, M. NOELLE, P. CIBLAT and Y. JAOUEN, "Blockwise digital signal processing for PolMax QAM/PSK optical coherent systems"  Submitted to IEEE Journal of Lightwave Technology.

 M. SELMI, P. CIBLAT, Y. JAOUEN and C. GOSSET "Complexity analysis of block equalization approach for PolMux QAM coherent systems"  Submitted to SPPcom 2011.



 

Gui-Song Xia

 

 

TII/TSI /Télécom ParisTech

Thèse sous la direction de Yann Gousseau et Julie Delon

Débutée le 10/07/2007  

soutenance à mi-parcours 24/11/2009   document   rapport 

soutenance finale le 16/03/2011   thèse

 

Titre : Sur quelques méthodes géométriques d’Analyse statistique d’images et de textures

 

La thèse a donné lieu à plusieurs contributions originales dans des domaines relativement variés, tous utilisant des propriétés géométriques et structurelles soit des lignes de niveaux dans les images naturelles, soit de la grandeur duale, l’orientation du gradient. Les contributions sont de 3 types :

1.      Tout d’abord un nouveau schéma d’analyse des textures est proposé, qui s’appuie sur la carte topographique (une organisation en arbre de l’image). Ce schéma permet en particulier d’obtenir une description invariante aux déformations de « drappé », permettant donc de retrouver, avec des performances remarquables les textures dans des bases de données. Ces modèles de texture permettent également de segmenter une scène sur des propriétés de texture ce qui les rendent particulièrement utiles pour de nombreuses applications (imagerie aérienne, imagerie médicale).

2.      On tire profit de cette carte topographique pour proposer une méthode, originale également, pour représenter de façon schématique et abstraite l’image. Cette même méthode permet également de créer des images de synthèse respectant un « style » imposé. Cette approche permet de plus d’intéressants résultats en débruitage et restauration.

3.      Enfin on propose une technique de détection des jonctions dans les images, ces jonctions étant des points importants pour décrire l’image. La méthode proposée relève des techniques stochastiques dites « a contrario » et reposent sur des principes identiques à la théorie de la Gestalt dans la vision humaine. Cette méthode qui n’est régit que par un seul paramètre est insensible aux phénomènes d’échelle, de rotation ou de contraste et dépasse largement en performances les méthodes concurrentes

 

Démonstration en ligne : http://perso.telecom-paristech.fr/~xia/texture.html

 

 

Bibliographie :

 

 

Shape-based Invariant Texture Indexing

        Auteur(s) : G.-S. Xia, J. Delon et Y. Gousseau

        Revue: International Journal of Computer Vision

        Date : Juillet 2010

        Réf. : vol. 88, n° 3, pp. 382-403

        DOI: 10.1007/s11263-009-0312-3

        Clé de citation: XDG:IJCV-09

        Catégorie : Article de revue avec comité de lecture

        État: publié

 

Invariant texture indexing using topographic maps

        Auteur(s) : G.-S. Xia, J. Delon et Y. Gousseau

        Références : Telecom ParisTech

        Date : 2009

        Réf. : n° 2009D007

        Clé de citation: XDG:pre09

        Catégorie : Rapport de recherche (rapport interne)

        État: soumis

 

Locally Invariant Texture Analysis from the Topographic Map

       Auteur(s) : G.-S. Xia, J. Delon et Y. Gousseau

        Conférence : ICPR 08

        Lieu: Tampa, Etats-Unis

        Date : Décembre 2008

        Clé de citation: GSX:ICPR08

        Catégorie : Article de colloque avec actes

        État: publié

       

 


 

Anne MARIN

 

 

RMS/InfRes /Télécom ParisTech

Thèse sous la direction de Damian Markham et Gilles Zémor (Université de Bordeaux)

Débutée le 11/2009,  soutenance à mi parcours : faite

soutenance à mi-parcours le :    document,   rapport

 

Titre : Intrication dans les Réseaux d'Information Quantique

 

L’intrication est une propriété spécifique à l’information quantique et est au coeur des ressources potentielles pour transmettre et coder de l’information quantique. Néanmoins, nous sommes loin d’en connaitre toutes les conséquences. En outre, l’information quantique est appliquée à de plus en plus de protocoles cryptographiques, tel le partage de secret qui constitue la première grande partie d’étude de ma thèse. Pour cela nous utilisons des « états-graphes » qui sont des états intriqués, parmi les plus simples à implémenter et les plus largement étudiés, du fait de leur structure simple. Basé sur le précédent travail , nous pouvons explorer plusieurs domaines : la théorie des codes afin d’identifier et de classer les schémas (im)possibles de partage de secret en fonction de leurs paramètres, la théorie des graphes afin de caractériser les « flow »d’information correspondants dans un graphe, et les protocoles de cryptographie afin d’imaginer de nouvelles applications pouvant elles-mêmes impliquer de nouvelles propriétés.

 

The research in this thesis is aimed at the development of quantum information networks. Quantum information offers great benefits, including absolute security in cryptography and exponential speed up in computation. So far however, the main focus of research in quantum information has either been on a single two party protocol (quantum key distribution) or understanding the power of a quantum computer (and its implementation). In the same way that the internet is much more powerful than a single computer and any single two party protocol, we can expect that quantum networks has much more to offer. Therefor we look at what can be done with more involved quantum networks where several devices of varying power communicate via different means and protocols and to different ends.

Our approach is to focus on schemes using a particular set of quantum states known as 'graph states'. Graph states are a class of quantum states which are both strong candidates for implementation (the highest number of entangled systems we have are graph states), and have a particularly elegant formalism where a quantum state is in one to one correspondence with a simple undirected graph (bringing a rich mathematical structure). Almost all quantum information processing schemes so far can be phrased in terms of graph states, making them the ideal candidate, theoretically and experimentally, to act as resources for a future quantum network of integrated tasks.

So far in this thesis a generalization of known secret sharing using graph states has been made to cover all possible access structures, paving the way for the use and integration of secret sharing schemes into general network tasks (submission to QCYPT 2011 now in progress). This has involved connecting several different areas of mathematics and quantum information, including graph theory, quantum error correction and quantum key distribution. As such it has led to interaction with several groups across France and further afield. The next steps will be to develop the language of Flow to integrate secret sharing to other protocols such as blind quantum computation and multi-party secure computation. At the same time we work with experimentalists (in Telecom ParisTech and in Calgary Canada) on implementing proof of principle experiments.

Activities:
- Work with Gilles Zémor in University of Bordeaux-1. 27-29 July 2010.
- SMS 2010-Advanced School in Quantum Information Processing and Quantum Cryptography in Montreal. 21 June - 2 July 2010.
- Invited work at Quantum Information team of LIG in Grenoble. 29 Nov - 3 Dec 2010.
- Poster Presentation at GDR-IQFA Colloquium in Nice. 23-25 March 2011.
- Teaching for computer science labwork (C Langage and Operating System). First Semester 2010-2011.
- (current) Submission of an article to QCRYPT Conference in Z¨urich. 12-16 Sept 2011.


 

 

 

 




2 - Projets courts : Post-Docs et Sabbatiques

Project DACOMS

Rapport : Ghaya Rekaya-Ben Othman

 

Main results

 

DACOMS project was enrolled in the context of “Futur et Rupture” projects of the Scientific Direction of Institute TELECOM, from February 2009 to May 2010.

The project finances a post-doctoral research position for Miss Mireille Sarkiss.

 

The research work addressed mainly the construction of new delay-tolerant space-time codes for ad-hoc sensor networks and cooperative networks. In such systems the synchronism hypothesis is not still valid like in point to point communications. Unfortunately, the perfect codes which are optimal codes in synchronous MIMO transmission loose their full diversity, and so their optimality in presence of delays.

 

In this work, we construct new delay-tolerant distributed codes based on the perfect codes algebras from a different point of view. The new construction is obtained from the tensor product of two number fields, one of them being the field used for the perfect code. The codes are designed in such a way to maintain the same properties of their corresponding perfect codes namely full-rate, full-diversity and non-vanishing minimum determinant for both cases, synchronous and asynchronous transmissions.

 

We propose new delay-tolerant space-time codes for dimensions M = 2, 3 and 4. We prove the full-rankness of the shifted matrices for arbitrary delay profiles ans so we guaranteed the delay-tolerance of these codes. We study the performance of the proposed codes through simulation results, for example we have shown 5dB gain of the proposed code compared to the perfect code 3X3 in asynchronous transmission.

 

The last two months of the project were dedicated to the study of fast-decodable space-time codes. Linear high rate space-time codes, like perfect codes, are decoded using a Sphere Decoder. The complexity of this decoder remains prohibitive specially when higher modulations are involved and higher number of antennas is used. Full-rate, full-diversity space-time codes have been recently developed in the aim of reducing the ML decoding complexity. We were interested in such code design, and we have made a review of the main fast-decodable codes proposed in the literature (Silver Code, Sezginer-Sari Code, Srinath- Rajan Codes...).

 

Publications

  1. M. Sarkiss, G. Rekaya.-Ben Othman, M. O. Damen, and J-C. Belfiore, Construction of new delay tolerant space-time codes In Proceeding of IEEE International Symposium Personal, Indoor, Mobile Radio Communications, September (PIMRC) 2010.

  2. M. Sarkiss, G. Rekaya-Ben Othman, M. O. Damen, and J-C. Belfiore, Construction of new delay tolerant space-time codes accepted in IEEE Transactions on Information Theory, available at       http://arxiv.org/list/cs.IT  , 2010.

  3.  


 

Project ICOX  : Intégration de la connaissance contextuelle dans les communications du futur

Rapport :  Houda Labiod, Infres / RMS Telecom ParisTech, Hossam Afifi, Telecom SudParis

 

Résultats Principaux

Dans le cadre du projet ICOX nous avons traité principalement deux problèmes en intégrant la connaissance contextuelle (context awareness) :
  1. le routage dans les réseaux ad hoc,
  2. l’allocation de contenus dans les serveurs de partage de Vidéo pair à pair (P2P).

La majorité des travaux concernant la connaissance contextuelle portent sur des propositions dédiées aux couches hautes et applicatives. Cependant, l’exploitation d’informations mises à jour sur le réseau, les noeuds, les applications utilisées ainsi
que sur l’utilisateur peut être extrêmement bénéfique pour le routage. Ainsi, le choix de routes devient plus précis et plus optimal. La solution que nous proposons prend en compte la notion de connaissance contextuelle dans les décisions de routage, permettant ainsi l’optimisation et l’adaptation de l’utilisation des ressources réseau.
 

Nous avons proposé ainsi le protocole CAMIR (Context Aware Mulipath reactIve Routing protocol), et nous avons focalisé nos travaux sur les configurations ad hoc
de type MANET (Mobile Ad hoc NETwork) et DTN (Delay Tolerant Network). Les réseaux DTN entrent dans le cadre des travaux de l’IRTF, sous la tutelle du DTN
Research Group. Ils désignent des réseaux capables de transmettre des informations de bout en bout, même lorsque le réseau n’est pas connecté en
permanence. L’aspect multipath est également présent dans ce protocole puisqu’il permet de construire plusieurs routes différentes. Cette approche est
particulièrement adaptée au contexte des réseaux autonomes.


Séjour sabbatique d'Alain Bretto 
séjour de février à décembre 2010, Professeur à L'université de Caen   rapport
rapport de Soufiane Rital TSI/TII Telecom ParisTech

L'objectif du séjour était le renforcement de la  modélisation des données et des connaissances par l’utilisation dela théorie des hypergraphes.  Les résultats de ces travaux pendant son séjour sont les suivants.

En télédétection, développement d'un algorithme de simplification d'hypergraphe et application en classification du contenu des images satellitaires [CIARP 2010].

En imagerie médicale, nous nous sommes intéressés à la morphologie mathématique sur hypergraphes. Nous avons introduit des treillis particuliers sur les sommets et les hyperarêtes. De là, nous avons étudié la notion de dualité d'hypergraphes et d'opérateurs morphologiques. Nous avons également introduit une notion de similarité sur hypergraphe en partant d'opérateurs de dilatations [DGCI 2011].

En théorie des hypergraphes : Initiation de la partie théorique du Max-flow sur hypergraphe (Cette partie servira prochainement dans nos applications images ou autres) [Chapitre de thèse de Yannick Silvestre].

Autres retombées en relation avec les bases de données multimédia.
             Développement d'un algorithme de clustering sur hypergraphe et application en clustering des bases d'images. Cet algorithme sera intégré prochainement dans la plateforme MultiMedia Massif, une fois cette dernière opérationnelle [ISIVC 2010-a].
             Développement d'un algorithme de génération des superpixels  [ISIVC 2010-b]..

Le séjour du professeur a eu aussi d'autres retombées :
             Plusieurs séminaires autour de la théorie des graphes et hypergraphes dans le groupe TII.
             Organisation d'un workshop autour des graphes/hypergraphes et applications (Theoretical modeling and image processing – ITNG 2010). [ITNG 2010]
             Montage d'un projet ANR : appel Cosinus (refusé avec des critiques mineures) sur les séries temporelles avec les hypergraphes.
             Soutien de nos doctorants TII sur la théorie des graphes.
             Co-encadrement de deux Master de recherches :
                ◦ Abir Ncibi (Ecole nationale des ingénieurs de Tunis (ENIT) : Master2 traitement de l’information et complexité du vivant(TICV) .Option : Image et vivant.)  : Sujet : Appariement des hypergraphes.
                ◦ Xu Huang (Université Paris Sud XI Orsay, Master 2 Professionnel Informatique) : Sujet : Extraction des primitives d'une image satellitaire, en utilisant une approche spectrale sur des hypergraphes partiels.

Publications

[ISIVC 2010-b] A. Ducournau, S. Rital, A. Bretto and B. Laget, A. Ducournau, S. Rital, A. Bretto, and B. Laget, Hypergraph Coarsening and Image Superpixels Algorithm, ISIVC, 2010 (publié).
 [ISIVC 2010-a] S . Rital, A. Ducournau and A. Bretto, Image Database Clustering, ISIVC 2010 (publié).
 [CIARP 2010] Alain Bretto, Aurélien Ducournau, Soufiane Rital : A Hypergraph Reduction Algorithm for Joint Segmentation and Classification of Satellite Image Content. Lecture Notes in Computer Science, Volume 6419, Nov. 2010, Pages 38-45 (publié).
 [PR-2011] A. Bretto, A. Ducournau, B. Laget, S. Rital, A multilevel k-way hypergraph cut and image segmentation (envoyé à Pattern Recognition).
 [DGCI 2011] Isabelle Bloch and Alain Bretto; Mathematical Morphology on Hypergraphs: Preliminary Definitions and Results; 16th IAPR International Conference, DGCI 2011, Nancy, France, April 6-8, 2011, Proceedings, Series: LNCS, Vol. 6607.

 

Séjour sabbatique de Naofumi Homma

Le professeur Naofumi HOMMA de l'université de TOHOKU a effectué un séjour sabbatique de 10 mois à Télécom Paristech entre Juin 2009 et Mars 2010.
Durant cette période il a effectué des recherches conjointes avec le groupe "Systèmes électroniques numériques" de Télécom ParisTech.
Ses activités ont porté sur la sécurité des systèmes embarqués, notamment la compréhension des "attaques" correspondant à l'analyse des "fuites" électromagnétiques lors du calcul du processeur intégré dans un circuit électronique, comme une carte à puce.


L'objectif étant de pouvoir cerner pourquoi le secret cryptographique, généralement la clé de chiffrement, pouvait être déduite facilement de l'observation de l'activité électronique du calculateur.
Les expériences effectuées avec le professeur HOMMA ont montré qu'il était possible d'extraire un secret en positionnant une antenne à quelques cm d'une carte SASEBO embarquant des cryptoprocesseurs AES et RSA dans une circuit électronique de type FPGA.


Ce séjour sabbatique a permis de proposer en 2010 un projet d'envergure du nom de SPACES autour de la sécurité des systèmes embarqués (
http://spaces.enst.fr).
Ce projet franco-japonais, accepté et financé par l'ANR pour la partie française (budget de 305K€ pour Telecom ParisTech), regroupe
4 partenaires japonais (Tohoku, AIST, Kobe univesity, UEC) et 3 français
(Telecom ParisTech + MORPHO + UPMC).

Il a pour but la modélisation de la robustesse des circuits face aux attaques
émanant de l'observation des circuits.

Cette modélisation permet de vérifier le niveau de sécurité par simulation,
évitant ainsi la phase coûteuse de fabrication du circuit, si celui-ci n'est pas
conforme à un certain niveau de robustesse.
 

Le séjour du professeur HOMMA a eu bien d'autres retombées positives pour Télécom ParisTech, notamment :

Bibliographie :

Olivier Meynard, Denis Réal, Sylvain Guilley, Jean Luc Danger et Naofumi Homma, (2011), Enhancement of Simple Electro Magnetic Attacks by Pre characterization in Frequency Domain and Demodulation Techniques, "DATE 2011", Grenoble, France.


Projet "Information Diffusion within Social Networks"

Post-Doc de  Charanpal Dhanjal

Rapport : Stéphan Clémençon,  rapport

This work is motivated by the needs of state agencies which are responsible for managing various risks in social life issue advisories to the public to prevent and mitigate various hazards. We
investigated how information about a common food born health hazard, known as Campylobacter, spreads once it was delivered to a random sample of individuals in France. The aim of the work is to
study how properties of the individual and broader social network effect the diffusion of information within a simulated process. To this effect we modelled a social network using a set of characteristics
of individuals over Erdos-Renyi  and Small World  random graph models. The social network was based on the data collected following a survey on Campylobacter conducted in France. Using
this information we were also able to learn when information transmissions occurred between pairs of individuals, and could then simulate the di usion process over the simulated network and
measure certain properties of interest.

The results uncovered a strong predictability of information transmission, providing a balanced error rate of 0:092. The diffusion model was studied in the context of the effect of the network
structure in the overall diffusion, and also how prediction was made for a particular social tie.Furthermore, graph visualisation methods were used in order to understand the largest connected
component of the transmission graph.
In conjunction with this work we also considered a well known problem in percolation theory. In graph percolation, vertices within a graph have a binary states and a percolation process decides
how activity spreads within the graph. An interesting question about a percolation process within the social network is which k vertices
should one choose in order to maximise the influence of the data. This question has been studied in the context of the Linear Threshold and Independent Cascade percolation models.

We generalise the problem by considering activations in [0; 1], measuring the \quality" of percolation, and percolation decays along edges in the percolation graph. For a varying cost of activating
each vertex, we maximise the total activation whilst keeping within a budget L. We further consider the unbudgeted version of the problem in which one simply wishes to select k initially active
vertices. Both problems can be solved with greedy algorithms with a guaranteed approximation qualities, and furthermore we show a close connection to the maximal coverage problem. The
unbudgeted algorithm is analysed empirically over predicted percolation graphs on a synthetic dataset and on the real dataset modelling information diffusion within a social network.

In conjunction with the research work conducted above, a significant amount of software has been written in Python for the experimental aspects. This code is available online via
the following address (published in a package called Another Python Graph Library (APG
L) http://www.somethingaboutme.net/code2.php

Références :