Protection des données multimédias pour la certification des données et outils récents de traitement d’image

Sujets de thèse 2014

Intitulé de la thèse
Protection des données multimédias pour la certification des données et outils récents de traitement d’image
Publication du sujet sur le site de l’ABG : OUI
Nature du financement : non connu à ce jour
Domaine de compétences principal (pour l’ABG) : Informatique, électronique
Domaine de compétences secondaire (pour l’ABG) : Mathématiques
Spécialité de doctorat : Image Signal et Automatique

Lieu de travail
XLIM (SIC/DMI)
Laboratoire d’accueil : XLIM/SIC

Date Limite de candidature : 15/05/2014

Présentation de l’équipe de recherche
La thèse se déroulera dans le cadre d’une collaboration entre deux équipes de recherche de l’institut XLIM.
L’équipe Protection de l’Information, Codage, Cryptographie qui s’organise autour de trois thèmes relatifs aux mathématiques de l’échange d’information et de l’informatique théorique.
L’équipe ICONES dont les thèmes de recherche sont organisées autour du traitement, de la caractérisation et de l’analyse de signaux et images multi sources et multi composantes avec une spécificité concernant la couleur.

Résumé de la thèse en français
La protection des données multimédia devient un enjeu de plus en plus important pour les entreprises dans la société actuelle. Au delà des notions de confidentialité ou de protection de la vie privée, bien connues, il existe d’autres problématiques dont l’importance est en pleine croissance comme les méthodes de stéganographie/stéga-analyse ou encore le tatouage de données dans un cadre de certification de documents. Ces différents aspects seront étudiés avec en perspective la chaîne de vie du document (impression, numérisation vieillissement …). Dans le cadre des applications stéganographie/stega-analyse une entreprise va souhaiter protéger ses données en empêchant à un utilisateur de dissimuler des données dans un document porteur anodin – la stéganographie consistant à cacher un document et la stega-analyse consistant à être capable de détecter un document dissimulé. Dans le cadre de la certification de documents une société va souhaiter par exemple autoriser ou empêcher la numérisation ou la copie de données si un tatouage spécifique n’est pas reconnu dans le document original.

Ces deux problématiques ont déjà été étudiées à des degrés divers et le sujet de cette thèse se propose d’étudier ces deux thèmes avec pour particularité d’utiliser et de développer des outils récents utilisés en image mais peu ou pas utilisés dans le cadre de la protection des données multimédia. Ce sujet de thèse profitera de l’expertise du laboratoire XLIM sur certaines approches en image, traitement d’images et sécurité, dont les applications pour la protection des données multimédia ont été peu étudiées et présente un potentiel certain.

Résumé de la thèse en anglais
The multimedia data protection becomes a more and more important task for companies. Beyond the notions of confidentiality or protection, there are other problems the importance of which is rapidly expanding as the methods of stega-analysis or the watermarking of data for certification of documents. These different aspects will be studied according with the chain of life of the document (for example the print and scan operation). For the application of the certification of documents a company is going to wish for example to authorize or to prevent the digitalization or the copy of data if a specific watermark is not recognized in the original document.

These problems were studied already but the subject of this thesis suggests studying these themes with for the use of recent tools developed in image but not used within the framework of the multimedia data protection.

Description complète du sujet de thèse
Description du sujet

1)protection des donnés pour la certification de documents par analyse des caractéristiques de l’image

Dans notre société, les images numériques jouent un rôle important. L’ avènement des appareils d’imagerie numérique à faible coût ainsi que des logiciels d’édition puissants et sophistiqués donne lieu à une large utilisation des images numériques dans tous les domaines de notre vie quotidienne. Notamment, l’Internet permet une distribution rapide du matériel d’image numérique. Dans le cadre du profilage (Foreinsics), une image numérique peut révéler des informations sur le dispositif d’acquisition d’image utilisé et, par conséquent, détecter le groupe de personnes qui a probablement pris la photo.
En outre, la question de savoir si une image numérique montre une scène originale et non modifiée ou s’elle a été altérée après son acquisition peut être d’une grande importance, par exemple , lors de l’analyse des images de caméras de surveillance. Dans ces deux applications, la question de l’identification de la source de l’image et la question de la sécurisation de l’intégrité de l’image , recouvrent la problématique de l’authentification de l’image.

Plusieurs approches pour répondre à ces questions ont été proposées, par exemple, les signatures numériques ou tatouage numérique . Le tatouage numérique a été proposé comme un moyen par lequel une image peut être authentifiée. Cette approche fonctionne par l’insertion, au moment de l’enregistrement d’un filigrane perceptible dans l’image. Avec l’hypothèse que la modification va modifier un filigrane , une image peut être authentifiée par vérifier que le filigrane extrait est la même que celle qui a été inséré . Le second volet de cette thèse décrit à la suite se situera dans cet axe.

Mais tout d’abord, nous proposons d’étudier les méthodes récentes qui fonctionnent en l’absence de filigrane ou de matériel spécialisé . Elles sont essentiellement fondés sur certaines caractéristiques statistiques, qui peuvent être considérées comme un filigrane «naturel». Par conséquent, cette approche ne nécessite aucune connaissance préalable de l’image originale.
Ainsi, avec l’hypothèse que la modification perturbe certaines propriétés statistiques sous-jacentes d’une image, ces techniques peuvent détecter des formes spécifiques de modification. Par exemple, nous pouvons utiliser une technique de détection des incohérences dans l’éclairage sur une image.
Ensuite, il est possible de révéler des dépendances pixels introduites au cours de ré-échantillonnage ou la rotation des images ( Popescu 2005). D’autres méthodes utilisées sont , par exemple , les statistiques de coefficients JPEG pour détecter une «recompression» (Chen 2008) , comme nous l’avons dit les incohérences dans l’éclairage pour détecter copie contrefaçons ( Johnson 2005) , ou l’analyse de la phase pour détecter des translations dans l’image (Chen 2007).

Dans cette étude, nous nous proposons d’étendre les travaux sur l’examen des propriétés dans la scène représentée. L’idée est que la scène représentée doit satisfaire à des propriétés physiques particulières à travers l’ évaluation de la cohérence des couleurs illuminant ( par C. Riess et E. Angelopoulou ) . Nous allons étendre ces méthodes basées sur la direction d’illumination d’objets ou de la cohérence des couleurs pour l’analyse de la scène en utilisant une approche de mesure de qualité. Ce volet a débuté depuis 6 Mois à travers un stage de Master et a donné de nombreux résultats très prometteurs.

2) protection des donnés pour la certification de documents par tatouage

Le second objectif est alors de proposer une méthode venant en complément de la première approche, permettant de renforcer la sécurité des documents. Le défi scientifique et technique associé à cet objectif est par exemple d’insérer dans des documents des tags permettant de certifier le document. A la nature du document, s’ajoute une difficulté supplémentaire, à savoir que le cycle de vie des documents traités peut inclure des processus d’impression puis de re-numérisation, opérations qui mettent en défaut de nombreuses techniques classique de tatouage.
Dans ce cadre, nous nous proposons de considérer deux sous-axes de recherche, un premier axe consiste à utiliser une métrique peu étudiée dans un contexte tatouage: «la métrique rang» qui à la différence de la distance classique de type Hamming (qui corrige des erreurs indépendantes sur des bits) corrige des types d’erreur différents basée sur la notion d’espace vectoriel et d’erreur structurée – ces notions ont permis d’obtenir des résultats très intéressants dans le cadre du Codage réseaux et nous comptons les adapter dans un contexte de tatouage et de print scan, ou cela permettra d’obtenir des tatouages plus robustes. Le deuxième axe que nous proposons d’étudier est de détourner des techniques d’images pour lutter contre le print scan à travers l’utilisation des modèles psychovisuels mais aussi d’introduire des modèles de vieillissement du papier sur une marque.
Face au “Print–scan”, la difficulté réside dans le fait que cette transformation est une combinaison de différentes attaques incluant filtrage, bruit additif, changement d’échelle, transformation affine, modification du contraste et de la luminosité … Ces dernières années, un certain nombre de méthodes sont apparues proposant différentes solutions pour résister à ce type d’attaque, notamment dans le cadre des données multimédia du type image. Un grand nombre d’entre-elles sont des méthodes de tatouages classiques mais qui vont présenter une certaine robustesse face à certains aspects du Print and Scan. Elles proposent notamment de résister à l’aspect géométrique de la dégradation. On peut citer l’utilisation d’une représentation invariante comme Pun et al pun] qui proposent une technique de tatouage fondée sur Fourier Mellin ou la technique décrite dans [pitas] qui positionnent circulairement des motifs dans le domaine de Fourier. D’autres proposent encore l’insertion d’un motif périodique, comme Kutter, et suggèrent alors une étape de resynchronisation. Afin d’être moins dépendant des transformations de luminosité, de filtrage et bruit, une autre stratégie propose d’extraire des points caractéristiques afin d’insérer la marque. On peut notamment citer les travaux de Bas et al. [bas]. Suivant cette idée d’extraction d’éléments caractéristiques, on peut alors introduire les stratégies de Hachage perceptuel qui utilisent des signatures perceptuelles comme outil pour la création d’une clé dépendant du contenu, clé qui permettra de mettre en évidence des modifications du contenu. Enfin ils existent des techniques qui proposent un tatouage multiple (multicanaux). Dans ce cas, la stratégie consiste à intégrer différents tatouages, certains par exemple devant permettre de lutter contre les transformations géométriques (pouvant être définis dans le domaine de Fourier), et d’autres se positionnant dans le domaine spatial et contenant une certaine information.

Face à cette attaque particulière, nous proposons donc de nous inscrire suivant deux axes.

3) Volet Tatouage et code

Tout d’abord puisque le laboratoire XLIM a développé depuis de nombreuses années des stratégies de tatouage autour du document multimédia, nous proposons de développer une solution de sécurisations de documents multimédia suivant une stratégie multicanaux.En effet, à travers le travail mené depuis de nombreuses années sur les stratégies de tatouage (certaines d’entre-elles brevetées) nous pouvons déployer des solutions luttant contre chacun des aspects de l’attaque Print and Scan. Une des questions concerne tout d’abord l’insertion de ces marques multiples, donc la création des différents canaux. Ensuite, on peut s’interroger sur la prise de décision lors de la détection face à ces différentes signatures. Comme nous l’avons déjà précisé, durant ces 6 derniers mois, une première solution a été testée par le candidat sur cette thèse utilisant une décomposition en ondelettes pour créer les différents canaux, et utilisant donc une métrique Rang pour décoder les signatures, face à des attaques de type Print and Scan.
– Volet utilisation d’outil d’image pour le print/scan
Approche pyschovisuelle: Ensuite, nous nous inscrivons pleinement dans la famille de méthode présentée dans la bibliographie concernant l’approche Hachage perceptuel et détection de points particuliers. Nous souhaitons à ce titre utiliser l’expérience acquise dans le cadre notamment de la compression avec une approche psychovisuelle afin de définir une description et une caractérisation du document permettant soit de «résumer» le contenu soit de mettre en évidence une certaine structure résistante à l’attaque Print/scan.
Enfin nous souhaitons introduire dans la chaîne un élément de modélisation original.
Approche modélisation en image du vieillissement du papier: le contexte de printScan est un contexte plus spécialisé que le tatouage classique puisqu’il vient après une numérisation de l’image, dans ce contexte un axe peu étudié et qui a son importance est l’impact du vieillissement du papier sur la marque, nous nous proposons de développer l’utilisation de modèle de vieillissement du papier dans un contexte de PrintScan, ce travail se basera sur des modèles numériques de vieillissement du papier domaine dans lequel le laboratoire XLIM a un grande expertise.

References:
1. M.Bleier, C. Riess, S. Beigpour, E. Eibenberger, E. Angelopoulou, T. Tröger, A. Kaup: « Color Constancy and Non-Uniform Illumination: Can Existing Algorithms Work? ». IEEE Color and Photometry in Computer Vision Workshop, Nov. 12th 2011.
2. Yi-Lei Chen; Chiou-Ting Hsu; Image tampering detection by blocking periodicity analysis in JPEG compressed images; Multimedia Signal Processing, 2008 IEEE 10th Workshop on; pp. 803 – 808; 8-10 Oct. 2008
3. Christlein, Vincent; Riess, Christian; Angelopoulou, Elli, On Rotation Invariance in Copy-Move Forgery Detection, Proceedings of the 2010 Second IEEE Workshop on (Workshop on Information Forensics and Security), Seattle, USA, 12.12.-15.12.2010, pp.-, 2010
4. Johnson M.K. and Farid H.: “Exposing Digital Forgeries by Detecting Inconsistencies in Lighting”, Proc. ACM Multimedia and Security Workshop, New York, pp. 1–9, 2005
1. B. Maxwell, R. Friedhoff and C. Smith, « A Bi-Illuminant Dichromatic Reflection Model for Understanding Images ». IEEE Computer Vision and Pattern Recognition, June 2008.
2. Popescu A.C. and Farid H.: “Exposing Digital Forgeries by Detecting Traces of Resampling”, IEEE Transactions on Signal Processing, vol. 53(2), pp. 758–767, 2005.
3. C. Riess, E. Eibenberger, E. Angelopoulou: « Illuminant Color Estimation for Mixed-Illuminant Real-World Scenes ». IEEE Color and Photometry in Computer Vision Workshop, Nov. 12th 2011.
4. Riess, Christian; Angelopoulou, Elli Scene Illumination as an Indicator of Image Manipulation Information Hiding, 6th International Workshop, Calgary, Canada, 28.6.-30.6.2010, pp. 66-80, 2010
5. C. Riess, E. Angelopoulou, « Physics-Based Illuminant Color Estimation as an Image Semantics Clue ». IEEE International Conference on Image Processing, 7.11.-10.11.2009, pp. 689-692.

Objectifs scientifiques de la thèse
Les résultats attendus concernent à la fois la proposition de solutions novatrices dans ce cadre de la sécurité, mais aussi à la proposition d’une solution réaliste dans le cadre industriel.

Compétences à l’issue de la thèse
Compétence: Traitement des données multimédia, Tatouage, sécurité numérique, code

Mots clés (séparés par des virgules)
sécurité, image, code

Directeur de thèse
Philippe Carré
Adresse mail du directeur de thèse : [philippe.carre@univ-poitiers.fr

Téléphone Directeur de thèse : 0549496576

Co-directeur de thèse
Philippe Gaborit
Adresse mail du co-directeur de thèse : gaborit@unilim.fr
Téléphone co-Directeur de thèse : 05 87 50 67 81
Cofinancement LABEX SigmaLIM demandé : OUI

Justification du cofinancement LABEX
Ce sujet de thèse, transverse aux deux départements DMI et SIC se place clairement dans la problématique de la sécurité des données.
Cette collaboration existe depuis de nombreuses années et a été validée par différentes publications revues et conférences.
Avec quelle thématique du comité de pilotage avez vous pris contact : Thème 5: Sécurité

Recherche

Menu principal

Haut de page