EA2012-Biometrie

From air
Revision as of 15:34, 10 January 2013 by VigierEloy (talk | contribs)
(diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)
Jump to navigation Jump to search

Biométrie - Techniques de reconnaissance d'individus
Etudiants: Fabien Eloy et Sylvain Vigier

Les diapositives

Le PDF des diapositives de notre présentation est disponible ici : http://air.imag.fr/mediawiki/images/2/26/EA2012_ELOY_VIGIER_BIOMETRIE.pdf

Mots clés

Biométrie, Authentification, Identification, Empreintes digitales, Iris, Reconnaissance Faciale

Résumé

La biométrie désigne l'ensemble des technologies destinées à vérifier l’identité d'une personne. Aujourd’hui, ces techniques arrivent sur nos ordinateurs, téléphones, consoles de jeux... Quelles sont les différentes techniques de biométrie aujourd'hui? Ou les retrouve t-on? Sont elles fiables? Qu'est ce qui caractérise une bonne technique de biométrie? Ce sont les questions auxquelles nous essayeront de répondre à travers cette présentation.

Abstract

Biometrics refers to technnologies to check people identity. Today, biometrics are coming on our laptops, smartphones, video game consoles... What are the different biometric techniques today? Where are they used? Are they reliable? What are the characteristics of a good biometric technique? These are the questions we will try to answer through this presentation.

Synthèse


Qu'est-ce que la biométrie

Etymologiquement biométrie signifie la mesure du vivant et désigne au sens général l’étude quantitative des êtres vivants. Habituellement, ce terme se rapporte à l’usage de techniques servant à vérifier l’identité d’une personne à l’aide d’une ou plusieurs modalités qui lui sont propres (comme la voix, l’iris ou les empreintes digitales par exemple).


Pourquoi la biométrie

La biométrie devient de plus en plus nécessaire à cause des inconvénients des systèmes de vérification standards (CB, badges magnétiques par exemple) mais aussi (ou donc) à cause des besoins accrus en terme de sécurité.

En effet, la perte, le vol ou la falsification sont des problèmes facilement évitables avec la biométrie. La circulation transfrontalière est très concernée, avec l'avènement du passeport biométrique !

De plus, nous avons de plus en plus de mots-de-passe et comme le montre une étude réalisée par une université anglaise, 91% de ceux-ci sont "connus" c'est-à-dire issus de l'environnement familier de la personne et donc jugés non viables par les spécialistes du cryptage.

Mais l’usage de la biométrie reste encore limité à cause des problèmes de coût, d’acceptabilité (des utilisateurs), de performances …


Vérification vs Identification

La biométrie doit forcément débuter par une « capture » de données, pour mettre à jour une base. C’est ce qu’on appelle « l’enrôlement ». Bien sûr, plus l’enrôlement est précis et de bonne qualité, plus les performances du système s’appuyant dessus pourront être bonnes.
La biométrie est utile pour de l’identification et/ou de la vérification.

La vérification (ou l’authentification) est le fait de s’assurer de la bonne identité d’une personne :

  • L’utilisateur fournit un identifiant « ID » au système de reconnaissance
  • Puis un échantillon biométrique qui sera comparé à l’échantillon biométrique correspondant à l’utilisateur « ID » contenu dans la base de données biométriques. Si les données correspondent, l’utilisateur est reconnu.

L’identification est la reconnaissance d’une personne parmi n personnes :

  • Une seule étape : l’utilisateur fournit un échantillon biométrique qui va être comparé à tous les échantillons biométriques contenus dans la base de données. On renvoie son identité, sinon l’identification échoue.

Les erreurs

Les erreurs que l’on peut faire sont de 2 sortes :

  • Faux négatif = rejeter faussement l’identité d’une personne.
  • Faux positif = accepter quelqu’un à tort.

A partir de cela on peut définir différents taux : le taux de faux négatifs et de faux positifs, en divisant le nombre de cas par le nombre total de personnes. Enfin on définit le taux d'erreurs global en faisant une moyenne des deux taux précédents.

Il faut savoir que les fabricants ne recherchent pas uniquement la sécurité absolue, ils veulent quelque chose qui fonctionne "en pratique". En effet, ils cherchent à diminuer le taux de faux négatifs tout en maintenant un taux relativemet bas de faux positifs. Un système fonctionnal aura un taux de faux négatifs le plus bas possible tandis qu'un système sûr minimise le taux de faux positifs.
Dans la vie courante, les industriels vont principalement chercher à avoir un bon compromis entre les deux afin d'avoir un coût raisonnable et une utilisabilité rendue plus facile.

Les critères

On distingue 4 critères pour classer les modalités.

  • Effort : c’est l’effort requis par l’utilisateur
  • Intrusif : niveau de perception par l’utilisateur du test comme intrusif
  • Coût : coût de la technologie
  • Précision : efficacité de la méthode

Il existe une multitude de modalités. Nous exposerons les plus connues ainsi qu'une plus originale.


Reconnaissance de visages

Forme du visage

La reconnaissance faciale est actuellement encore en développement. Elle commence cependant à apparaitre dans l’informatique d’aujourd’hui :

  • Android voit la reconnaissance faciale introduite dans la version 4.0.
  • Réseaux sociaux
  • Logiciels photo (ex :Picasa)
  • Logiciels d’authentification sur ordinateur


Il existe plusieurs algorithmes de reconnaissance faciale, regroupés en deux catégories :

  • Approches «Images » : Eigenfaces (Analyse en Composantes Principales), Fisherfaces (Analyse Discriminante Linéaire). Ces approches fonctionnent pour tout type d'images et pas seulement des visages.
  • Approches par modèles de visages : calcul de valeurs caractéristiques du visage (ex : distance entre les yeux, longueur du nez, forme du menton)


Voici le fonctionnement de la méthode « EigenFaces », proposée en 1991 :

  • On possède une image que l'on veut associer à une autre image parmi un ensemble d'images de référence. Ces images sont définies dans un espace de dimension n, ou n=hauteurImage*largeurImage (pixel).
  • On calcul un ensemble d'eigenfaces formant une base de l’espace des images de référence. Une eigenface est donc un vecteur à n dimension, et une image qui représente un modèle ou une caractéristique d'un visage.
  • On ne conserve que k eigenfaces qui suffisent à approximer l’ensemble des visages. Nous sommes donc dans un sous espace de dimension k.
  • On projette les images de référence et le visage à identifier dans ce sous espace. On calcule la distance entre ces 2 projections. Si 2 images ont une distance inférieure à un certain seuil, alors on décide que ces deux images représentent la même personne.

La méthode "EigenFaces" permet d'obtenir de bons résultats lorsque l'utilisateur est bien en face de la caméra avec un éclairage similaire entre chaque photo. La réussite est estimée à 96% avec des variations de lumière, 85% avec des orientations différentes, 64% avec des variations de taille. Pour limiter la sensibilité à ces paramètres, on utilise d'autres méthodes comme "Fisherfaces".


Afin d'obtenir des meilleurs résultats, des recherches sont menées sur la reconnaissance faciale 3D. Quelques modèles sont même déjà sur le marché. Une des méthodes employées est de projeter un modèle sur le visage à identifier. Le modèle est alors réfléchi et déformé par le volume du visage, que l'on va pouvoir reconstituer à partir de ces déformations. Cela permet d'être insensible aux variations de lumière, et d'identifier des personnes selon différents angles de vue. D'après certaines études, cette méthode pourrait être aussi précise que la reconnaissance d'empreintes digitales.

Reconnaissance de l'iris

La reconnaissance de l'iris est proposée pour la première fois en 1936, par l’ophtalmologue Franck Burch. Mais c'est seulement en 1994 que les algorithmes à la base de la reconnaissance d'iris seront brevetés, par John Daughman.

Qu'est-ce-que l'iris?
C'est un réseau de tubes très fins, dont l’enchevêtrement varie peu avec le temps. En revanche, la couleur peut varier. L'iris n'est pas lié à l'ADN: les formes des deux iris d'une même personne seront complètement différentes.

Comment capture t-on l'image d'un iris?
Il est difficile de prendre l'image d'un iris. C'est un organe petit et sensible. Les utilisateurs bougent et les reflets rendent la prise compliquée. La capture se fait généralement dans un domaine entre 700 et 900 nm. Il faut obtenir au minimum 70 pixels de rayon, mais la moyenne est entre 100 et 140.

Quel traitement est fait ensuite?

  • On détermine le centre de la pupille et la position de l’iris. Cela est fait grâce à l'analyse de cercles de haute présence dans l'image.
  • On extrait des bandes de taille régulière entre la pupille et le blanc de l’oeil. La taille des bandes varie selon la dilatation de la pupille.
  • On génère un iris code de 2048 bits grâce aux ondelettes de Gabor.
  • On compare 2 iris code avec la distance de Hamming et si cette distance est inférieure à 0.32, on considère que c'est le même iris donc la même personne.

La reconnaissance d'iris est un système fiable pour faire de l’authentification, on peut notamment distinguer deux vrais jumeaux, et la probabilité de trouver 2 iris identiques est de 1/(2^72). En pratique on réalise avec la méthode définie ci-dessus une erreur sur 26 millions de comparaisons. Il existe aujourd'hui peu de produits commerciaux de reconnaissance d'iris. C'est une technologie couteuse, de nombreux brevets sont déposés et la capture de l'iris est contraignante pour l'utilisateur. Néanmoins, il existe quelques utilisations dans les aéroports ou les entreprises (ex.: accès aux datacenter de Google).


Biométrie de la main

Empreintes digitales

C’est sûrement la technique la plus connue du grand public.
C’est grâce à Alphonse Bertillon un criminologue français, en 1880 que l’on a commencé à identifier des récidivistes. L’idée d’en faire un instrument d’identification est attribuée au Britannique Galton qui a démontré la permanence des empreintes : leur unicité et leur inaltérabilité.
Il a estimé à 1 sur 64 milliards la probabilité que deux individus aient les mêmes empreintes.

Une empreinte est caractérisée par des minuties. Une minutie est l’arrangement particulier des lignes sur les doigts formant des points caractéristiques comme des arrêts de lignes, des bifurcations, des lacs etc.
Pour la police, il faut de 8 à 17 points de comparaison (le plus souvent 12 suffisent) pour qu’on estime établie l’identification.

Les capteurs utilisés

  • Optique : caméra digitale. C'est le plus utilisé, mais il peut facilement être trompé par une image ou un faux doigt
  • A ultrasons : émission/réception d'une onde ultrasonore permettant de reconstruire une image de l'empreinte. Pas de contact avec une surface pouvant être sale. Plus coûteux.
  • Coût : coût de la technologie

Les avantages

Le lecteur a une petite taille et un faible coût ce qui facilite son intégration dans la majorité des applications et appareils.
Le traitement par cette modalité est rapide et on obtient un bon compromis entre le taux de rejet et de fausse acceptation.

Les inconvénients

L'opinion du grand public : une image "policière", l'impression d'être fiché.
Besoin de coopération de l'utilisateur : pose correcte du doigt sur le lecteur.
Certains systèmes acceptent des faux doigts, des doigts coupés, des images ...

Forme de la main

La forme de la main est une caractéristique de chaque individu. On fait une acquisition par un scanner spécialisé.
Les paramètres de la capture sont la longueur et l'épaisseur des doigts, leur position relative et éventuellement le réseau veineux pour des systèmes évolués.

Les avantages

En général, les usagers acceptent assez bien cette modalité. Sa simplicité d'utilisation est reconnue par tous. Ceci explique peut-être cela ...
De plus, le résultat est indépendant de l'état de propreté des doigts.

Les inconvénients

Ce système est bien trop encombrant pour un usage "particulier".
Il subsiste un risque de fausse acceptation pour des jumeaux ou des membres d'une même famille.
Ce système est donc moins fiable que les empreintes digitale et est plus variable dans le temps.

Dynamique de frappe

On peut dire que c'est en quelque sorte la graphologie des temps modernes, car maintenant, nous écrivons plus souvent avec un clavier qu'avec un stylo.
Les paramètres d'acquisition de cette modalité sont la vitesse de frappe, les suites de lettres, le temps de frappe, les pauses ...

Les avantages

C'est une modalité qui n'est pas du tout intrusive, le geste est totalement naturel pour un individu.

Les inconvénients

Dépend fortement de l'état physique de la personne (fatigue, émotion ...) et les résultats peuvent donc facilement différer.

Annexes

Le Fichier Automatisé des Empreintes Digitales (FAED) a été créé officiellement par le décret du 8 avril 1987. Ce fichier doit permettre le traitement automatisé des traces et des empreintes digitales par les services de police et de gendarmerie.
Le traité de Prüm signé le 27 mai 2005 par la Belgique, l’Allemagne, l’Espagne, la France, le Luxembourg, les Pays-Bas et l’Autriche, d’échanger des informations comme des données dactyloscopiques ou des profils ADN.
En août 2011, le nombre d’individus enregistrés dans la base est passé à plus de 4 millions.

Informations complémentaires (Sources)

Wikipédia
Le site biometrie-online
Reconnaissance d'iris
Scanner d'iris
Reconnaissance faciale dans Google+
Reconnaissance faciale
Scanner pour la reconnaissance faciale
Le cours de biométrie de Laurent Besacier ;-)