EnglishSuivant

Analyse et synthèse temps réel du visage pour la télévirtualité


Copyright

Grandes Image(s): 640*480



Image Jpeg (32 Ko) Image Jpeg (20 Ko)
Image Jpeg (30 Ko) Image Jpeg (10 Ko)


Auteur(s)

Institut(s)

Projet : Télévirtualité

  • Couriel : virtuel@ina.fr
  • URL : http://www.mediaport.net/Ina/Recherche/TV/TV.en.html

    Film(s) et Image(s) Extraite(s): 320*240

    Film
    "Littérature "
    Video QuickTime -> Film/Video (3.7 Mo)
    Images Jpeg -> (7 Ko) (6 Ko)

    Film
    "La bouche "
    Video QuickTime -> Film/Video (4.7 Mo)
    Images Jpeg -> (10 Ko) (10 Ko) (10 Ko)

    Film
    "La tête "
    Video QuickTime -> Film/Video (7.0 Mo)
    Images Jpeg -> (10 Ko) (10 Ko)

    Film
    "Les yeux "
    Video QuickTime -> Film/Video (3.5 Mo)
    Images Jpeg -> (11 Ko) (11 Ko) (8 Ko)

    Film
    "Les expressions "
    Video QuickTime -> Film/Video (4.0 Mo)
    Images Jpeg -> (11 Ko) (11 Ko)

    Film
    "Le rire "
    Video QuickTime -> Film/Video (1.6 Mo)
    Images Jpeg -> (10 Ko) (11 Ko)



    Description



    Un visage de synthèse est animé en temps réel à partir d'un vrai visage. Le spectateur voit en parallèle les deux visages.

    Information d'ordre technique

    Ce film a été realisé avec une SGI indigo pour la capture et l'analyse de l'image, et une SGI extrème pour le rendu du visage de synthèse.

    Complément d'information


    • Bibliographie :

      (2) "Analyse et synthèse en temps réel de visage pour la télévirtualité" , Actes d'Imagina p73, 1994

    • Résumé :

      Prototype d'une chaine temps réelle d'analyse et synthèse de visage. Un acteur est placé devant un camescope, son visage remplissant l'image. Cette image est digitalisée puis analysée en temps réel pour animer à distance un visage de synthèse. Le visage réel ne dispose d'aucun marqueur ou capteur, seules les lèvres doivent dans certains cas être maquillées. Le modele d'animation façiale reproduit les contractions musculaires détectées par rapport à la position au repos du visage. Les données transmises sont très faibles: de l'ordre de 4 pixels/frame.

      (2) Si l'animation de clones virtuels n'est plus du domaine du rêve, elle nécessite des contraintes encore trop fortes pour beaucoup d'applications (dispositif de contact, capteur, immobilisation de la tête face à la caméra...). Nous proposons dans cet article une chaîne analyse/synthè se temps réel pour l'animation de visages faisant intervenir de faibles contraintes. Cette étude s'inscrit dans le cadre d'une opération de télévirtualité: plusieurs personnes distantes se retrouvent, par l'intermédiaire de leur représentant de synthèse, dans un même environnement virtuel. nous pourront ainsi partager une même communauté virtuelle, entrer dans un minitel virtuel, assister à une visioconférence, avoir accès au télétravail, ou même prendre part à des jeux multi-participants. Le système se décompose de la manière suivante:

      1. entrée vidéo
      2. analyse des images réelles: extraction de paramètres caractéristiques
      3. interprétation symbolique des paramètres
      4. transfert de ces paramètres vers une machine distante
      5. animation du clone de synthèse imaginaire ou réaliste
      6. sortie vidéo
      Le traitement des images vidéo a pour but d'extraire les paramètres de contrôle du visage réel. n s'agit essentiellement de retrouver les mouvements de la tête et de déformation de la bouche. Pour le modèle réaliste, les paramètres relatifs aux mouvements des muscles faciaux extraits de l'analyse sont interprétés en termes d'intensités musculaires. Seuls les paramètres nécessaires à la synthèse de l'image du clone sont transmises par réseau ou ligne téléphonique. Le clone de synthèse peut être soit imaginaire, il relève alors d'un modèle géométrique, soit réaliste, et il possède alors une base musculaire. La surface du visage est alors représentée par un réseau de ressorts. Chaque muscle est modélisé par des forces, et les dé formations musculaires sont calculées en résolvant les équations de la dynamique relatives au système (visage/force). Puis les déformations musculaires sont pré calculées pour obtenir un système qui évolue en temps réel. Enfin, une texture de visage est mappée sur la représentation polygonale du visage.




    • Pointeurs :

      (oo) Projet Télévirtualité
      http://www.mediaport.net/Ina/Recherche/TV
      (oo) Facial Animation
      http://mambo.ucsc.edu/psl/fan.html
      (oo) Facial Analysis
      http://mambo.ucsc.edu/psl/fanl.html



    • Fiches du CyberScience en rapport :

      (oo) Même Auteur
      (ooo)Animation faciale et vieillissement

    EnglishSuivant
  • Copyright © 1994-2015 mediaport.net/w3architect.com | Hébergé par p2pweb
    Autres Sites : afromix.org | Actualité Afrique et Caraïbe | Flux d'actualité thématiques | Actualité Européenne