Précédent : Fondements scientifiques
Remonter : Projet TEMICS, TraitEment, Modélisation
d'Images Suivant : Logiciels
Résumé : Nous détaillons les cadres applicatifs rattachés à nos actions de recherche en les classant par rapport aux fonctionnalités de communication qu'ils sous-tendent, celles-ci pouvant être hybridées. Il s'agit essentiellement:
- d'applications orientées vers la compression de données Source (images vidéo essentiellement) et la prise en compte de modélisation de type signal ou psychovision ;
- d'applications de type "post-traitement" (vidéo) travaillant soit sur des images vidéo originales pour la manipulation et la représentation de celles-ci, soit sur des flux vidéo décodés après reconstruction.
- d'applications de (télé)communications ou de consultation d'images prenant en compte simultanément plusieurs contraintes en relation avec la nature des sources d'images véhiculées, le type et la topologie du support de communication utilisé et enfin la qualité de service envisagée.
Les cadres applicatifs naturels de ce thème concernent, pour une part, les aspects de stockage (compression) et de consultation aisée (décompression) de bases de données d'images et d'autre part, la diffusion de signaux (audio)visuels sur canaux de communication à bande étroite. Les outils de compression d'images répondent désormais à la majeure partie des applications "standards" pour le codage et le décodage source à pour des moyens et hauts débits avec qualité de reconstruction homogéne au sein de la scène visuelle. Il demeure par contre de nombreuses investigations à mener concernant les applications de compression d'images fixes Haute-résolution, ceux de compression quasi-sans pertes avec prise en compte de modèles basés psychovision ou post-traitement et ceux de compression sélective. Enfin, mentionnons les recherches toujours necessaires pour étendre, aux applications de codage bas-débits (inférieures à 0.5bpp), les outils de la théorie de la quantification et du codage entropique.
Les domaines d'applications concernent donc les communications audiovisuelles interpersonnelles, la diffusion, le stockage et la consultation de documents audiovisuels. De manière plus restrictive, les modalités d'imagerie biomédicale et satellitaire posent des questions particulières de qualité de reconstruction et de caractérisation des dégradations.
Notons enfin un nouveau champ applicatif concernant les communications mobiles ou plus généralement la transmission d'images sur canaux (ou réseaux) fortement bruités (ou avec pertes liées à des congestions) pour lesquels des algorithmes de codage/décodage robustes doivent être spécifiquement étudiés, rejoignant en cela les aspects de couplage source-canal.
La nécessité de disposer d'outils automatiques ou semi-automatiques (l'aspect intéractif via des I.H.M adaptées n'est pas à exclure dans un tel cadre) permettant la manipulation d'objets vidéo apparait de plus en plus fortement dans le domaine de la post-production vidéo, notamment pour la création d'effets spéciaux et la composition de scène (cadre MPEG4). Effectivement, si les outils de post-production actuels permettent de mettre en oeuvre de telles modifications sur les données vidéo originales, ils sont très largement manuels et, de ce fait, leur mise en oeuvre est difficile et coûteuse. Nous pouvons distinguer deux types fondamentaux de manipulations d'une séquence vidéo acquise par une caméra: 1) l'édition vidéo pour laquelle on souhaite supprimer des objets existant dans la scène ou ajouter de nouveaux objets réels ou synthétiques, et 2) la modification artificielle de la position, de la focale ou du mouvement de la caméra permettant de changer a posteriori le cadrage de la scène en fonction de l'application visée.
Dans ces deux cadres applicatifs, la difficulté majeure réside en la détection et la segmentation finement localisées des objets vidéo considérés ainsi qu'un mode efficace de représentation de ceux-ci assurant, par exemple, une compatibilité avec les modeleurs géométriques et radiométriques d'objets de synthèse. Par ailleurs, la modification des caractéristiques du capteur, en simulant par exemple un capteur virtuel, nécessite également une modélisation géométrique d'ordre supérieur à la simple projection perspective bidimensionnelle sur un plan image; ceci recherche l'identification de plans de profondeurs et vise la création de vues intermédiaires par interpolation.
Les services et les applications multimédias qui sont en cours de déploiement évoluent en permanence et demandent à être enrichis. Les nombreuses actions de développement qui ont pour finalité la définition des services de consultation, de diffusion et de communication interactive multimédia reposent, pour la représentation, la manipulation et la présentation des contenus, sur l'utilisation de normes ou standards principalement orientées ``compression''. Les technologies qu'elles mettent en oeuvre présentent certaines limitations, comme par exemple des degrés limités d'interaction avec le contenu de l'information multimédia, et une intégration limitée de sources multimédia de natures différentes.
Par ailleurs, la transmission multipoint s'avère aujourd'hui un besoin fondamental d'un très grand nombre d'applications, allant des applications ``classique'' de communications de groupes telles que la visioconférence ou le travail coopératif à de la diffusion d'informations de type ``news", applications parfois connues sous le nom de ``push media". Or les problèmes posés pour ce genre d'applications sont liés au nombre important et à l'hétérogénéité des destinations, que ce soit des terminaux eux- mêmes ou des canaux de transmission reliant la source aux destinations.
Les quelques exemples d'applications de consultation suivants illustrent ces possibilités : ``le téléachat'' ou la ``télévisite'' où l'utilisateur a la possibilité non seulement de naviguer dans l'espace de visite mais aussi d'adapter le mode de communication à ses goûts ; le ``téléenseignement'' avec consultation de documents (encyclopédies, ouvrages divers avec contenus audiovisuels naturels ou synthétiques).
Dans ce type d'application, le codage des contenus multimédia (audiovisuels, 3D synthétique) est en général réalisé en différé, ce qui conduit à un service asymétrique où seul le décodage doit être en temps réel. Cette caractéristique va fixer un cadre spécifique pour une partie des travaux de codage, notamment pour les aspects couplage source-réseau, qui seront développés dans ce contexte.