Synthèse d'Image Avancée

Lancez-Vous. C'est gratuit
ou s'inscrire avec votre adresse e-mail
Synthèse d'Image Avancée par Mind Map: Synthèse d'Image Avancée

1. Éclairage local

1.1. Définition

1.1.1. Lumière propre (source de lumière)

1.1.2. Lumière ambiante (approximation de la lumière émise ou réfléchie par l'environnement)

1.1.3. Autres sources de lumières

1.2. Catégories des sources de lumière

1.2.1. Infinitésimales

1.2.1.1. Directionnelle

1.2.1.2. Ponctuelle

1.2.1.3. Diagrammes goniométriques

1.2.1.3.1. Ponctuelle

1.2.1.3.2. Distribution directionnelle

1.2.2. Étendues

1.2.2.1. Uniforme (néon)

1.2.2.2. Non uniforme (phare de vélo avec déflecteur)

1.2.2.3. Percentage Closer Soft Shadow (PCSS) : Taille d'échantillonnage en fonction de la distance aux occludeurs

1.3. Réflexions (BRDF)

1.3.1. Diffus (lambertien)

1.3.2. Phong

1.3.2.1. Simple : (rayonCamera . rayonReflechi)

1.3.2.2. Blinn-Phong (normale . bissectrice(incident,reflechi))

1.3.3. Glossy

1.3.4. Miroir (spéculaire)

1.3.5. Anisotropie : velours

1.3.5.1. Nécessite une paramétrisation de la surface

1.3.5.2. Le modèle de Lafortune-Phong est anisotrope

1.4. Interpolation

1.4.1. Gouraud

1.4.1.1. Interpole valeur aux sommets

1.4.2. Phong

1.4.2.1. Interpole les données d'entrée au sommet, puis recalcule au niveau du fragment

1.4.2.2. Nécessite une renormalisation de la normale (sinon, trop courte)

1.5. Ombres

1.5.1. Ombre dure : est-ce qu'il existe au moins un objet occultant ?

1.5.2. Shadow Volum

1.5.2.1. Stencil Buffer : On compte le nombre d'entrées et sorties dans un volume d'ombre depuis la caméra jusqu'à l'objet :

1.5.2.1.1. Si 0 : éclairé

1.5.2.2. Deux passes (pour compter successivement les fronts et les back)

1.5.3. Shadow Mapping

1.5.3.1. Standard

1.5.3.2. Perspective Shadow Map

1.5.3.3. Exponential Shadow Map

1.5.3.4. Soft shadow Mapping

1.5.4. Ambient occlusion

2. Éclairage global

2.1. Géométrique sphérique

2.1.1. Angle solide

2.1.1.1. L'angle solide sustenté par une surface en P est l'aire de cette surface projetée sur la sphère unité centrée en P

2.1.1.2. Unité : stéradian

2.1.2. Angle solide différenciel

2.1.2.1. Intégration de l'angle différentiel par un pas de discrétisation)

2.1.3. On cherche à calculer la radiance en chaque point

2.1.3.1. Ajout de la radiance de la surface (source primaire) à la BRDF + convolution des radiances des autres surfaces

2.1.3.2. La notion de visibilité ajoute des discontinuités

2.1.3.3. Proba de Monte-Carlo

2.1.4. Facteur de forme

2.2. Radiométrie

2.2.1. Propriétés Surface

2.2.1.1. Puissance

2.2.1.2. Irradiance (combien d'énergie arrive sur une surface)

2.2.1.3. Radiosité (combien d'énergie est ré-émise sur une surface)

2.2.2. Propriétés Point+Direction

2.2.2.1. Radiance : Puissance par aire projetée et par angle solide

2.3. Photométrie

2.3.1. Pondération de la radiométrie en fonction de la perception humaine

2.3.2. Peut être réalisé en post processing (Tone mapping)

3. La chaîne de rendu

3.1. Transformation aux sommets

3.1.1. Vertex Shader

3.1.2. Données présentes

3.1.2.1. Variables globales

3.1.2.2. Données par face (dupliquées pour chaque sommet)

3.1.2.3. Données par sommet

3.1.2.3.1. Position

3.1.2.3.2. Normale

3.1.2.3.3. Couleur

3.1.2.3.4. Paramètres d'éclairement

3.1.3. Notion absente

3.1.3.1. Voisinage

3.1.3.2. Sommet déjà traité

3.1.3.3. Face

3.2. Assemblage

3.2.1. Geometric Shader

3.2.2. Données présentes

3.2.2.1. Variables globales

3.2.2.2. Données par face

3.2.2.3. Données sur tous les sommets

3.2.2.3.1. Position

3.2.2.3.2. Normale

3.2.2.3.3. Couleur

3.2.2.3.4. Paramètres d'éclairement

3.2.2.4. 1-voisinage : les faces partageant un sommet avec la face courante

3.2.3. Notion absente

3.2.3.1. Voisinage étendu

3.2.4. Utilisation classique

3.2.4.1. Subdivision

3.3. Élimination/Projection

3.3.1. Back Face Culling

3.3.1.1. Algorithme

3.3.1.2. Avantages

3.3.2. Projection

3.3.2.1. Orthogonale

3.3.2.2. Perspective

3.3.3. Viewport : coordonnées écran -> coordonnées pixel

3.4. Rastérisation/échantillonnage

3.4.1. Théorème de Shanon / fréquence de Nyquist

3.4.2. Anti-aliasing

3.4.2.1. Problèmes de répétition

3.4.2.1.1. Échantillons aléatoires

3.4.2.1.2. Interleave Sampling

3.4.2.2. Problème d'échantillonage

3.4.2.2.1. Calcul de la couverture d'un pixel

3.4.2.2.2. Calcul de la distance à la ligne (approximation solution précédente)

3.4.2.2.3. Sur-échantillonnage

3.4.2.2.4. Mip-mapping

3.5. Élimination des pixels non visibles

3.5.1. Méthode de Sutherland-Hodgeman

3.6. Transformation du fragment

3.6.1. Données présentes

3.6.1.1. Variables globales

3.6.1.2. Données issues de la rasterization

3.6.1.2.1. Interpolation des valeurs par sommets

3.6.1.2.2. Position

3.6.1.2.3. Normale

3.6.1.2.4. Couleur

3.6.1.2.5. Paramètres d'éclairement

3.6.1.2.6. Eclairement

3.6.2. Notion absente

3.6.2.1. Voisinage

3.6.2.2. Pixel

3.6.2.3. Face/Sommet

3.7. Transformation du pixel

3.7.1. Histogramme

3.7.2. Alpha test

3.7.3. Z-Buffer

3.7.3.1. Algorithme

3.7.3.1.1. Tous les pixels à -infini

3.7.3.1.2. Pour chaque polygone

3.7.3.2. Avantages

3.7.3.2.1. Facile à implémenter

3.7.3.2.2. Travaille dans l'espace image : pas de prés traitement

3.7.3.3. Inconvénients

3.7.3.3.1. Coût en mémoire (tampon de la taille de l'image

3.7.3.3.2. Travaille dans l'espace image : aliasing, artefacts

3.7.3.3.3. Problème d'ordre pour la transparence

3.7.3.3.4. Coût en O(nbPixelMoyenPoly * nbPoly)

3.7.3.4. Variante : Hierarchical Z-buffer

3.7.3.4.1. Interdit toute modif du Z dans le fragment

3.7.4. Stencil

3.7.5. Alpha blending

3.7.6. Operation logique

3.7.7. Dithering

4. Complexité des algos de rendu

4.1. Notation

4.1.1. n = nombre de pixel moyen par polygones

4.1.2. N = nombre de pixel dans l'image

4.1.3. p = nombre de polygones

4.2. Z-buffer

4.2.1. O(n*p)

4.3. Algorithme du peintre

4.3.1. O(n*p*ln(p))

4.4. Tracé de rayon

4.4.1. O(N*ln(p))

5. Transformation perspective et caméra

5.1. Utilisation des coordonnées homogènes pour pouvoir cumuler les opérations géométriques

5.2. Multiplication de matrice non commutative