You are on page 1of 9

Infographie tridimensionnelle

dérivées directement de la géométrie projective. Actuel-


lement, les dessins sont calculés numériquement en par-
tant des données numériques tridimensionnelles. Ceci
permet de changer facilement le centre de projection et
ses différents paramètres. En particulier, on peut calculer
des séries de projections en déplaçant le point de projec-
tion et réaliser ainsi des animations.

Image réaliste réalisée avec Maya et Mental Ray.

La synthèse d'images tridimensionnelles souvent abré-


gée 3D (3D pour trois dimensions : x, y, z, les trois axes
qui constituent le repère orthonormé de la géométrie dans
l'espace) est un ensemble de techniques notamment is-
sues de la CAO qui permet la représentation d'objets en
perspective sur un moniteur d'ordinateur. Elle est actuel-
lement très utilisée en art numérique dans l'industrie du Représentation en perspective d'un paysage, avec le logiciel Bryce
film, initiée par les studios Pixar, Disney, DreamWorks, 3D
Blue Sky, Illumination et ILM et, depuis 1992, dans beau-
coup de jeux vidéo. Il convient de ne pas faire la confusion
avec les termes 3D relatifs au relief ou à la stéréoscopie.

1 Histoire
La dénomination images tridimensionnelles est le nou-
veau nom donné à ce qu'on appelait dessin ou peinture en
perspective depuis la Renaissance.
Voici un exemple de vue perspective réalisée par Piero
della Francesca en 1475[réf. nécessaire] . Certains peintres
s’aident du perspectographe, première machine à dessiner
en 3D, pour leurs compositions picturales.

Rendu laissant apparaître la structure polygonale utilisée pour la


synthèse de l'image.

Les images de synthèse informatiques actuelles reposent


La cité idéale (1475), longtemps attribuée à Piero della Frances- sur les mêmes principes de projection sur un plan et sont
ca indissociables de l'histoire de l'informatique. Les images
de synthèse ont débuté au début des années 1950, aux
La différence est que, avant l'apparition des ordinateurs, États-Unis, et étaient réservées à la recherche, notam-
la perspective était obtenue par des méthodes graphiques ment universitaire. On construisit un système composé

1
2 2 GÉNÉRALITÉS

2 Généralités
La synthèse d'image tridimensionnelles fait appel à un
espace vectoriel. Cet espace est décomposé en trois di-
mensions sur les axes cartésiens, nommés habituellement
X, Y et Z.
Prenons, dans une pièce, un point de référence, et définis-
sons des directions gauche-droite (X), avant-arrière (Y) et
haut-bas (Z). Pour aller de l'origine à un point donné, il
X-plane artistic render faut faire :

• x mètres vers la droite ;

• y mètres vers l'avant ;

• z mètres vers le haut.

d'un tube cathodique et d'un crayon optique, d'après une Si l'on peut permuter l'ordre dans lequel on peut faire le
idée de Ivan Sutherland, du Massachusetts Institute of déplacement, cette combinaison (x, y, z) est unique : un
Technology (MIT), pour le contrôle aérien de l'armée de point de la pièce est représenté par un triplet unique, et un
l'air, puis en 1961 on ajouta sur l'écran une croix pour in- triplet représente un seul point de la pièce (voir Repérage
diquer la position du crayon optique. On pratiquait alors dans le plan et dans l'espace, Système de coordonnées car-
de l'image 2D, puis de l'image 3D, plus coûteuse en temps tésiennes et Géométrie analytique). Ce triplet de valeurs
de calcul et financièrement. s’appelle les coordonnées du point.
Puis les universités se servirent également des images tri- Le point de référence est appelé « l'origine » et se note
dimensionnelles, et en 1967, l'université de l'Utah se spé- habituellement O, il correspond au triplet (0, 0, 0).
cialisa dans ce domaine, en particulier les professeurs Da-
Se déplacer d'une valeur a à gauche équivaut à se dépla-
vid C. Evans et Ivan Sutherland, qui essayèrent de modé-
cer d'une valeur −a à droite. Reculer d'une valeur b équi-
liser divers objets tels que la voiture d’Ivan Sutherland,
vaut à avancer de −b. Descendre d'une valeur c équivaut
et qui fonderont en 1968 la société Evans & Sutherland.
à monter de −c. (Voir l'article Nombre entier relatif).
Puis en 1970, Xerox créa le PARC (Palo Alto Research
Center), qui travaillera très librement, car sans objectifs Prenons maintenant un volume simple, un polyèdre. Ce
commerciaux ; il en sortira de nombreuses découvertes polyèdre peut être défini par les coordonnées de ses som-
que Xerox ne saura pas exploiter. En 1975 fut créée une mets. Par la donnée d'une série de valeurs [ (x1 , y1 , z1 ) ;
des plus célèbres images de l'infographie, la théière, deve- (x2 , y2 , z2 ) ; … ; (xn, yn, zn) ], on définit ce volume.
nue depuis un objet classique de test pour les applications Prenons par exemple les huit points
3D. La théière qui a servi de modèle repose maintenant
au Boston Computer Museum, près d'un ordinateur qui
reproduit son image en trois dimensions. • (−4, −4, −4)
Jusqu'aux années 1980, peu de personnes abordaient • (−4, −4, 4)
ce domaine en raison des coûts du matériel. Mais
l'apparition des ordinateurs personnels, comme le Xerox • (−4, 4, −4)
Star, l'IBM-PC en 1981, et l'Apple Macintosh en 1984,
ont démocratisé l'utilisation de la 3D pour l'étude et • (−4, 4, 4)
la production… L'évolution de la technologie aboutit à
• (4, −4, −4)
de superbes simulations de navettes ou de fusées par la
NASA, ou de paysages et de visages. • (4, −4, 4)
Mais c'est à partir des années 1990 que l'image de syn-
• (4, 4, −4)
thèse et la 3D se démocratisèrent et se développèrent de
façon importante, avec notamment l'arrivée de matériels • (4, 4, 4)
plus puissants permettant le temps réel, comme des cartes
3D chez Silicon Graphics sur des stations de travail haut
de gamme puis plus tard dans les ordinateurs grand public ces huit points définissent les sommets d'un cube dont
Amiga et PC avec des cartes 3D comme la 3DFX ou dans l'arrête a une longueur 8, et dont le centre est en O.
les consoles de jeux comme la PlayStation, la Dreamcast. On a ainsi représenté un cube par un ensemble de valeurs.
Depuis, l'accélération 3D est partie intégrante des maté- Cet espace est également appelé une matrice tridimen-
riels informatiques. sionnelle ou « virtuelle » dans le monde de l'imagerie 3D.
3.2 Rendu 3

3 Techniques limitée par des formes géométriques 2D (générale-


ment des triangles). C'est le format naturel de sortie
La synthèse d'image 3D se décompose essentiellement en des scanners 3D qui mesurent les cotes de points à
deux étapes : la surface des objets. C'est aussi la représentation
généralement utilisée par les dispositifs d'affichage
accélérés pour la 3D.
• Modéliser ce que l'on veut visualiser ou représenter.
Cette étape est appelée modélisation
• Splines, où les surfaces sont décrites par des courbes
• Effectuer la visualisation de ce que l'on a modélisé. formant un treillis.
Cette étape est appelée rendu
• Surfaces implicites, où les objets à représenter sont
Dans chacune de ces étapes, un grand nombre de tech- décrits par des surfaces joignant des volumes, le plus
niques existent. Bien que théoriquement les techniques souvent des sphères.
de modélisation et de rendu soient indépendantes, il va de
• Voxels, reprenant en 3D l'analogie des images numé-
soi que le rendu doit pouvoir exploiter les données modé-
riques où l'espace est divisé en intervalles réguliers.
lisées et bien souvent une technique de modélisation est
étroitement associée avec une technique de rendu.
3.1.2 Logiciels de modélisation
3.1 Modélisation
Le processus de modélisation peut être soit automatique
comme pour un scanner 3D, où un programme va créer
une représentation informatique à partir d'un objet réel
du monde, soit manuel à l'aide d'un logiciel d'édition 3D.
Dans ce dernier cas, un infographiste est responsable de la
création du modèle. Ces logiciels sont appelés modeleurs
d'après l'anglais modeler.
Article détaillé : Logiciel de modélisation 3D.

Parmi les logiciels les plus connus et les plus répandus


Modélisation 3D de la Grande Mosquée de Kairouan (en se trouvent 3D Studio Max, Maya, XSI, LightWave, Ci-
Tunisie). nema4D, 3D Turbo, Modo et le logiciel open source,
Blender.
La modélisation va consister à faire stocker par
l'ordinateur un ensemble de données géométriques et de
caractéristiques graphiques permettant de représenter en- 3.2 Rendu
suite le modèle. Ce modèle est habituellement appelé
scène 3D, d'après l'anglais scene qui signifie « vue », Le rendu se décompose à son tour en plusieurs phases :
on dira donc « vue 3D ». Voir l'article dédié pour plus
d'informations : • Calcul de l'éclairage (on parle d'illumination)
Article détaillé : Modélisation 3D.
• Projection dans le plan d'observation.

• Dessin à proprement parler avec application éven-


3.1.1 Types de modélisation tuelle de textures

• CSG (Constructive Solid Geometry, géométrie


constructive des solides) : les objets sont définis Il arrive que certaines de ces phases soient réalisées en
par des opérations (unions, intersections…) sur des même temps (dans les cartes 3D par exemple)
formes géométriques dans l'espace (polyèdres,
sphères, cônes, courbes de Bézier, splines,
3.2.1 Moteur de rendu 3D
NURBS…). Cette méthode est bien adaptée
pour la création ex nihilo, puisqu'elle correspond
bien à la façon dont l'esprit humain se représente la • Le rendu est une phase qui consiste à transformer
forme des objets. l'espace 3D en une image 2D. Le rendu est généré
par un/des programme(s) qu'on appelle moteur de
• B-Rep (Boundary Representation, représentation rendu 3D, intégré(s) ou non au logiciel de modélisa-
par frontières) : la surface de chacun des objets est tion.
4 3 TECHNIQUES

3.2.2 Illumination la synthèse d'images 3D ont d'abord distingué les algo-


rithmes de calcul des faces cachées qui travaillaient dans
• illumination locale l'espace 3D de la scène et ceux du rendu photoréaliste
• L'algorithme de Gouraud, est une méthode de qui travaillaient dans l'espace 2D de l'image (pixels). Les
rendu très simplifiée puisqu'elle consiste à in- algorithmes de rendu actuels réalisent les deux fonctions
terpoler sur l'image en 2D, ligne par ligne au simultanément.
niveau des pixels, les valeurs d'intensité de D'autres algorithmes de rendu tiennent compte du fait que
l'intérieur d'un polyèdre selon les intensités de les détails et les contrastes s’estompent avec l'éloignement
ses voisins : c'est un lissage 2D. (perspective atmosphérique).
• L'algorithme de Phong est un ombrage 3D qui
permet d'avoir un volume et un effet de ma-
tière, en fonction de la source de lumière et de 3.2.4 Dessin
propriété de réflexion de la lumière du maté-
riau en chaque point du polyèdre, par interpo- À ces types de perspective, on associe un type de dessin :
lation des normales aux sommets.
• illumination globale • Z-buffer (tampon de profondeur des pixels), utilisant
l'algorithme dit du peintre (qui peint la scène en par-
• la radiosité calcule les échanges d'énergie
tant du fond puis successivement les sujets de plus en
lumineuse entre éléments de surface de la
plus rapprochés) pour afficher les scènes constituées
scène en tenant compte de leurs propriétés
de polygones ou de structures plus évoluées comme
de réflexion et d'absorption. Cela nécessite
les nurbs, et qui gère correctement l'affichage de po-
de décomposer la scène en éléments finis
lygones entremêlés à la précision de l'affichage car
de surface. Cela permet des éclairages natu-
le tracé se fait pixel par pixel. C'est une méthode 3D
rellement doux. Cette technique associée au
de calcul de faces cachées à l'échelle des pixels car
lancer de rayons et à d'autres voisines per-
elle conserve la profondeur de chaque pixel.
mettant les inter-réflexions est une technique
d'illumination globale.
• Le lancer de rayon (raytracing, dont est dérivé le
raycasting), simulant le parcours inverse de la lu-
3.2.3 Projection mière de la scène vers l'œil. Cette technique permet
de simuler relativement facilement les phénomènes
Les objets ainsi définis par des nombres peuvent ensuite physiques que sont réflexion et réfraction ainsi que
être dessinés sur un écran ; les triplets de valeurs (x, y, z) les ombres portées mais crée des scènes trop pures
sont transformés en points du dessin. Ce rendu utilise gé- et irréalistes. Dans ce cas, la projection est réalisée
néralement la notion de Perspective linéaire : plus l'objet en même temps que le dessin car tracer un rayon
est loin, plus il est dessiné petit ; ce procédé est parfois implique de le projeter dans la scène 3D.
qualifié de « vraie 3D » ou de « vision naturelle ».
La position des points s’obtient facilement. Un produit • Autres…
matriciel effectue un changement de coordonnées, vers
un repère dont l'origine est le point de vue, l'axe de pro- Des techniques complémentaires d'application de texture
fondeur z’ est la direction principale, perpendiculaire à la (texture mapping) sont utilisées pour le rendu d'effets plus
surface de rendu, et les deux autres axes, x’ et y’ sont pa- réalistes sans pour autant rendre plus complexes les mo-
rallèles à la largeur et la hauteur de la surface de rendu. dèles 3D. Par exemple :
Un produit scalaire par le quotient de la distance entre
point de vue et surface de rendu et la cote sur l'axe z’ de
profondeur, ramène ensuite tous les points dans le plan de • l'application de textures photoréalistes issues de
visualisation. l'objet réel,
La perspective axonométrique, dont la perspective ca-
valière et les projections orthogonales (notamment la • le placage de relief (bump mapping) qui est une per-
perspective isométrique, voir aussi Géométrie descrip- turbation locale des normales à la surface et per-
tive) est une perspective linéaire pour une distance met de rendre l'aspect de surfaces granuleuses par
d'observation infinie. La taille de l'objet ne varie pas avec exemple.
l'éloignement ; l'éloignement est figuré par un déplace-
ment dans le plan de la figure. Elle s’obtient également • les textures d'éclairage
par calcul matriciel.
Le rendu doit généralement déterminer quelles sont les Avec ces techniques apparaissent les problèmes de fil-
parties visibles et les parties cachées. Les techniques de trage, qui est nécessaire pour éliminer les artefacts.
3.6 Holographie virtuelle 5

3.3 Variantes une répartition des couleurs judicieuses. Les lunettes dé-
crites ci-dessus exagèrent l'effet visuel sur ces images spé-
• La représentation par arêtes, équivalente du dessin ciales, mettant au premier plan le sujet de l'image en vert
au trait, ne représente que les bords des objets de la et l'arrière plan du décor en rouge. On obtient ainsi une
scène ne nécessitant qu'un algorithme de faces ca- illusion de profondeur stéréoscopique, ainsi que de relief.
chées. Cette méthode de calcul dans l'espace 3D est
Article détaillé : Stéréoscopie.
encore utilisée dans de nombreux modeleurs pour
avoir un affichage rapide.

3.6 Holographie virtuelle


3.4 Différence fondamentale avec la 2D
Rien n'interdit avec les processeurs actuels de calculer en
Finalement, on a une image 2D. Cette image aurait très quelques minutes, voire en quelques secondes, des ho-
bien pu être dessinée directement en 2D, mais elle a été logrammes simples impressionnés sur des films à bonne
calculée, générée à partir du modèle 3D. résolution. Le procédé existe en fait depuis le début des
Le monde de la 3D en images de synthèse est, effective- années 1970 (l'IBM Systems Journal avait fourni un exem-
ment, mathématiquement réel. Mais le mécanisme ici est plaire d'un tel hologramme calculé dans l'un de ses nu-
inversé, tel un dessinateur reproduisant sur papier carton méros de cette décennie). Le procédé n'eut pas de suite à
une œuvre sculptée sous tous ses angles. L'image en deux l'époque pour des raisons de coût, mais pourrait ressurgir
dimensions résultant du rendu d'une scène tridimension- aujourd'hui.
nelle n'est autre que le sous-produit de ce monde virtuel
« filaire ». Les possibilités de cette technologie sont in-
finies, tout comme un artiste dessinateur pourrait repro- 4 Contraintes temporelles
duire la réalité sous une infinité d'angles et de paramètres
différents. Bien que la technologie soit analogue dans les deux
Contrairement à une image tridimensionnelle classique, cas (cinéma et jeu vidéo), il existe des différences no-
une image tridimensionnelle volumétrique (ou volu- tables. La contrainte de temps réel inhérente au jeu vidéo
mique), donne une valeur à tous les points de l'espace n'existe évidemment pas au cinéma. C'est pourquoi les
(calculs matriciels). Ceux-ci sont tous reliés (ou non) images de synthèse utilisées au cinéma, plus détaillées,
entre eux afin de constituer des polygones que l'on appelle sont précalculées une par une, ce qui permet un bien
communément des facettes. Ces facettes interconnectées meilleur rendu visuel. Il convient donc de bien faire la
entre elles à leur tour, constituent finalement l'objet 3D différence entre la 3D en temps réel et la 3D précal-
en question. Par ailleurs, d'autres points peuvent se trou- culée. Le cinéma et le jeu vidéo ne sont pas les seuls
ver eux aussi à l'intérieur même de l'objet, ceux-là même contextes d'utilisation de la synthèse d'image 3D. D'autres
auxquels on peut attribuer des fonctions spécifiques sup- contextes, notamment celui de la Maquette numérique
plémentaires, conférant à l'objet une impression de masse d'aspect utilisent des solutions hybrides, des compromis
en plus du volume (ex. : Objet plein / Objet creux). entre 3D temps réel et 3D précalculée, qui permettent
d'obtenir dans certains cas un rendu visuel proche de la
synthèse d'image 3D précalculée tout en bénéficiant des
3.5 Rendu du relief avantages de la 3D temps réel.

La vision en relief provient du fait que, les deux yeux


étant décalés, un objet n'est pas vu au même endroit par 4.1 3D temps réel
les deux yeux (différence de parallaxe). L'ordinateur peut
générer deux images différentes, une étant vue par l'œil La 3D temps réel est effectivement utilisée dans les jeux
gauche, l'autre par l'œil droit, et donner ainsi une impres- vidéo, mais a également de nombreuses autres applica-
sion de relief. tions : visualisation architecturale, visualisation médicale,
simulations diverses, économiseurs d'écrans… Le chal-
Un moyen simple de créer ce « relief artificiel » consiste à lenge technique inhérent à cette sorte de 3D est d'obtenir
générer une seule image, dite anaglyphe, mais contenant la meilleure qualité d'image possible tout en conservant
les informations pour les deux yeux, en deux couleurs, en une animation fluide, ce qui demande d'optimiser au
général vert et rouge. Le spectateur dispose de lunettes mieux les calculs d'affichage. Au début, tous les calculs
ayant un filtre vert d'un côté (cet œil ne voit que les in- revenaient au processeur central (CPU) des ordinateurs,
formations rouges, qui apparaissent en noir, voir Synthèse mais la puissance toujours plus grande demandée pour
soustractive), et un filtre rouge de l'autre côté (cet œil ne améliorer la qualité des images poussa des constructeurs
voit que les informations vertes, qui apparaissent égale- à commercialiser des cartes PCI (Peripheral Component
ment en noir). Interconnect) spécialisées dans la 3D. La première dis-
On peut aussi travailler avec une seule image initiale, avec ponible sur PC (Personal Computer) fut la Voodoo de
6 4 CONTRAINTES TEMPORELLES

la société 3DFX[réf. souhaitée] . Aujourd'hui, les cartes gra- important. On peut alors la confondre avec une photogra-
phiques intègrent pour la très grande majorité des fonc- phie. En 2001, Final Fantasy : les Créatures de l’esprit, est
tions d'accélération 3D. le premier long-métrage ayant pour ambition le photoréa-
L'utilisation de processeurs dédiés au calcul de la 3D créa lisme.
la nécessité de définir des API (application programming La 3D pré-calculée ne permet aucune interactivité. Le
interface) standard, permettant aux développeurs de faci- spectateur ne peut agir sur la scène 3D. Elle est notam-
lement accéder aux fonctions accélérées et aux construc- ment utilisée au cinéma ou en télévision.
teurs de les inclure dans les processeurs. Les deux API 3D Une préoccupation pour les temps de calcul existe, mais
les plus répandues sont OpenGL et Direct3D (composant à une échelle totalement différente de celle de la 3D
DirectX), concurrent plus récent développé par Microsoft temps réel. En effet, dans cette dernière, une animation
mais réservé aux systèmes Windows, alors qu'OpenGL fluide demande qu'il soit possible de calculer plus de vingt
est multi plate-forme. L'API Vulkan est la descendante images par seconde, alors qu'en 3D précalculée, le calcul
d'OpenGL, finalisée en 2016 et issue d'un groupe de tra- d'une image peut prendre des heures, voire des jours. Une
vail réunissant les principaux acteurs en termes de ma- fois toutes les images calculées, elles sont projetées à la
tériel 3D (AMD, Intel, Nvidia), le Khronos group. Elle fréquence voulue (24 images par seconde pour du film 35
est en passe de devenir la référence, car conçue pour tra- mm par ex.). Elles sont souvent générées sur ce que l'on
vailler avec les processeurs graphiques (GPU) à bas ni- appelle une ferme de calcul. C'est un réseau important
veau, en optimisant l'accès à leur ressources (mémoire, d'ordinateurs reliés les uns aux autres pour multiplier la
jeu d'instructions). Vulkan devrait permettre une nette puissance de calcul. Comme chaque seconde d'animation
amélioration des performances et des possibilités offertes requiert près de 30 images, cela signifie que pour 15 mi-
aux développeurs, sans avoir à changer de matériel, la mo- nutes d'animations le réseau devra générer plus de 27 000
dification se faisant au niveau logiciel (par mise à jour des images.
pilotes graphiques du système). Le smartphone Samsung
Galaxy S7 a été le premier appareil mobile a proposer Les logiciels calculant ces images, les « moteurs de ren-
l'accès à l'API Vulkan, et la démonstration qui a été faite du » (renderers en anglais) sont nombreux. Au fil des
utilisant le moteur 3D Unreal Engine 4 a repoussé les li- années, les logiciels grand public se sont considérable-
mites de la 3D temps réel sur mobile. Depuis les tablettes ment améliorés pour affiner le grain et aussi pour trans-
Android Nvidia Shield ont également été mises à jour mettre les effets réels sur l'environnement imaginé par
avec le support de Vulkan. les équipes de concepteurs. Par contre, des firmes spé-
cialisées avec des artistes aux connaissances pointues
en modélisation, en éclairage, et en animation sont tou-
4.2 3D précalculée jours nécessaires. Les autres logiciels les plus connus sont
RenderMan, Mental Ray, finalRender, Brazil r/s, V-Ray.
Une technique populaire de calcul 3D est le « lancer de
rayon » (raytracing). Dans cette technique, un rayon lumi-
neux « part » de chaque point de l'écran, et « rencontre »
les objets dispersés dans la scène 3D et se « reflète » sur
eux.
La 3D pré-calculée connaît un succès fulgurant auprès
du grand public, notamment grâce à sa diffusion au ciné-
ma. Le studio d'animation Pixar est voué uniquement à la
création de films en images de synthèse depuis les années
1980. Il est reconnu comme précurseur en la matière. Il
développe notamment RenderMan, un moteur de rendu
considéré comme l'un des plus performants aujourd'hui,
servant au rendu de toutes les productions du studio ain-
si qu'à celui de la vaste majorité des images de synthèse
de longs métrages (voir films en images de synthèse et
Synthèse d'image).
Les domaines de l'architecture, de l'aménagement inté-
3D précalculée rieur ou encore de la publicité utilisent de plus en plus
ces méthodes pour faciliter la vente de futurs projets.
La 3D précalculée est utilisée dans la création d'images,
d'effets spéciaux et de films d'animation. Son avantage
principal est qu'elle permet d'obtenir une très grande qua-
lité d'image et un réalisme poussé. L'image est qualifiée
de « photoréaliste » lorsque son niveau de détail est très
7

Image rendue par Patchwork3D en 3D temps réel avec éclairage


pré-calculé

4.3 3D hybride

La 3D hybride vise à améliorer le photo-réalisme de la 3D


temps réel en pré-calculant (et donc en figeant) certains Changement d'un matériau en temps réel
paramètres dont le calcul est coûteux mais dont la qualité
est indispensable au réalisme de l'image. • Chaque année, le festival des images de synthèse
L'éclairage fait partie de ces paramètres coûteux. En 3D Imagina a lieu à Monaco.
temps réel, il est sacrifié : pas ou peu d'ombres portées,
pas d'illumination globale. Or, un bon éclairage apporte
énormément au réalisme de l'image et c'est souvent ce qui
fait la grande différence entre la 3D temps réel et la 3D
pré-calculée. Figer ce paramètre peut être un problème, il
ne peut plus être changé en temps réel, l'éclairage ne peut Sous la direction de :
plus être complètement dynamique. Mais il y a de nom- Camille Paloque-Berges, Christophe Masutti

breux contextes d'utilisation de la 3D temps réel dans les-


quels il n'est pas indispensable d'avoir un éclairage com-
plètement dynamique et ou on peut donc se permettre de
figer cet éclairage. Histoires et cultures du Libre
On calcule alors des textures d'éclairage (lightmaps) qui Des logiciels partagés aux licences échangées
encodent l'éclairage. Ce calcul est relativement long (pré-
calculé, il n'est pas fait en temps réel) mais, une fois
effectué, l'information d'éclairage est disponible instan-
tanément. La qualité du rendu peut alors approcher ce
qu'on obtient en 3D précalculée tout en apportant de
l'interactivité dans les réglages de tous les autres para-
mètres.

4.4 Actualités

De nos jours, les images de synthèses sont utilisées dans


le domaine de l'immobilier. Elles ont comme objectifs de
promouvoir les objets immobiliers en insérant les images
dans des brochures, site internet. Elles servent aussi à
créer des films 3 D[1] .

6 Écoles
5 Salons
• En Belgique, les écoles de 3D (ou infographie) les
plus connues sont :
• Le Siggraph est le rendez-vous annuel des labora-
toires de recherche sur la synthèse d'image. • École LESITE à Hornu
8 8 VOIR AUSSI

• Haute École Albert Jacquard à Namur • Stéréoscopie


• École 3D à l'Institut Don Bosco de Tournai • Rendu volumique direct
• Multimédia à l'IAD à Louvain-la-Neuve
• Bibliothèque 3D
• Haute École de La Province de Liège à Seraing
• Modélisation tridimensionnelle
• En France, on peut citer, entre autres :
• Prototypage virtuel
• ATI : Arts et Technologies de l'Image, Univer-
sité Paris 8
• ArtFX à Montpellier, France 8.2 Liens externes
• ISART DIGITAL à Paris Bastille • Catégorie Infographie 3D de l’annuaire DMOZ
• ESRA à Paris 15
• Supinfocom à Arles et Valenciennes
• Portail de l’animation
• Les Gobelins à Paris
• LISAA à Paris • Portail de l’imagerie numérique
• ESIA 3D à Lyon
• ESCIN à Laval
• Pôle IIID à Roubaix
• L'Institut de l'Internet et du Multimédia (IIM)
à La Défense
• Aries 3D dans les régions Sud/Sud-Est de la
France
• Cifacom à Montreuil

• Au Canada :

• Centre NAD au Québec


• Collège Bart au Québec
• Collège O'Sullivan au Québec
• Cégep Limoilou au Québec

7 Notes et références
[1] « Projet immobilier », sur clarchitecture.ch, 12 septembre
2014 (consulté le 12 septembre 2014)

8 Voir aussi

8.1 Articles connexes


• 2D

• Graphisme 2D

• Lancer de rayon

• 3D temps réel

• Logiciel de modélisation tridimensionnelle

• Moteurs 3D

• Scanner tridimensionnel
9

9 Sources, contributeurs et licences du texte et de l’image


9.1 Texte
• Infographie tridimensionnelle Source : https://fr.wikipedia.org/wiki/Infographie_tridimensionnelle?oldid=134491850 Contributeurs :
Anthere, Rinaldum, Hashar, Orthogaffe, ( :Julien :), Cdang, HasharBot, Koyuki, Robbot, Crevette, Dhenry, Ludo78, Sanao, MedBot, Jaymz
Height-Field, Phe-bot, Louis-garden, Ivanoff, JB, Domsau2, Ollamh, Rv, The RedBurn, Lyto~frwiki, Brunok, Ste281, Chris a liege, Bo-
ly38, Murtasa, Nicolas Ray, Bayo, Erasmus, Bob08, Chobot, RobotE, David Berardan, Sawyer~frwiki, Inisheer, Scls19fr, Phrood~frwiki,
Spack, YurikBot, LeonardoRob0t, Guillom, Jerome66, MMBot, Loveless, MelancholieBot, Brumaire, Wagaf-d, Pautard, Sebfun, Pan-
toine, Sylenius, Crocy, Freddo, Sidney002, Moumousse13, Ocahen, Liquid-aim-bot, Neitsa, PieRRoBoT, Dédélembrouille, 1nicky, Xza-
pro4, Thijs !bot, Chaoborus, Elnon, LP~frwiki, Laurent Nguyen, Le Pied-bot, JAnDbot, Starus, LeFit, Jarod42, IAlex, Nono64, SylvainS,
Sebleouf, Alchemica, BetBot~frwiki, CommonsDelinker, Erabot, Analphabot, Wikig, Salebot, Hpcharles, Aquadarius, Zorrobot, Wal-
pole, Fm2006~frwiki, Idioma-bot, Nodulation, Julien Lerouge, MissMell, Chicobot, Icesolid, Ptbotgourou, Pirouette1963, JLM, JuLun,
Alecs.bot, Martino75, DumZiBoT, SniperMaské, Duduf, Quentinv57, Gardan~frwiki, Lourdelle, HerculeBot, Lauyno, ZetudBot, Ggal,
Woloman, Georgette2~frwiki, CarsracBot, Alpha Centaury, Luckas-bot, GrouchoBot, Xqbot, RibotBOT, Rubinbot, AlexelTech, Poly-
notes, Mohamed Khaled Hizem, RedBot, Akadou, Frakir, ManiacKilla, EmausBot, Rehtse, Ediacara, ZéroBot, Atef laroussi, Ovatio 3d,
Jito, WikitanvirBot, ChuispastonBot, Surdox, LEMEN, MerlIwBot, PolBr, Lmao, Abolodo, Biblionum, Colariboo, Iskander HFC, Addbot,
Cheick-Didier et Anonyme : 80

9.2 Images
• Fichier:3D_computer_modeling_of_the_Great_mosquee_of_Kairouan-blank.jpg Source : https://upload.wikimedia.org/wikipedia/
commons/2/2b/3D_computer_modeling_of_the_Great_mosquee_of_Kairouan-blank.jpg Licence : Public domain Contributeurs : Travail
personnel. Modeled in 6 days using SolidWorks 2001. Post-production in Photoshop. Based on architectural plans and fifty photos of
the building. Artiste d’origine : Tachymètre (<a href='//commons.wikimedia.org/wiki/User_talk:Tachym%C3%A8tre' title='User talk:
Tachymètre'>talk</a>)
• Fichier:Alexroomclose.jpg Source : https://upload.wikimedia.org/wikipedia/commons/4/45/Alexroomclose.jpg Licence : CC-BY-SA-
3.0 Contributeurs : Aucune source lisible par la machine fournie. « Travail personnel » supposé (étant donné la revendication de droit
d’auteur). Artiste d’origine : Pas d’auteur lisible par la machine identifié. Withego supposé (étant donné la revendication de droit d’auteur).
• Fichier:Animation.svg Source : https://upload.wikimedia.org/wikipedia/commons/c/c2/Animation.svg Licence : CC BY-SA 3.0 Contri-
buteurs : Modified from Image:Mplayer.svg, from the Nuvola icon theme for KDE 3.x by David Vignoni (http://www.icon-king.com).
Artiste d’origine : Gizzart
• Fichier:Bryce-demo-May00PicOfMonth.JPG Source : https://upload.wikimedia.org/wikipedia/commons/a/a6/
Bryce-demo-May00PicOfMonth.JPG Licence : Public domain Contributeurs : ? Artiste d’origine : ?
• Fichier:Bump.gif Source : https://upload.wikimedia.org/wikipedia/commons/4/48/Bump.gif Licence : CC BY-SA 2.5 Contributeurs : http:
//www.lumiscaphe.com/ Artiste d’origine : lumiscaphe
• Fichier:Formerly_Piero_della_Francesca_-_Ideal_City_-_Galleria_Nazionale_delle_Marche_Urbino_2.jpg Source :
https://upload.wikimedia.org/wikipedia/commons/d/d2/Formerly_Piero_della_Francesca_-_Ideal_City_-_Galleria_Nazionale_delle_
Marche_Urbino_2.jpg Licence : Public domain Contributeurs : 1. cgfa.sunsite.dk Artiste d’origine : Anciennement attribué à Piero della
Francesca
• Fichier:Framabook_HistoiresetCulturesduLibre_CC-By_22avril2013.pdf Source : https://upload.wikimedia.org/wikipedia/
commons/e/e4/Framabook_HistoiresetCulturesduLibre_CC-By_22avril2013.pdf Licence : CC BY 2.0 Contributeurs : 13 — Histoires et
cultures du Libre Artiste d’origine : Collectif ; Sous la direction de Camille Paloque-Berges et Christophe Masutti Histoires et cultures du
Libre. Des logiciels partagés aux licences échangées
• Fichier:Ikosaeder-Animation.gif Source : https://upload.wikimedia.org/wikipedia/commons/8/80/Ikosaeder-Animation.gif Licence :
CC BY-SA 2.5 Contributeurs : Travail personnel Artiste d’origine : André Karwath aka Aka
• Fichier:Polygon_face.jpg Source : https://upload.wikimedia.org/wikipedia/commons/7/77/Polygon_face.jpg Licence : CC-BY-SA-3.0
Contributeurs : ? Artiste d’origine : ?
• Fichier:Roller01.jpg Source : https://upload.wikimedia.org/wikipedia/commons/a/a5/Roller01.jpg Licence : CC BY-SA 2.5 Contribu-
teurs : www.lumiscaphe.com Artiste d’origine : lumiscaphe
• Fichier:Utah_teapot_simple_2.png Source : https://upload.wikimedia.org/wikipedia/commons/5/5f/Utah_teapot_simple_2.png Li-
cence : CC BY-SA 3.0 Contributeurs : Travail personnel Artiste d’origine : Dhatfield
• Fichier:X-plane_artistic_render.jpg Source : https://upload.wikimedia.org/wikipedia/commons/f/f2/X-plane_artistic_render.jpg Li-
cence : CC BY-SA 3.0 Contributeurs : Travail personnel Artiste d’origine : Iskander HFC

9.3 Licence du contenu


• Creative Commons Attribution-Share Alike 3.0

You might also like