You are on page 1of 74
COURS DE SELECTIVITE par Christian LANTUEJOUL Cours C-140 Janvier 1994 (28me édition) CENTRE DE GEOSTATISTIQUE 35, RUE SAINT-HONORE, 77305 FONTAINEBLEAU (France) 5S ECOLE DES MINES. DE PARIS CENTRE DE GEOSTATISTQUE, Ecole Nationale Supérieure des Minos ce Paris, 85 ue Saint Honoré, 77905 FONTAINEBLEAU, France Christian LANTUEJOUL. Cours de sélectivité. 28me éction. Janvier 1994. 72. c140 © ENSMP 1094 Imprims on Franco Cours de Sélectivité A Vorigine de ce cours de Sélectivité fignrent deux problémes apparus dans le contexte de la Géostatistique Minire. Lexploitation d’un gisement par exemple métallique se fait fréquemment par blocs, le contenu de chaque bloc étant envoyé soit en laverie, soit au rebut stérile. En fonction de la taille des blocs d’exploitation, la quantité de métal récupérée n’est pas la méme. En effet, plus la taille des blocs augmente, plus on a de chance d’envoyer en laverie des blocs riches contenant des parties pauvres, ainsi que de mettre au stérile des blocs de faible teneur mais pouvant néanmoins renfermer quelques parties fortement minéralisées. Aussi faut-il s*attendre & récupérer de moins en moins de métal au fur et & mesure que la taille des blocs augmente. Tel est Effet de Support. Le deuxitine probléme considéré dans ce cours est l'Bifet d’Information. La décision d’orienter un bloc exploité vers la laverie ou bien vers le rebut stérile est prise en fonction de la teneur estimée du bloc et non pas en fonction de sa teneur vraie (qui est inconnue & cette étape de exploitation). Il s’ensuit que des blocs pauvres estimés riches sont envoyés en laverie, tandis que des blocs Tiches estimés pauvres sont abandonnés au stérile, ce qui contribue encore & réduire la quantité de métal effectivement récupérée, L’objet de ce cours est de voir comment décrire et modéliser les Effets de Support et d’Information. Les chapitres 6 et 7 y sont consacrés. Plutot que de travailler sur la quantité de métal récupéré, il est avantageux de s’intéresser a, la teneur en métal des blocs. A taille de blocs donnée, ensemble des teneurs de blocs fournit un histogramme, et étudier l’Effet de Support consiste & voir comment évolue cet histogramme en fonction de la taille des blocs. D’oit Ia, nécessité de disposer d’outils de comparaison dhistogrammes. C'est le rdle imparti aux Courbes de Sélectivité qui sont introduites aux chapitres 4 et 5. [utilisation des courbes de sélectivité pour modéliser les effets de support et “information requiert une bonne connaissance de I’Espérance Conditionnelle ainsi que des Lois Multigaussiennes et de leur manipulation en termes de Polynémes d’Hermite. Ces notions sont présentées en détail aux chapitres 2 et 3. Ce cours de Sélectivité est trés largement inspiré du cours de Probabilité dis- pensé par G. Matheron au Cycle de Formation Spécialisée en Géostatistique de 1980 4 1988. Par rapport & ce cours, signalons quelques modifications de présentation. Les courbes de sélectivité sont introduites de fagon plus graphique. Les parties consacrées & espérance conditionnelle et eux lois multigaussiennes ont é davantage étoffées. Quelques exercices agrémentent ce cours. Certains en sont une application immédiate, autres au contraire constituent de véritables compléments au cours. Ces compléments ont été en grande majorité puisés dans un ensemble de notes et de publications de G. Matheron, dont on trouvera la liste en bibliographic. ws Chapitre 1 Quelques rappels probabilistes L'objet de ce chapitre est de rappeler les notions de probabilité qui seront constamment utilisées tout au long de ce cours. Quelques exercices sont, proposés pour permettre au lecteur d’apprécier son niveau d’assimilation de ces notions. 1.1 Lois monovariables Soit X une variable aléatoire. Pour caractériser la loi de X, il est commode Wintroduire la Fonction de Répartition F(a) = P{X 2|X>9 Donner l’expression de F, en fonction de F. Pour quelles lois F'a-t-on non vieil- lissement (i.e. Ja durée de vie résiduelle a la méme Joi que la durée de vie a priori)? 5) Soit X une variable aléatoire positive de densité exponentielle f(a)=ae (a>0) On demande d’évaluer la moyenne ct la variance de X, dune part par un calcul direct, en passant par la fonction caractéristique d’autre part. Chapitre 2 L’espérance conditionnelle Soient X et Y deux variables aléatoires. On cherche 4 ”approcher” X par une fonction de Y. Bien entendu, plusieurs critéres d’approximation peuvent étre envisagés. Dans le cas ot X et Y admettent une moyenne et une variance finie, il est commode de retenir comme critére l’écart quadratique mo Le probléme se raméne alors & trouver une fonction ¢ telle que la quantit E{[X ~ 6(¥)?} soit minimale. Nous verrons qu’une telle fonction existe et qu’elle est unique (& une réserve prés). On lui donne le nom d’Espérance Conditionnelle ou de Régression. Dans une deuxiéme partie, nous étudierons Tes propriétés de V’espérance conditionnelle. Pour clore ce chapitre, nous présenterons une généralisation qui est l’approximation de X par une fonction de n variables ¥i,..., Ya. 2.1 Existence et unicité de l’espérance condi- tionnelle Supposons que la quantité E{[X — 4(¥)}} soit minimale, Cela veut dire que pour toute variable ¥(V) de variance finie, on a E{IX — @(YYP} < B{LX - ¥ONP} Prenons = ¢ + ch ainsi que # = ¢ ~ eh, of ¢ est un nombre positif quel conque. En développant Vinégalité précédente, on obtient respectivement: EXLX— oY IP} < BALK — 6} ~ 2eH{1X — oY A)} + OBL} LAX — oP} < E{LX — oF) } + 2k {LX — 60 K)} + LHW} ce qui donne, apres simplification: 0 < -28{[X — 6(YA(Y)} + ee {20} OS 2E{LX — a(Y)MY)} + e{H0Y)} Faisons tendre maintenant tendre € vers 0 par valeurs positives. Il vient: 0< -B{[x - s(YA)} 0< B{[x-sryMy)} et par conséquent: AIX — a(YYJA(Y)} = 0 Taversement, supposons que Von ait E{[X — (Y)JA(Y)} = 0 pour toute variable h(Y) de variance finie. Soit (VY) une variable de variance finie. Caleulons £{[X —$(¥)?} & partir de la décomposition yp = $+ (p~ 4): E{LX — Hv) } = E{LX— 60} + 2 {lx - 6%) BO) - sr} + E{e)-3)P} Par hypothése, le terme médian du deuxiéme membre est nul. Il reste: EAIX - v(YYP} = B{LX - 60 F} + Ef) - 607} et par conséquent: EAIX — WY )P} = B{LX - oY) } Nous avons ainsi établi la propriété caractéristique suivante: 9 La quantité E{[X — $(Y)?} est minimale si et seulement si pour toute variable h{Y) de variance finie on a XIX ~ 6A} = 0 ou encore E{x My)} = £{ ay) av)} Liunicité découle simplement de cette propriété. Supposons que X ait un écart quadratique moyen minimal avec deux variables #(Y) et v(¥) de vati- ances finies. Appliquons la fornmle caractéristique en choisissant h(Y) = ¥(¥) — 90): BAX — AY) L(Y) — o¥)]} =0 EALX — HY) WY) - 4O)]} = 0 Par soustraction, il vient: B{(p(¥) — 6) } =0 ce qui implique ¢(Y) = $(¥) presque sirement. Pour établir l’existence d’une telle fonction 4, nous allons en donner une construction explicite dans un certain nombre de cas particuliers, puis nous vérificrons que Ja fonction ainsi construite répond au critére de minimisation. Désignons par dF(z,y) la loi du couple (X,Y). On sait que cette loi est le produit de la loi conditionnelle de X & Y = y fixé et de la loi marginale de Y dF (x,y) = dP (2 | y)dFy(y) Distinguons deux cas: © La variable ¥ admet une densité positive fy au voisinage du point y. Appliquons la formule caractéristique avec h(Y¥) = lycy: ELS) yey} = E{X trey} 10 ce qui se récrit: [ so)arr(v) = ff care lv) arr) Dérivons par rapport & y: swf) = [ 2dF ely iw) et aprés division par f(y), on obtient: i 6) = [ ear@|y) Cest-A-dire: $(y) = E{X |¥ =} « La variable Y admet un atome en y. En d’autres termes, P{Y = y} # 0. Prenons (Y) = ly-y. Dans ce cas, la formule caractéristique s*écrit: E{9(¥) yay} = B{X ly} En termes de probabilité, cela donne: 40 oy) PY =u} = f eaP(e|y) PY =v} et l'on obtient, aprés division par P{Y = y} +0 6y) =f ear(e|y) Ainsi done, dans les deux cas, on a Oy) = E{X |¥ = y} Montrons maintenant que la fonction 4(y) = E{X | ¥ = y} vérifie la pro- priété caractéristique. A cette fin, soit h(Y) une variable de variance fin un On a: EXoY) AY)} = [2 son) aFy(y) [2 BX 1 =a 6) erry) [ [2 sare wmaerew) [2 [snare E{X A(Y)} 4 En conclusion Théor’me 2.1 $i X et Y sont deux variables aldatoires de variance finie, ill existe une fonction de Y notée E{X | ¥} qui minimise Vécart quadratique moyen avec X. Cette fonction est unique d une égalilé presque sitre pres. Bille est caractérisée par le fait que pour toute variable h(Y) de variance finie, ona E{XH(Y)} = E{E{X | Y}A()} 2.2 Propriétés de V’espérance conditionnelle 2.2.1 Linéarité B{aX + a'X'|Y} = aB{X|V} + a'E{X'Y} ps. Soit en effet h(Y) une variable de variance finie. E{B(aX bal X'Y}R(Y)} = BE{(aX +a’XA(Y)} ab{Xh(Y)} + a’ B{X'RY)} aB{E{X|Y}HY)} +0’ E{ B{XIKY)} = E{(aB{XIY} +a'B{X'V})A)} D’ot le résultat, par unicité de Vespérance conditionnelle. 12 2.2.2 Positivité SiX>0 ps., alors E{X|Y} 20 ps. Supposons que l’événement ” H{.X|Y} <0” soit non négligeable. Appliquons la formule caractéristique avec AY) = lngeiyy 0. Par construction, le membre de gauche est <0. D’oti la contradiction, 2.2.3 Monotonie SiX 0 ps. puisque X'— X > 0 ps. (positivité), d’ot le résultat. 2.2.4 Moyenne ELE{X |Y}} = E(x} I suffit d’appliquer la formule caractéristique en prenant h(¥) = 1. 2.2.5 Cas d’indépendance Si X et ¥ sont indépendantes, alors E{X | ¥} = E{X} ps. 13 En effet, Vindépendance entre X et Y implique B{X ay)} = B{B{x} (Y)} pour toute variable h(¥’) de variance finie. 2.2.6 Formule d’invariance E{Xu(¥) | ¥} =u(¥) E{X |¥} ps. Soit h(Y) une variable de variance finie. ELE{X w(¥) |Y}MV)} = BEX W(Y) (Y)} = E{B(X | Y} uv) a~)} ef Yon applique Punicité. En particulier, on a Blu(¥) | ¥} = u(¥) 2.2.7 Formule des projections successives P(X LY [u(¥)} = BLX | uO} ps. Ici, la notation abrégée E{X | Y | u(Y)} est uti A la place de E{E{X|Y)| u(Y)}. Soit h[u(¥)] une variable de variance finie. alors: E{B(X|Y |a(¥)) blu} = B{ELX |Y} Hlu(v)]} = B{Xhu(yy]} = BLE | uO} AWY)]} et l'on applique Punicité. La formule des projections successives est souvent utilisée de la droite vers la gauche. 2.2.8 Inégalité de Jensen Sid est une fonction conveze, alors o[Fix | ¥}] S E{$(X)|¥} ps. 14 Si ¢ est convexe, ¢ est envelope supérieure de ses droites d’appui: Ax) = suplase + 63) ver En vertu de la lingarité et de la monotonic de Pespérance conditionnelle, on peut érire: a E(X|¥) +6 = F(X +b 1Y} S$ B{O(X)|¥} ps et P’inégalité est maintenue lorsque l’on passe a la borne supérieure sur J. 2.3 Conditionnement multivariable Dans cette partie, on considére n + 1 variables aléatoires X et Yj, ...,¥_ de moyennes et de variances finies. On cherche & approcher X par une fonction 4(Y4,--,¥q) des n variables ¥;,...,¥q, de tele fagon que l’écart quadratique moyen B{[X — (Yi, Ya) ?} soit minimal. ‘Tout comme dans le cas monovariable, il existe une fonction ¢ qui minimise cet écart quadratique. Cette fonction est unique & une égalité presque sire pres. Elle est. caractérisée par le fait que Von a EALX — b% Yo) AY Ya) = 0 pour toute variable h(¥%1,..-, Yq) de variance finie. Explicitement, on trouve {X | =11,¥s = an} O(y15 Ya) ‘Toutes les propriétés de l’espérance conditionnelle monovariable se retrou- vent dans le cas multivariable, Mentionnons tout particuligrement la formule @invariance LX (Virgo Vg) [Vis Ya} u(¥irsn Yip) LEX [Yin Yo} ainsi que la formule des projections successives BX [Misa | Yaron Vo} = E{X [Fass Yo 1b pour toute sous-famille (i1,....%) de (1,....). Exercices 1) Si le conple (X,Y) a pour densité Sey) = 2 exp{-sy— ze} (2, 2 0) que vaut E{X [Y}? 2) Quelles sont la moyenne et la variance de la somme d’un nombre aléatoire WN de variables X1,X>,... équidistribuées? On supposera que toutes les variables mises en jeu admettent moyenne et variance, et qu’elles sont de plus mutuellement indépendantes. 3) Donner Ja valeur de BAX - FAX |Y}P} 4) Que vant P{x|Er ly}? 5) Montrer A aide d’un contre-exemple que Pégalité B{X | ¥} = que pas nécessairement V’indépendance entre X ot ¥. {X} n'impli- 6) Montrer que si la variable X est indépendante du vecteur (Y, Z), on a E{e(Z)| XY} = E{elZ)|¥} pour toute variable c(Z). En est-il ainsi si X est seulement indépendante & la fois de ¥ et de 2? (Conseil: il suffit d’appliquer la formule caractéristique aux fonctions du type M2,y) = a(z)b(y)). 7) On dira que les deux variables X et Z sont conditionnellement indépendantes de ¥ si Yon a. EXa(X)e(Z)[¥} = Efa(X)}| ¥} E{e(Z) | ¥} 16 pour toutes les variables a(X) et o(Z). si Montrer qu'il en est ainsi si et seulement E{e(Z)| X,Y} = E{e(Z)|¥} 8) Soit X et ¥ deux variables aléatoires. On cherche la. régression linéaire de Y selon X, cest-a-dire la droite d’équation y = ax-+b qui minimise B{(Y aX -B)"}, Montrer qu’une telle droite a pour équation y> my oy ox mx ce qui mot en jou Ia moyenne ot I’éeart-type de X et de ¥, ainsi que le coefficient de cortélation p entre ces deux variables. 9) Soit X,¥,,-..,¥, 2+ 1 variables aléatoires de moyennes et de variances finies. On cherche & approximer X non pas par une fonction de Y,,...,¥,, mais par une combinaison linéaire X* = 4,(¥,)+...-+ bn(Yq) de fonctions de chaque ¥;, de telle sorte que la quantité B(x = xy} soit minimale. Montrez que de telles fonctions ¢, existent et qu’elles sont uniques (presque sirement) & une constante prés. Montrez que de plus ces fonctions sont caractérisées par le fait que EQX*Y} = B{XI} i= 1, (Cotte technique d’estimation est connue sous le nom de Krigeage Disjonetif). VW Chapitre 3 Vecteurs aléatoires Gaussiens Ge chapitre a pour but de donner quelques propriétés des lois de Gauss 4 n variables. On en profite pour introduire les polynémes d’Hermite qui permettent une manipulation aisée des lois bigaussiennes. 3.1 Quelques résultats sur les lois multigaus- siennes On rappelle que la densité d’une loi de Gauss de moyenne m et de variance o? est 2 ~ my? 2? Gm,o(@) = Tazo’ Sa transformée de Fourier vaut: Plus généralement, posons Ja définition suivante: 18 x1 Définition 3.1 On dit que le vecteur aléatoire X = | : | est multi- Xn gaussien si sa transformée de Fourier vaut: eet tn Dans cette définition, u est un vecteur colonne de composantes 11, ..5 ny 1 un vecteur colonne de composantes my,...,M™n et C désigne une matrice carrée ordre n. La transposition d’un vecteur ou d’une matrice est figurée par Vindice supérieur ‘. Ainsi, pour ce jeu de notations, on a u'X = uy Xie + UnXq. Par développement limité au voisinage de Vorigine de la transformée de Fourier, on peut voir que m est le vecteur moyenne de X ct que C est sa matrice de covariance. Dans le cas n = 1, on retrouve le cas monovariable. Sin =2, on parlera de vecteur bigaussien. Théoréme 3.1 Soit X un vecteur multigaussien d’ordre n, et soit A une matrice (p,n). Alors AX est un vecteur multigaussien d’ordre p. En d'autres termes, toute transformation linéaire préserve le caractére multi- gaussien. Démonstration: $i u désigne un vecteur dordre p BliuAX), = pfeilu'A)xy = wf eilAytxy 1 (A'u)'C(Atu) 2 iutAm —LWtACAtu e 2 i(A‘u)'m — e On reconnait la transformée de Fourier d’un vecteur multigaussien de mo- yenne Am et de matrice de covariance ACA‘. i Théoréme 3.2 Soit X un vecteur multigaussien. Si Cov(X1, Xi 4=2,...n, alors la variable X1 est indépendante de (X2,..., Xn). =0 pour 19 Démonstration: Posons X = ( - ) ott ¥ est le vecteur de composantes X2,«.Xn. D’aprés le théordime précédent, Y est un vecteur multigaussien dont la moyenne my est le vecteur colonne de composantes mo, ...,™, et dont la, covariance est la matrice Cy de terme général (Cy);; = Cov{ Xi, Xj} 2< i,j Sn. Posons u = ( ns ): » étant le vecteur colonne de composantes tig, -0; tn, et calculons la tranformée de Fourier de X: sesamin n(&)H00 9(4 8 )(3)) En développant, On arrive & la factorisation suivante: t, 1 Cunt iv'my — Z0'Cye e 2 pfeil} = fm Il s'agit du produit de la transformée de Fourier de X, et de celle de Y. Par conséquent, la variable X; est indépendante de (X3,...,Xn). Ml Théoréme 3.3 Soit (Xi,...X») un vecteur mulligaussien, et soit XS U’es- timateur par krigeage simple de Xy & Vaide de Xa,...,.Xq. Alors FAX | Xay0y Xa} = XPS ps. Démonstration: D’apris le théoréme 3.1, le vecteur Xj ~ XKS, Xp... Xq est multigaussien, Par ailleurs, on a toujours vi yn Cov{X, ~ XFS, x; En effet, posant Xf—m, = I, Aj(Xj—mj), la covariance entre X;— XFS ot X; s’écrit Cyy— D9.» Ajj. D’apras les équations du krigeage simple, cette covariance vaut 0. En vertu du théoréme 3.2, il s’ensuit que la variable X, — X¥° est indépen- dante de Xz,...,X,. Par conséquent, la covariance entre X; — XFS et, toute fonction h(X2,...,X,) de variance finie est nulle. Cela seri BAX = XES]A(%G, Xa) } = 0 20 ce qui signifie précisément que BX, | Xoy.., Xn} = XFS ps. Pour finir, il est parfois plus facile de travailler en termes de densité qu’s Vaide de la transformée de Fourier. Cette densité n’existe que dans le cas ob Ja matrice de covariance est inversible: Théoréme 3.4 Soit X un vecteur multigaussien d’ordre n. Si sa matrice de covariance est inversible, ce vecteur admet la densité (2 —m)'C“'(e ~ m) Ce résultat est admis. 3.2 Les polynémes d’Hermite 3.2.1 Définition et aspects fonctionnels Partons de la loi de Gauss centrée réduite gz) On pose: HH Aux premiers ordres, cela donne: Holz) = 1 th(2) H(z) aL Théorame 3.5 H, est un polyndme de degré n vérifiant les relations de récurrence Huss (2) + tH, (a) +nHy1(2) Hi (2) = —n Hy-1(2) Hy est appelé polynéme d’Hermite de degré n. Démonstration: Calculons les dérivées snccessives de la loi de Gauss: g'(@) + 2g(z) = 0 g(a) + 29'(2) + 92) = 9 (a) + 2g"(2) + 2g(2) =0 et plus généralement g(a) + 2g(2) +ng®(2) = 0 La division par g(x) fournit une premiére relation de récurrence Hpsa(2) + ¢Hy(a) + nH y1( qui montre que H, est un polynéme de degré n. On a d’antre part: Hava (a)g(e) = = (6%) = (Hal2)o(@))' = Hy(@)9(2) — 2Ha(2)9(2) ce qui fournit une seconde relation de récurrence Hnya(a) + ©H,(2) ~ Hy(2) La comparaison entre ces deux relations de récurrence conduit immédiate- ment a la formule cherchée. i Théoreme 3.6 Les polyndmes d’Hermite sont orthogonauz pour la loi de Gauss: [2 mor tgorateiae={ 9 on 5e Démonstration: Pour fixer les idées, supposons n < p et posons Tag = [~ Hale) Hy(2) (2) de Revenons & la définition des polynomes d’Hermite Ing = [> Ha) gM) dz et intégrons par partie. On obtient: Ing = J Ha) 9 M(a) de On applique maintenant la formule de récurrence Fe Ing =n [> Hy-ala) g° (2) de = 0 Iya En itérant la méme procedure n fois, on aboutit & Hoo Ing = MM op-n = 0! f[ Hola) g(x) de Deux cas alors se présentent: 1 a2) ade = nt sin=p, alors Inp = sin é p, alors Ing = 2! [g?"-9(2)] . $00 Soit \ une valeur queleonque. Considérons le développement de Taylor de la fonction g(x — A) au point e: ate) = SY gong = FE =)" H(z) 9(2) 23 Par ailleurs, on a aussi g(e~) Ainsi, la fonction exponentielle peut se développer en polynornes d’Hermite. Cela n’est au reste qu’un cas particulier du résultat général suivant: Théoréme 8.7 Toute fonction } qui est de carré integrable pour g, c'est-a dire telle que [£2 (a) q(x) dx < +00 peut étre développée en polyndmes Hermite bn Oe) = Ly Hal2) aa Les coefficients ¢,, sont donnés par la formule dam [ oe) Hale) ale) de et de plus 7 ov [2 Pe) ola) de= ES & fs & Plus généralement, si $ et ob sont de carré intégrable pour g, alors -Fo9 83 bn dn [E42 0(@) ale) de = Yo Pe La décomposition de @ en polynémes d’Hermite est de démonstration déli- cate. Nous l'admettrons. Les trois autres formules découlent directement de orthogonalité des polynémes d’Hermite. Leur établissement est laissé & titre Pexercice. Pour la suite, et conformément & Phabitude, nous noterons 1°(JR, 9) Vensem- ble des fonctions de carré intégrable pour g. 24 3.2.2. Quelques aspects probabilistes Soit X une variable aléatoire suivant une loi de Gauss centrée réduite. On s'intéresse aux caractéristiques probabilistes des variables H,(X). Partons de la formule d’orthogonalité des polynémes d’Hermite. En termes probabilistes, elle s’écrit awe sats mcsy= {4 S23? D’oi la moyenne de Hy(X) B{Hn{X)} E{Hy(X) Ho(X)} 1 sin=0 0 sinZO ainsi que a variance _ font singo Var{Ha(X)} = { 0 sin=0 La covariance entre H,(X) et Hp(X) vaut Cool Hy), Hy(X)} ={ oe Soit maintenant ¢ € L4(IR,g). Alors ¢ admet un développement en polynd- mes d’Hermite a) = 55% (0) La moyenne de ¢(X) s’obtient par lingarité 219000) =F BEHA20} = bo Quant & sa variance, elle vant: S bn de Se Var{ 6} = SOF SF Cov tla), By} = Ye nce tt pl 25 Plus généralement, si ¢ et sont dans L*(JR, 9), alors a Cov{ $(X), W(X)} = = & ° ® Cov{Ha(X), Hy(X)} = nigeo i Considérons maintenant un couple (X,Y) de variables contzées réduites bi- gaussiennes de coefficient de corrélation p. ‘Tout Vintérét des polynémes Hermite apparait dans la propriété suivante: Théoréme 3.8 La loi bigaussienne admet wn développement en polyndmes d'Hermite de la forme: a Ip2,9) = LF Holz) Hal) 92) 9(y) nao Démonstration: La transformée de Fourier de la loi bigaussienne —5(u? +07 +2) dn(uyv) =e 5 +0? +2puv) s'écrit aprés développement en série Cana) ¥ F Gu Gor no Gol, Orona we ie 400 iy e 2 ur = (ay [ lH, (2) g(x) dz ce qui s’établit au moyen de n intégrations par partie, ou bien & partir du développement en polynémes d’Hermite de Pexponentielle complexe. De méme v © Fwy =n [PY (9) ov) dy et par conséquent suse) = [OY dln + SS © 1500) taly) ale) aly) de dy 26 ce qui est le résultat annoncé. i ‘Théoréme 3.9 Si (X,Y) suit une loi bigaussienne de coefficient de corré- lation p, on a BUL(X)|Y} =p"Ha(Y) n=0,1,.. Démonstration: En effet BUB(X)TY =u) = [" e(e) ey) de ott gp(x | y) de désigne la loi de X & Y = y fixé. D’aprés le théoreme précédent, cette loi peut étre développée en polynémes d’Hermite te pn ao | 9) = 32 PF Hn @) Hoa) (0) mao ™ Il suffit alors d’utiliser la propriété d’orthogonalité. im Donnons ici deux conséquences importantes de ce résultat: La premidre est que si ¢ € L°(IR,g) leg, + 4, BX) 1¥) = BUR) LY) = or 0) On obtient donc une fonction de ¥ qui ne dépend que des coefficients Jy et du coefficient de corrélation p. On la note traditionnellement ¢,(Y). Une deuxiéme conséquence est que si ¢,%8 € [(JR, 9), alors Covf (3), W(v)} = Ss So 27 Cola résulte de ce que BEX) WW)} = ELELX) HY) | XV} = B{s(X)E{e(Y) | x3} $e = Errata moo} iz Rit, 7 Exercices 1) Donner Pexpression de la densité d’un couple bigaussien (X,Y) centré normé, de coefficient de corrélation p. Quelle est la densité de X AY = y fixé? 2) On dira qu'une variable Z est fognormale si ln(Z) suit une loi Gaussienne. Une telle variable se met sous Ia forme 2 oe 2 = mexp{oy -F oii Y est une variable Gaussienne centrée réduite, et ot m et o sont deux valeurs positives, Quelles sont les moyennes et les variances de Z et de n(Z)? 3) Soit Z et 2’ deux variables lognormales de la forme Ze mexp{ov ~ 2} De Jeo") On suppose que le couple (Y,¥’) est bigaussien de coefficient de corrélation p. Quelle est 1a covariance entre Z et Z'? Que vaut E{Z | Z'}1 4) Donner le développement en polynémes d’Hermite de $4) = Lyev0 28 5) Soit $ € L°(JR, g). Montrer qu'il existe un et un soul polynéme P, de degré n tel que 0 : [ [ee Pata)}" ated soit minimum, Donaer la forme explicite de P,. 6) Soit X une variable Gaussienne centrée réduite. Montrer que si les 3 nombres m,n et p sont les longueurs des cotés d’un triangle de périmétre 2s, on a ! ! m! n Eta X) MOCO = et que dans le cas contraire, on a EHX) F(X) Hy(X)} = 0 (Conseil: on cherchera & développer exp{(A + +v)2} en polyndmes d’Hermite de deux fagons différentes). 29 Chapitre 4 Les courbes de sélectivité L'objet de ce chapitre est de proposer un certain nombre d'outils pour carac- tériser des lois de probabilité et leur dispersion. Ces outils, & la fois simples et commodes, sont particulidrement adaptés & étude des effets de support et d’information que nous aborderons aux prochains chapitres. Pour ne pas brusquer les traditions, nous avons décidé de garder la terminologie de la géostatistique miniére. Dans ce chapitre, nous désignerons par Z une vatiable alatoire positive, de loi F, de moyenne m finie et de variance 0, finie ou non, 4.1 Tonnage et Quantité de Métal Définition 4.1 On appelle Tonnage la fonction qui vaut sco T(z) [ dF(u) pour chaque teneur de coupure z. Le tonnage peut aussi tre écrit: T(2)=P{Z> ou encore ce qui met en jeu la fonction indicatrice i _fl sZ22 Z>2~ YO sinon Le tonnage est une fonction décroissante entre les valeurs T(0) = 1 et T(-t00) = 0. Le tonnage caractérise la loi Tea) 1 z Figure 4.1 : Exemple dune courbe de Tonnage. La loi de probabilité qui conduit & une telle courbe est le mélange d’une densité exponentielle et d’une masse de Dirac. Définition 4.2 On appelle Quantité de Métal la fonction qui vaut Qe) = [ war(u) pour chaque teneur de coupure 2. La quantité de métal peut aussi s’écrire: QA) afar, J 31 Figure 4.2 : Courbe de Quantité de Métal IL s'agit 1a encore d’une fonction décroissante. Elle vaut m en 0 et s’annule 4 Pinfini, Tout comme le tonnage, la quantité de métal caractérise la loi F. Par intégration par parties, on a ae) = [700] Fo0 + fT) dum erie) + Te) du Figure 4.3 : Représentation graphique de Q(z) sur la courbe de tonnage Graphiquement, (Q(z) est aire du domaine contenu dans le sous-graphe du tonnage et constitud des points d’ordonnée inférieure & T(z). 4.2 La fonction B(z) Définition 4.8 On appelle B(2) la fonction qui vaut Be) =f Tw)au pour chaque teneur de coupure z, Te) WLLLZZZZZZIZZZIA z Figure 4.4 : Définition graphique de B(z) & Vaide de la courbe de tonnage. D’aprés le paragraphe précédent, B(z) s*écxit aussi B(z) = Q(z) (2) Ainsi, B(z) est la différence entre la quantité de métal Q(z) et la quantité minimale 21'(z) que Von est sir de récupérer & la teneur de coupure 2. En Géostatistique minitre, la fonction B(z) est appelée Bénéfice Conventionnel. D’autres expressions possibles pour B(z) sont: 40° Bz) ={ (u-2)dP(u) = E{(Z-2)ly J} 33 BY) 0 Figure 4.5 : Forme de la courbe A(z). Le domaine hachuré a pour surface la moitié de la variance. La fonction = + (Z— 2). est décroissante eb convexe. Le passage & Pespérance préserve ces propriétés et par conséquent la fonction B(z) est décroissante et convexe . Elle prend la valeur men 0 et s’annule & V'infini. De par sa définition, la fonction B(z) caractérise le tonnage et par suite la loi F. De sorte que toutes les caractéristiques de la loi F peuvent étre retrouvées sur B(z). Vérifions qu’il est ainsi pour Ia variance: [Oo p@a= Lf — 2) dF(u)dz On intervertit les intégrales [0 B@ a= [fu pacar) ce qui donne sco feo y? wee [Boa = [°F aP (a) = 5 (m? +02) Ainsi, Vaire hachurée de la Figure 4.5 est égale & la moitié de Ia variance, Autre exemple: la proportion q de valeurs nulles de la loi F s’obtient en 34 étudiant la pente de B(2) au voisinage de Vorigine _ BO)—Biz)_ |, 1 fs lin “OE lige 0 02 (u) du =T(04) =1~4 4.3 La fonction Q(T) Plutat que de sélectionner les tenenrs supérieures & la coupure z, il peut étre commode de sélectionner celles qui assurent un tonnage T. Tz) 1 Figure 4.6 : Définition de Q(T) Partons de l'expression de la quantité de métal établie plus haut co Q(z) =2T(2) +f T(u) du Comme le tonnage est décroissant, on peut aussi écrire: at) = [TW A Te\4 (2) = [Plu A TE) du ott T(u) A T(z) désigne le minimum des deux valeurs T(u) et T(z). Plus généralement, introduisons la définition suivante: 35 Définition 4.4 On appelle Q(T) la fonction qui vaut eo Q(T) = [ T(u) A Tdu pour toute valeur 0 T(u) AT, et cette propriété subsiste par intégration sur u. am) m o 1 Figure 4.7: Forme de la courbe Q(P). Le domaine hachuré a pour surface Ja moitié de la sélectivité de la loi. Nous verrons dans le paragraphe consacré & la dualité que la fonction Q(L’) caractérise la loi F. Par exemple, si F admet une proportion de valeurs nulles égale & q, alors Q(T) = m sur [1 —q, 1]. En effet, si 2 > 1—g,ona Q(r) = fre nPdu= f° Tu) du=r 36 Signalons toutefois que certaines caractéristiques de la loi F’ ne se lisent pas aussi facilement sur Q(T) (par exemple la variance de F). 4.4 La Sélectivité Etant concave, la courbe Q(T) est située au dessus de la droite Q = mT. Intéressons nous au domaine délimité par ces deux courbes. 1 1 poo i Se eee dar —™ fie mI] a Ef Tw) AT deat — 7 On intervertit les intégrales, et compte tenu de TXu) 2 f Tu) AT aT = [Orars fi tar = T(u) et de datet = T(u) di m f (u) du on obtient: f [e@) - mr] ar = sh" Tu) [1 —T(u)] du On remarque en passant que cette quantité est mulle si et seulement si la loi est concentirée en un seul point. Poursuivous le développement: f (ocr) — m2] ar = af” Tw) [ae (2) du ce qui donne aprés permutation des intégrales [le -na] ar solo T(u) dud¥(2) =i[" B(2) dF(2) Remplagons maintenant B(z) par Pune de ses expressions: z [re ~2)dP(u) dF(2) f "lary mr er 37 Comme u > 2, on peut remplacer u— z par |u— z|, ce qui permet de faire jouer un réle symétrique a w et 2: Llae-mt r= LL et Yon reconnait, & un facteur multiplicatif prés, la valeur moyenne de |X —Y| lorsque les deux variables X et ¥ suivent la méme loi F indépendam- ment Pune de autre. On est ainsi conduit & poser la définition suivante: ~ 2|dF(u) dF (2) Définition 4.5 On appelle Sélectivité de la loi F la quantité i Sey P{Lx-¥i} ot X et ¥ sont deur variables indépendantes de méme loi F. Une telle définition doit étre rapprochée de la formule suivante qui donne la variance de Ia loi F: i 2 ens E{(X-¥}*} Ainsi, tout comme la variance, la sélectivité mesure la dispersion de la loi. Notons toutefois que la sélectivité présente un certain nombre d’avantages sur la variance. Tout d’abord, la sélectivité existe dés que la moyenne existe (S < m), ce qui n’est pas le cas de la variance. Par ailleurs, du point de vue de V'inférence statistique, le calcul dune sélectivité est nettement moins sensible & l’influence des fortes valeurs. On peut montrer (cf. exercices) que la sélectivité et la variance vérifient l’inégalité SVB <0 Végalité n’ayant lieu que pour une loi F uniforme sur un intervalle. Pour conclure ce paragraphe, nous rassemblons ci-dessous les quelques for- mules obtenues de la sélectivité: Théoréme 4.1 La sélectivité de la loi F peut étre caleulée a Vaide de Vune des formules suivantes: s=af" ger) —mr] er 38 s= f° r¢w [1 2w]du S= afte ju — 2|4F(u) dF(2) 4.5 La Dualité entre B(z) et Q(T) Soit T’ un tonnage, z une teneur de coupure choisie indépendamment, et T(z) Ie tonnage correspondant. On peut avoir T > T(z) ou T < T(z). 0 Fa Figure 4.8 : Mise en évidence des formules de dualité entre B(z) et Q(T) Dans les deux cas, on constate que Pon a QUT) < Ble) 42 ou bien de facon équivalente BG) 2 Q(T) —2T L'égalité est atteinte pour T = T(z) et plus généralement lorsque Von a. T(z+) 0) 2, VE Chapitre 5 Comparaison de deux lois du point de vue de la sélectivité Soient Fy et Fy deux lois de probabilité. On désigne par Q1(T) et Q2(T) les fonctions métal/tonnage, ainsi que par B,(z) et By(2) les bénéfices conven- tionnels qui leur sont associées. 5.1 Quelques critéres de comparaison Lemme 5.1 Q:(T) < Q2(T) pour tout T’ si et seulement si B,(z) < B,(z) pour tout z. Démonstration: En effet, supposons Q,(T) < Q2(T) pour tout T. Alors Q(T) —2T < Q(T) — 27 Passons & la borne supérieure sur les T. La formule de dualité qui permet de passer du Métal/Tonnage au Bénéfice Conventionnel implique Bi(2) = sup{Qu(L) — 2T} S sup{Qa(T) — 22} = Ba(z) En ce qui concerne l’implication dans l’autre sens, il suffit d’appliquer autre formule de duali 43 Définition 5.1 On dira gue la loi Fy est moins sélective que la loi F; si V’on @ +0 ae [ene < [" soar pour toute fonction convere $. Pour comprendre le sens d’une telle définition, particularisons le choix de la fonction 6: © 9(2) =< entraine my < mz © 9(2) = ~z entraine —m, < —m,. in combinant cos deux dernitres in- égalités, il ressort que my = mz, est & dire que les deux lois admettent la. méme moyenne. Pour la suite, on notera m cette valeur commune, © d(z) = 22m! entraine 0? < 03. Ainsi la loi Fy apparait-elle moins Gispersée que la loi Fy. Mais bien d'autres inégalités sont possibles. Par exemple, on pourra prendre (2) = |z— ml" avec a > 1. Ten résulte une inégalité sur les moments absolus ordre a. Théoréme 5.1 Les trois propriétés suivantes sont équivalentes: 1. F, est moins sélective que Fp. 2. Bi(z) < By(2) pour tout 2 et my = ms. 3. Qi(L) < Q2(L') pour tout T et my ma. Démonstration: Pour montrer que 1 => 2, il suffit dappliquer la défini- tion de la sélectivité en prenant 4(u) = (u—2)lu, comme fonction convexe. Pour établir que 2 => 1, on se contentera de faire la démonstration dans le cas ol ¢ est une fonction deux fois continfiment dérivable. Partons de la formule de Taylor avec reste intégral A(z) #0) + 200) + [@- wp"(uldu 44 Par intégration par rapport & F;, on obtient: f * 6(2)aFi(z) = 4(0) + mid(0) + [ a [e-we"orind(2) ce qui donne, aprés permutation des intégrales [> eed) = 40) + mao) + [ ow) fe — gari(oian cest-a dire a - [O° aF@ = 60) + m6") + [ "Bupa De méme es be [> stearate) = 60) + ma6'(0) +" ou) Balulde Utilisons alors le fait que my = mo et que By(u) < Bo(u). Comme ¢"(u) > 0 puisque ¢ est convexe, Vinégalité ya o(z)dFi(z) < fi $(2)dFi(z) lo = Jo s’en déduit immédiatement. On a déja établi 2 <> 3 (cf. Lemme 5.1). 5.2 La relation de Cartier tion 5.2 Soit X et ¥ deur variables aléatoires. On dit que X est en relation de Cartier avec ¥ si E{X|¥} =Y Théoréme 5.2 Si X est en relation de Cartier avec Y, alors la loi de Y est moins aélective que celle de X. Démonstration: En effet, si ¢ désigne une fonction convexe, l’inégalité de Jensen (cf. Chapitre 2) donne HE{XIY}] < BLO X)|Y} 45 Appliquons maintenant la relation de Cartier. On obtient: OY) < E{S(X)IY} puis passons & lespérance ELS(Y)} S ELELO(X)IY}} = ELHX)} ce qui dit exactement que la loi de ¥ est moins sélective que la loi de X. Cet énoncé n’aurait qu’une valeur de que que voici: cemple s'il n’était, assorti de la récipro- ‘Théoreme 5.3 (Cartier) Si la loi F, est moins sélective que la loi Fx, il existe une loi bivariable F de lois marginales F, et Fs, et telle que si le couple de variables aléatoires X1, Xo suit Ia loi F, alors E{Xo|X1} = Xy. Ce théoréme est admis. En conclusion de ce chapitre, on dispose de trois critéres pour comparer deux lois du point de vue de la sélectivité: © On peut appliquer la définition. * On peut tester inégalité entre les courbes Q(T), ou bien de fagon équivalente entre les courbes B(z) © On peut exhiber une relation de Cartier entre les deux lois. Ces trois crittres sont également utilisés. Nous en verrons des exemples d’ap- plication lors de l'étude des effets de support et d’information. Exercices 1) Si E{X | ¥} =Y, que vaut Cov{X,¥}? 2) Soit U,X deux variables aléatoires positives indépendantes. On suppose E{U} = 1. Montrer que XU est plus sélective que X. 46 3) Montrer que la loi d’un estimateur sans biais conditionnel est moins sélective que la loi a priori. 4) Montrer que Ja loi dun estimateur par K.O. & coefficients positifs est moins sélective que la loi a priori. 5) Soit Nx une variable de Poisson de paramétre aléatoire X. Montrer que la loi de Nx est plus sélective que celle de X. 47 Chapitre 6 L’effet de support Soit Z = (2(z),# € IR) une fonction aléatoire stationnaire de loi ponctuelle FF et de fonction de covariance C. Etant donné v C JR“, on cherche & prévoir la loi FB, de 1 lel Zo) [ Z(a) de 6.1 Quelques observations expérimentales Commengons par une approche heuristique du probléme & Vaide de deux exemples. Pour le premier exemple, on considére un processus de Poisson de param’- Figure 6.1 : Découpage de IR en segments exponentiels indépendants alter- nativement mis a Let A 0 48 Figure 6.2 : Densité de Z(v) sur ]0,1[ pour différentes tailles de v tre @ qui découpe IR en intervalles exponentiels indépendants de longueur moyenne 6-}. Les intervalles sont alternativement mis & 0 et 1. Posons v = (0,h], ot h > 0. Z(v) prend des valeurs comprises entre 0 et 1, Z(v) vaut 0 ow 1 ai v est totalement contenu dans l'un des intervalles cexponentiels, ce qui se produit avec la probabilité 1 oy P{Z(v) =0} = P{Z(v) = 1) = 5 oh Sur ]0, 1f, on peut montrer que Z(v) admet une densité f, qui est représentée Figure 6.2 pour différentes tailles de support. Pour v tres petit, cette densité est pratiquement constante. Lorsque v croit, la densité s’incurve pour se transformer en une courbe d’allure Gaussienne centrée en $ 49 Ok NwAUATe eec000000 inl L OPNURUAN® Do o0000000 T 1 CH NwaMAI® 202000000 ° 20.0 40.0 60.0 80.0 100.0 200000000 i f ANT .0 200.0 400.0 600.0 800.0 1000.0 OrNUauAN® Figure 6.3 : Observation d’un processus de diffusion exponentiellea 4 échelles différentes. 50 Le deuxiéme exemple considéré est, un processus de diffusion exponentielle, I s’agit d’un processus de Markov de moyenne 1 qui satisfait les conditions infinitésimales suivantes: i) Les valeurs prises par deux points voisins ne sont pas significativement différentes: P{|2(2 + dz) — 2(z)| > €| 2(z) = 2} = o(de) ii) En moyenne, tout se passe comme s'il existait une force d’attraction vers la constante 1: Hf Z(a + de) — 2(z)| 2(w) = z} = (1 2)dx + ode) iii) Plus Z(c) est grand, plus grandes peuvent atre les fluctuations entre les points x et r+ dz: Var{ Z(a + dx) — 2(2)| Z(2) = 2} = 22 de + o(dz) La conséquence de iii) est que le processus peut prendre des valeurs trés grandes. Notons toutefois qne ces grandes valeurs sont isolées en raison de ii). La loi ponctuelle de Z est exponentielle. Au fur et & mesure que la taille du support v augmente, la densité de Z(v) se symétrise pour tendre encore vers une loi allure Gaussienne, centxée cette fois en 1. De ces deux exemples se dégagent un certain nombre de constatations ex- périmentales: tout d’abord, la loi F, devient de plus en plus reserrée autour de sa moyenne lorsque la taille du support » augmente, Corrélativement,, on observe de moins en moins de valeurs extrémes. Aux trés grandes tailles de support, on obtient des lois trés concentrées autour de la moyenne. La loi devient symétrique et prend la forme d’une Gaussienne, Cela n’est pas sans rappeler les deux résultats bien connus des probabilités que sont a Loi 51 Figure 6.4: Densité de Z(v) pour différentes tailles de v. Forte des Grands Nombres ainsi que le Théoréme de la Limite Centrale. Us s'énoncent usucllement de la fagon suivante: si (X),n € IV est une suite de variables aléatoires mutuellement indépendantes et de méme loi, de moyenne ‘m et de variance 0%, alors la variable Mite t+ Xn 2 converge presque sfirement vers m lorque n tend vers V'infini. La loi de cette méme variable, une fois centrée et normée Xit- 4+ Xn va tend a devenir Gaussienne toujours lorsque n devient infini. Ces deux ré- sultats ont une portée bien plus générale que les hypotheses peuvent laisser 52 croire, 6.2 Que connait-on de Z(v)? Revenons au probléme de départ. On dispose dun certain nombre de données expérimentales ponctuelles, et l'on suppose que ces données sont. suffisantes pour que la loi ponctuelle F de Z (et en particulier sa moyenne m, et sa variance 6?) ainsi que sa fonction de covariance C’ puissent étre consi comme connnes. Que connaissons-nous de Z(v)? Tout d’abord, les deux premiers moments de Z(v) sont accessibles. Il en est ainsi de sa moyenne af [atayac} Lee ae =m ainsi que de sa variance: ver{ ml as} = cook [ 2¢apar wlan ay} 1 | [ covtZte), 20} de dy oP Je. 1 x pe lc -serdy Mais il y a un peu plus. Si z désigne un point uniforme dans v, alors: E{Z(2) | Zv)} = qlee | Z(v)} de af [2a | a} = F(Z») | 2)} = 2) I s’agit de la relation de Cartier, ce qui implique que la loi de Z(v) est moins sélective que celle de Z(2). Or la loi de Z(e) n'est autre que F. En effet: P{Z(2) <= plree dala) ch La deuxiéme intégrale vaut Q(T). Pour le calcul de Ja premiére, il suffit, de remarquer que T(y) = P{Z(z) > y} = 1 pour y < 0, et finalement on obtient: ov QT) = mP (1 + FQ) Ainsi, la courbe Q(T’) obtenue est une moyenne pondérée entre la courbe ponetuelle Q(T’) et la courbe mT’ qui correspond & un support infini. 55 Avantage: Puisque Q(T) est concave, on a mT’ < Q(T), et par suite o. QAP) < Q(T) (1- E+ %) = Q(ry Il s’agit donc bien d’un modéle cohérent de changement, de support. Inconvénients: i) SiT <1, Q,(Z) Bled des = De son coté, compte tenu de i B(z) T(z) de = [Ban = Vintégrale de droite vaut m +00. 1 ) [2 [l- a4 af @)] dz = 0-0) 5 (08 +m’) + 0S Par conséquent 1 24m) = Lita) tam gl tm) = (1a) 5 (0 +m’) + ay ce qui montre que a est la réduction de variance Pour évaluer la courbe Q,(T) associée & Z(v), le plus simple est de recourir Ala formule de dualité Qu = inflBo(%) + 201] By(2.) + #0 = Bz) + (1 a)2T +a[m — BE2)]T ce qui se récrit Bi(%) +27 =(1-eT) [acy 4.Gror Gat] + ome Passons maintenant & la borne inférieure sur z,. Comme z et z, sont en bijection croissante, on peut passer & la borne inférienre sur z au second membre, et I’on trouve finalement Q(T) = (1—eT) o[$=2F] +amnT Avantages: i) Le modéle mosaique est un modéle cohérent de changement de support. En effet, écrivant m = Q(1), la coneavité de Qy implique anys afa- an) Qe? oF or | = ar) }) Le modéle mosaique peut prendre un effet 0. Si Q.(T) = m, alors néces- sairement T° [f=] =» et donc ( yr =a) Gear yy inar 21-4 58 ot q désigne la proportion de valeurs nulles de la loi ponctuelle. Cela donne: et par conséquent Inconvénient: Le modéle mosaique n’est pas compatible avec le théoréme de la limite cen- trale aux grandes tailles de support. 6.3.3 Le Modéle Gaussien Discret Soit 2 un point uniforme dans v. Si Z(2) admet une densité, alors il existe une fonction bijective croissante ainsi qu’une variable aléatoire Gaussienne centrée réduite Y telles que Az) = oY) ¢ est appelée fonction d’anamorphose. Bile est donnée par la formule 4) = F [6] De la méme facon, Si Z(v) admet une densité, il existe une fonction d’ana- morphose ¢, et une variable Gaussienne centrée réduite Y, telles que Av) = bolo) Supposons que ces conditions soient satisfaites. Le modéle Gaussien Di repose sur l’hypothése que le couple (Y,¥,) suit une loi bigaussienne. cret, Pour assurer une complate détermination de ce modéle, il importe de savoir évaluer la fonction d’anamorphose 4, de Z(v), ainsi que le coefficient de corrélation r entre ¥ ot Y,. La relation de Cartier E{2(z) | 2(v)} = 2(v) conduit & EAGY) | Yo} = be(%) ce qui permet d’exprimer 9, & partir de ¢. Considérant le développement de ¢ en polynomes d’Hermite Bon $0) = ey alo) on trouve (cf. Chapitre 3) flo) = 35 2" ra) 2m La formule tate Var{2(o)} = Var{ éu(¥)} = 35 permet d'identifier r qui doit @tre positif (cf. exercices). Pour évaluer la courbe métal/tonnage associée & Z(v), le plus simple sans doute est d’écrire Q(T) = Q,(2) avec T = T,(2). Alors: Q(T) = B{2()1z¢ > 2} = P(60)y > ean} = oa ty Avantages: i) Le modéle Gaussien discret est un modéle cohérent de changement de support. Sa construction repose en effet sur la relation de Carti 60 ii) Le modéle Gaussien discret est compatible avec le théoréme de la limite centrale. Supposons en effet que les dimensions de v deviennent trés grandes. Alors la variance de Z(v) tend vers 0, et par suite r tend également vers 0. Développons Jy au premier ordre en r: Abou) dely) = Or ee) og +P +o(r) Un simple calcul montre que [éo(v)],_. = ™ Adboly) =y fat a 1 =y ££ 6'(u) g(u) due Par conséquent ¢,(y) devient une fonction affine en y lorsque r tend vers 0. De cela découle que Z(v) devient Gaussienne. Inconvénient: Le modéle Gaussien discret s’accommode mal d’un effet 0. Exercices 1) Soit Z la fonction aléatoire définie sur IR par Z(z) = cos(x + 2a) it U est une variable uniforme sur (0,1). Pour tout h > 0, on pose 1 9 ; [ Ue) de Que vant la variance de Z en fonction de h? Z, 2) Dans le modéle Gaussien discret, donner expression de ¢, en fonetion de ¢. En déduire que le coefficient r qui caractérise le changement de support est positif. él 3) Montrer que le modale Gaussion discret assure la permanence de la loi lognor- male. 4) Soit Q(T) une courbe quantité de métal/tounage associée & une loi F de moyenne m, Etant donné 0 < a < 1, on construit la courbe Q4(T') comme moyenne pondérée horizontale dans la proportion a entre la courbe Q(T) et la courbe mT: Q.(Ta) = Q(T) avec T, = (1—a)P + oD a) Montrer que la courbe Qq(T)) a toutes les caractéristiques dune courbe quantité de métal/tonnage, et que le passage de Q(T) & Q(T) constitue un modéle cohérent de changement de support. Si la loi F a une proportion g de valeurs nulles, qu’en estil de la loi F, associée AQ? b) Quelle est la pente maximale que peut prendre la courbe Qa(T)? Quelle est la conséquence qui en résulte pour Ja loi F,? ©) En utilisant les formules de dualité, donner Pexpression du bénéfice convention nel attaché & F,. ) Montrer que n'est autre que la réduction de sélectivité entre les lois F et F,. 62 Chapitre 7 L’effet d’information En de nombreux domaines, il arrive fréquemment qu’une décision doive étre prise dans un contexte d’incertitude. Faute de pouvoir disposer de valeurs exactes non observables, la décision s’appuie sur des valeurs incertaines ou entchées d’erreur. ‘Tel est le cas par exemple dans l'industrie minitre. La décision d’orienter le contenu d’un bloc exploité vers la laverie ou bien vers le rebut stériles’effectue A partir de la teneur estimée du bloc et non pas & partir de sa teneur vraic. Liobjet de ce chapitre est d’étudier les conséquences résultant de ce contexte incertitude. Compte tenu du fait que leffet d'information peut surgir dans les situations les plus disparates, une présentation générale n’est guere envis- ageable. Dans ce qui suit, nous nous bornerons 3 regarder en détail exemple minicr évoqué ci-dessus. Nous verrons que effet d’information se traduit en pratique par une perte de sélectivité. I! agit done exactement dans le méme sens que Peffet de support. Un exemple numérique donné en exercice montre Vimportance relative de ces deux effets. Il apparait qu’aucun des deux ne peut étre négligé. 63 7.1 L’effet d’information Replagons nous dans le contexte minier introduit ci-dessus. Si l'on décide «’exploiter les blocs de teneur estimée supérieure & z, le tonnage dégagé est T3) = Bf1z-(y) > 2} Dans ces blocs eatimés riches, la quantité de métal effectivement récupérée a pour valeur x2) = B{ 20) 1.2-(0) > z} Commengons par évaluer la courbe Q;(7)) résultant d’une telle sélection. A cette fin, il est commode d’introduire la régression entre la teneur vraie du bloc et sa teneur estimée Mz) = E{2(v) | 2*(v) = 2} Supposant cette fonction croissante, la quantité de métal se réctit Ble{20) 12) De z(o)}} {nz} 12/0) > ef = {HZ} yz) > ac} De son coté, le tonnage vaut quant & lui Qx(2) Tele) = Eazy > neh} Ainsi, & condition de remplacer la teneur 2 par A(z), les courbes de ton- nage et de quantité de métal obtenues sont identiques a celles de h[Z*(v)]. Cela suggére que Q;(T) n'est autre que la courbe métal/tonnage associé & A{Z*(v)]. Ten est cffectivement ainsi, comme nous allons le voir maintenant. Soient T(z) et Q(z) les fonctions de récupération associées & h[Z*(v)]. Nous venons d’établir Tye) = Tla(z)] 64 Qs) = Qk) Or nous savons que : a : aim = f Plu) A Tlh(z)] du Par conséquent i a2) = [ Tu) A T(z) du 5 ‘Tout comme pour la définition des courbes métal/tonnage, cette fonction se généralise en une fonction Q3}(T) définie pour tout tonnage T par a QUT) af Tu) AT du Ainsi done Et QF) = QP) ce qui est le résultat anoneé. Sous une forme imagée, on peut dire avec G. Matheron que "l’on exploite non pas des teneurs, mais des espérances conditionnelles de teneur”. Remarque: dans le cas oii l’estimateur est sans Biais Conditioned, i.c. E{Z(v) | 2°(v)} = 2") alors h(2) = z et les courbes de sélectivité effectivement récup de l’estimateur. 7.2 Comparaison entre les effets de support et d’information Tl importe maintenant de remarquer que la loi de A{Z*(v)] est moins sélective que celle de Z(v). En effet, ces deux variables sont en relation de Cartier: A{Z(v) | MZ} = B{Ze)| 2%(v) | M2%(w)]} LL ALZ"(0)] | AZ*(o)]} = AZ"(0)] 65. De cette relation de Cartier, il découle immédiatemment QUT) < Q(T) En rassemblant ce résultat et coux qui ont été obtenus lors de Vétude du changement de support, nous arrivons & la conclusion suivante: Théoréme 7.1 L’effet d'information, tout comme Veffet de support, agit dans le sens d’une perte de sélectivité. On a toujours Q(T) > Q(T) = Q(T) la premiere inégalité étant la conséquence de Veffet de support, la deuriéme de Veffet d’information. Pour évaluer Q;(7), il faut connaitre la loi de h{Z*(v)] = E{Z(v)|Z*(w)}, ce qui revient & connaitre la loi bivariable entre Z(v) et Z*(v). Cette fois encore, cette loi n’est pas accessible & partir des données expérimentales disponibles, et il nous faudra recourir 4 un modéle. Dans ce qui suit, nous allons reprendre Je modéle Gaussien discret et voir comment l’effet d'information peut étre pris en compte dans ce modéle. 7.3. Le modéle Gaussien discret Supposons que l'estimateur soit une combinaison linéaire des valeurs prises par les échantillons Z(v) = AZ (ei) oit les coefficients A; sont positifs et de somme 1. Il pourra s’agir par exemple dun krigeage ordinaire & poids positifs ou méme d'une simple moyenne des échantillons. Dans un tel cas, la loi de Vestimateur est moins sélective que celle des échantillons. En effet, si T désigne le numéro aléatoire d’échantillon 66 qui est égal & i avec la probabilité A;, alors Z(27) suit la loi des échantillons et de plus zen | Z)} = LA e{ze) | 7°@)} AX wala) | Z")} BAZ*(v) | 2*(v)} = 2") Commengons par modéliser la loi de Z*(v). Pour ce faire, nous adoptons un procédé tout & fait analogue & celui qui a permis de modéliser la loi de Z(v) en modéle Gaussien discret. Posons Z(x1) = ¢(Yi) ainsi que Z*(v) = 43(Y¥,7), od Y; et YJ sont deux variables Gaussiennes centrées réduites, et faisons Vhypothése que le couple (¥7, ¥;7) suit une loi biganssienne. Alors, la relation de Cartier entre Z(2;) et Z*(v) implique #500) = $5 SF snc) = dle) oi s est le coefficient de corrélation entre ¥; et Y;7. Ce coefficient, nécessai- rement positif, est donné par la variance de l’estimateur tee Vortewh =X 2 gan Il reste & modéliser la loi de Z(v) & Z*(v) fixé. Ici, il est bon de rappeler que la construction du modéle Gaussien discret de changement de support conduit & poser Z(v) = ¢,(V,) oft ¥, est une variable Gaussienne et oit r est un coefficient de corrélation dont la valeur explicite peut étre obtenue grace a la variance de Z(v). Lhypothése retenue ici pour Veffet d’information est que le couple (Yo, ¥) suit une loi bigaussienne de coefficient de corrélation p. Ce coefficient. p peut étre évalué expérimentalement grace & la covariance entre Z(v) et Z*(v) qui est calculable & partir de la covariance ponctuelle Le [ Cle; — 2) de = Cov{ 4(v), 2°(v)} = oo ‘sp)” nl 67 Alors: E{Z(0) | 2*(v)} = BLSe(%) |¥S} = Seo¥0) de sorte que la courbe métal/Tonnage effective est ste0 Q(t) = [OY _, denlw) aly) dy lo-40-7) Exercices 1) Lrobjet de cat exercice est de comparer les pertes de variance et de sélectivité dues aux effets de support et d'information lorsque l'on cherche & estimer le teneur 2(v) & partir Wun échantillon uniforme « dans v 7 (0) = B{ a0) | 2} Pour mener les calculs 4 bien, on se placera dans le cadre du modéle bilognormal pour lequel Ze) = Zo) = et ot le couple (¥,¥,) suit une loi bigaussienne de coefficient de corrélation +. Application numérique m =o = 1 et r= 0.5. Bibliographie DEMANGE, ©. et al. (1987) Global recoverable reserves: testing various change of support models on uranium data. In MATHERON G. and ARM- STRONG M. (eds.) Geostatistical Case Studies pp. 187-208, Reidel Pub. Co., Dordrecht. GUIBAL, D. et TOUFFAIT, Y. (1982) Grade-tonnage relationships - their use in predicting future reserves and estimating the global xecoverable re- serves in a deposit. Proc. 17'h APCOM Symp., pp. 535-543, Golden (Col- orado). HU, L.Y. (1988) Mise en oeuvre du modéle gamma pour estimation de dis- tributions spatiales. Thése de Doctorat en Géostatistique, Ecole des Mines de Paris. KLEINGELD, W.d. (1987) Geostatistics and the discrete particles, These de Doctorat en Géostatistique, Ecole des Mines de Paris KLEINGELD, W.J. and MATHERON, G. (1987) The evolution of geostatis- ties. Proc. 20 APCOM, Vol. 3, pp. 9-12, Johannesburg. LAJAUNIE, Ch. & LANTUEJOUL, Ch. (1986) Setting up the general methodology for discrete isofactorial models. In ARMSTRONG, M. ed. Geo- statistics Vol. 1, pp. 323-334, Kluwer Ac. Publ., Dordrecht, LANTUEJOUL, Ch. (1984) Trois modéles de changement de support a partir dune distribution ponetuelle gamma. Sciences de la Terre, Série Informa- tique Géologique, Vol. 21 pp. 139-173, Nancy. LANTUEJOUL, Ch. et RIVOIRARD, J. (1984) Une méthode de détermi- nation d’anamorphose. N-916, Ecole des Mines de Pari MATHERON, G. (1971) La Théorie des Variables Régionalisées et ses Ap- plications. Ecole des Mines de Paris. MATHERON, G. (1976) Forecasting block grade distributions: the trans- fer functions. In M. GUARASCIO et al. (eds.) Advanced Geostatistics in the Mining Industry, pp. 27-251, NATO ASI Series C, Vol. 24, Reidel, Dordrecht. MATHERON, G. (1978) L’estimation globale des réserves récupérables. C- 69 75, Ecole des Mines de Paris. MATHERON, G. (1982) La destucturation des hautes teneurs et le krigeaye des indicatrices. N-761, Ecole des Mines de Paris. MATHERON, G. (1984) ‘The selectivity of the distributions and “the second principle of geostatistics”. In VERLY, G. et al. (eds.) Geostatistics for natural ressources characierization, pp. 421-423, NATO ASI Series C, Vol 122, Reidel, Dordrecht. MATHERON, G. (1984) Isofactorial models and change of support. In VERLY, G. et al. (eds.) Geostatistics for natural ressources characterization, pp. 449-467, NATO ASI Series C, Vol 122, Reidel, Dordrecht, MATHERON, G. (1984) Changement de support en modéle mosaique. Sei- ences de la Terre, Vol. 20, pp. 435-454, Nancy. MATHERON, G. (1984) Une méthodologie générale pour les modéles isofac- toriels diserets. Sciences de la Terre, Vol. 21, pp. 1-64, Nancy. MATHERON, G. (1985) Comparaison de quelques distributions du point de vue de la sélectivité. Sciences de la Terre, Vol. 24, pp. 1-21, Nancy. MATHERON, G. (1985) Change of support for diffusion-type random func- tions. Mathematical Geology, Vol. 17-2, pp. 137-165. MATHERON, G. (1988) Two classes of isofactorial models. In ARMSTRONG, M. ed. Geostatistics Vol. 1, pp. 309-322, Kluwer Ac. Publ., Dordrecht. RIVOIRARD, J. (1984) Convergence des développements en polynémes d’Her- mite. Sciences de la Terre, Vol. 24, pp. 129-159, Nancy. RIVOIRARD, J. (1989) Introduction au Krigeage Disjonctif et & la Géosta- tistique non linéaire. C-139, Ecole des Mines de Paris. 70 Table des matiéres 1 Quelques rappels probabilistes 3 1.1 Lois monovariables 3 1.2. Lois bivariables . 4 1.3. Fonctions caractéristiques ©... 2. eee eee 5 2 Lespérance conditionnelle 2.1 Existence et unicité de Pespérance conditionnelle. .. . 8 2.2 Propriétés de Pespérance conditionnel... ......... 12 221 Lingatité. 2.2... gee 222 Positivits .. 22... ..2 060. 22.3 Monotonie.........-.... eet 13 2d Moyen be eee eee 1B 2.2.5 Cas d’indépendance . . 13, 2.2.6 Formule dinvariance .. 2.2.22... ee 4 2.2.7 Formule des projections successives .. 2... - 4 2.28 Inégalité de Jensen... .. « Zee eee eae aa 2.3 Conditionnement multivariable... 0.00... ee 15 3 Vecteurs aléatoires Gaussiens 18 3.1 Quelques résultats sur les lois multigaussiennes.... 2... 18 7 « 3.2 Les polynémes d’Hermite.... 2... . eet 3.2.1 Définition et aspects fonctionnels . 3.2.2 Quelques aspects probabilistes .. . . . Les courbes de sélectivité 4.1 Tonnage ct Quantité de Métal 4.2 La fonction B(2) ... 2... 43 Lafonction Q(T)... 202 e ce eee eee 44 La Sélectivité 2... beens 4.5 La Dualité entre B(z) et Q(T)... eee eee Comparaison de deux lois du point de vue de la sélectivité 5.1 Quelques critdres de comparaison 5.2. La relation de Cartier L’effet de support 6.1 Quelques observations expérimentales.. 0... ee eee 6.2 Que connait-on de Zo)? oo. eee 6.3 Trois modéles de changement de support. 6.3.1 La Correction Affine 6.3.2 Le changement de support Mosaique . 6.3.3 Le Modéle Gaussien Diseret . . . Leffet d’information 7.1 Leffet d’information 7.2 Comparaison entre les effets de support et d’information 7.3 Le modéle Gaussien discret 72 21 21 25 30 30 35 37 39 43 43 45 63 64 65 66

You might also like