Professional Documents
Culture Documents
Boudon Raymond. Mthodes d'analyse causale. In: Revue franaise de sociologie, 1965, 6-1. pp. 24-43;
http://www.persee.fr/doc/rfsoc_0035-2969_1965_num_6_1_1836
Zusammenfassung
Raymond Boudon : Methoden der Kausalanalyse.
Die heute in der Soziologie angewandten Methoden der Kausalanalyse (z.B. die von Lazarsfeld oder
von Simon-Blalock) konnen nur relativ einfache (mit wenigen Merkmalen versehene und uber
bestimmte formelle Eigenschaften verfiigende) Kausalstrukturen behandeln und lassen keine Messung
kausaler Abhngigkeit zu. Andererseits knnen statistische Techniken, wie die Regressionsanalyse,
nur dann als kausalanalytische Instrumente betrachtet werden, wenn sie besondere Strukturen
behandeln : nur bei solchen lsst sich ein Mass der kausalen Abhngigkeit definieren. Man kann aber
auf Grund naturlicher Hypothesen eine wirksamere Methode darlegen, die hier Abhngigkeitsanalyse
genannt wird. Es handelt sich um eine Ausdehnung der Regressionsanalyse, die befhigt
allgemeinere Koeffizienten zu definieren. Ihre logische Grundlage kann nur in Beziehung auf
Regressionsanalyse und konometrische Kausalittsmodelle begriffen werden. Erzielte Resultate
erlauben, die Methoden der Kausalanalyse nach den formellen Merkmalen der betrachteten
Kausalstruktur und nach den diesen Methoden zugrunde liegenden Hypothesen zu klassifizieren.
Resumen
Raymond Boudon : Mtodos de anlisis causal.
Los mtodos de anlisis causal que se utilizan actualmente en sociologia, como el anlisis
multivariado de Lazarsfeld o el anlisis de Simon-Blalock, permiten tratar slo de las estructuras
causales relativamente simples, que abarcan un numero reducido de variables, y que estn provistas
de ciertas propiedades formales. De todas maneras, no permiten definir una medida de dependencia
causal. Por lo dems, las tcnicas estadisticas tal como el anlisis de regresin pueden ser
consideradas como instrumentes de anlisis causal slo cuando se consideran estructuras
particulares; no permiten dfinir una medida de dependencia causal sino cuando se trata de esas
estructuras. Un mtodo ms poderoso que los mtodos en prctica puede ser formulado basndose
en hiptesis naturales. Aqu se la llama anlisis de dependencia. Representa una extension del
anlisis de regresin y permite dfinir coeficientes ms gnrales que esta. Su fondamiento lgico se
comprende slo cuando se refiere al anlisis de regresin y a los modelos de causalidad que estudian
los economistas. Con los resultados conseguidos, es posible presentar una clasificacin de los
mtodos de anlisis causal por respecte de las caracteristicas formales de las estructuras causales
consideradas y de las hiptesis que originan estes mtodos.
Abstract
R. Boudon : Methods of causal analysis.
The methods of causal analysis actually employed in sociology such as Lazarsfeld's multivariate
analysis or Simon-Blalock's analysis allow only the treatment of relatively simple causal structures,
including a small number of variables and possessing certain formal characteristics. By no means do
they allow to define a measure of causal dependence. Moreover, statistical techniques such as
regression analysis can be considered as instruments of causal analysis only if particular structures are
examined : they allow to define a measure of causal dependence only relative by to these structures. A
stronger method than those in use can be formulated from natural hypotheses. It is called here :
dependence analysis. It represents an extension of regression analysis and allows to define more general
coefficients than those defined by the latter. Its logical basis can be understood only by reference to
regression analysis and causal models studied by economists. From the results obtained a classification of
the methods of causal analysis in relation to the formal characteristics of causal structures and to the
hypotheses on which these methods are based can be established.
: .
,
-,
,
. ,
. , ,
,
. , ,
. .
- ,
. ,
, .
, , ,
.
R. franc. Sociol., VI, 1965, 24-43
I. Introduction (#)
24
Mthodes d'analyse causale
cette situation est celle qu'on rencontre chaque fois qu'on veut expliquer
une variable dpendante partir d'un ensemble de variables indpendantes,
que les observations proviennent de questionnaires, de donnes statistiques,
ou de toute autre source.
La logique de l'infrence causale a t tudie sparment par un bon
nombre de mthodologues de disciplines diverses, tels que des conomistes,
des sociologues et des biologistes. Les premiers ont surtout analys le
problme de identification des structures causales linaires, dont on verra
ci-dessous la formulation (7, 8, 10, 11, 12, 14, 25, 26); les seconds se sont
notamment proccups de la dtermination des relations de causalit
authentiques par opposition aux relations fictives dduites des corrlations
fallacieuses , en mme temps que de l'interprtation des relations causales par
l'introduction de variables qualificatrices (1, 2, 3, 4, 6, 9, 13, 16, 17, 22) ;
les troisimes ont prsent des mthodes permettant non seulement d'infrer
l'absence ou la prsence de relations de causalit entre variables, mais
aussi de mesurer la dpendance causale (24, 27, 28).
Lorsqu'on tudie les travaux des mthodologues de ces diverses
disciplines, on a l'impression de se trouver devant une absence de cohrence
logique. Un signe de ce manque d'unit est la perception que ces auteurs
ont les uns des autres : voquant les travaux de Zeisel (29), Kendall et
Lazarsfeld (9, 13) sur ces problmes, Simon constate simplement que
l'analyse de confluence de Frisch (14) et la littrature conomtrique sur le
problme de l'identification et les relations structurelles sont quelque peu
diffrents bien que fort proches de ces travaux. Lorsqu'il affirme ensuite
que le pont entre le problme de l'identification et celui des corrlations
fallacieuses peut tre jet partir d'une dfinition prcise et oprationnelle
de la causalit , on ne voit pas que ce qu'il prsente ensuite soit autre
chose qu'une juxtaposition (&). Son article Causal ordering and identifia-
bility (21) est un essai pour dfinir formellement les structures linaires
identifiables dans le cas des modles sans erreurs, c'est--dire des modles
o toutes les sources de variation sont supposes connues; par ailleurs,
Spurious correlation, a causal interpretation reproduit l'analyse causale
de Durkheim-Lazarsfeld (6, 9, 13) dans le cas particulier o les relations
sont de forme linaire (22). La lecture des deux articles de Simon n'vince
gure l'impression que les travaux des conomistes et l'analyse multivarie
de Durkheim-Lazarsfeld refltent seulement deux perspectives distinctes
quoique proches .
Quant Blalock, dont les nombreux articles (1, 2, 3, 4) sont une
exploration de la spcification linaire impose par Simon l'analyse de Durkheim-
Lazarsfeld, il est tonnant de constater qu'il cite Wright (4), dont les
travaux datent du premier quart du sicle, mais ne se proccupe pas de
dterminer le lien logique entre la mthode de Wright et celle de Simon.
Wright lui-mme, lorsqu'il donne en 1954 un nouvel expos de sa
mthode (28), semble ignorer les rsultats obtenus par l'conomtrie dans
la dcade prcdente.
Nous montrerons ci-dessous que ces perspectives diffrentes peuvent
tre dduites d'un modle gnral unique par l'introduction d'hypothses
particulires. On verra notamment que, si on utilise la seule hypothse
de linarit, on se trouve, dans des situations formellement dfinissables,
devant l'impossibilit d'identifier les paramtres du modle visant mesurer
l'influence causale. En revanche, l'introduction d'une hypothse naturelle
25
Revue franaise de sociologie
sur les facteurs non explicites permet d'liminer dans tous les cas ces
problmes d'identification, et de mesurer l'influence causale. Le modle qu'on
obtient ainsi peut tre considr comme une extension de l'analyse de
rgression.
Les considrations qui suivent sont de nature ncessairement abstraites :
le problme de l'infrence causale est un problme formel. Cependant, le
lecteur ne perdra pas de vue qu'elles visent essentiellement une fin
pratique. Il s'agit, rptons-le, tant donn une information sur diverses
caractristiques d'une population recueillie un instant dtermin du temps, de
vrifier ou d'induire la structure causale sous-jacente. Le problme est de
grande importance en sociologie, o on voit souvent que, par facilit ou
ignorance mthodologique, une thorie est btie partir de la seule
considration des corrlations simples entre variables prises deux deux, quand
l'introduction de variables supplmentaires peut, comme on le sait depuis
Durkheim, modifier considrablement l'interprtation.
Durkheim (6, 18) et, sa suite, Lazarsfeld (9, 13) ont contribu
rsoudre la question suivante : sachant, en vertu d'une connaissance pralable que a
est antrieur b et ayant observ une corrlation entre a et b, quand peut-on
valablement conclure la proposition a cause de b ? La rponse de
Lazarsfeld est connue et nous nous contenterons de la rsumer : une
corrlation entre deux variables, supposes pour la simplicit dichotomiques,
peut s'analyser, quand on introduit une troisime variable 2, en une somme
pondre de trois termes, dont les deux premiers sont les covariances
conditionnelles de x et de y dans les deux sous-populations distingues par z
et dont le troisime est le produit des covariances entre z et chacune des
variables primitives. On supposera x antrieur y. Symboliquement, la
formule d'laboration s'crit :
[1] cov (xy) = cov (xy;z) cov (xy;zr) cov (xz) cov (yz).
[2] cov (xy;z) = cov (xy;zu) cov (xy;zu') cov (xu;z) cov (yu;z).
Il devient alors trs difficile de dgager un nombre limit de, structures
26
Mthodes d'analyse causale
(c) Conditions a priori signifie ici, non pas conditions indpendantes de l'exprience,
mais conditions imposes au modle, le plus souvent en vertu de l'exprience.
27
Revue franaise de sociologie
de x2 par rapport X\. Par ailleurs, la quantit ui2<Ji/<s2 n'est autre que le
coefficient de corrlation r12. Comme le carr du coefficient de corrlation
entre deux variables mesure la proportion de la variance de l'une explique
par l'autre, ou, plus exactement, par la rgression sur l'autre, la quantit
ai2i/<T2Peut tre interprte comme une mesure de l'influence causale d'une
des variables sur l'autre. Quant au sens de la liaison causale, il ne peut,
dans ce cas, tre dtermin que par la connaissance a priori qu'on peut avoir
sur la nature des deux variables.
La mme interprtation est valable dans les situations o une variable
dpend, non d'une, mais de plusieurs variables. Ainsi, si on considre
isolment la deuxime quation du systme [3], les coefficients a13 et 2
reprsentent les coefficients de rgression partiels de x3 sur x2 lorsque la valeur
de xt est fixe, et de x3 sur lorsque la valeur de x2 est fixe. Comme
prcdemment, les coefficients de rgression d'une variable dpendante sur
une variable indpendante, lorsque les valeurs des autres variables sont
fixes, sont lis aux coefficients de corrlation par une formule faisant
intervenir les carts-types des deux premires. La seule nouveaut est que les
coefficients de corrlation qu'on considre alors sont les coefficients de
corrlation partiels et les carts-types, des carts-types lis. Ainsi, l'cart-
type de x2 li par xz dans l'quation considre se note <2. et mesure
la dispersion de x2 lorsque x3 a une valeur fixe. Les coefficients de
corrlation partiels mesurent pour leur part, comme on sait, la liaison statistique
entre deux variables donnes, lorsque les autres ont une valeur fixe. Le
coefficient de corrlation partiel entre x et x3 se note, dans le cas prsent
r13 2- De nouveau, 7-13.2 mesure l'influence causale de x sur .r3 obtenue
en liminant l'effet de x2', de mme, 23.2 mesure l'influence de x2 sur "3
lorsque la valeur de xx est fixe.
Appelons structures causales simples les structures auxquelles
correspondent des modles quation unique. Les considrations prcdentes
permettent d'noncer la proposition : dans une structure simple, les carrs
des coefficients de corrlation sont une mesure de dpendance causale. On
notera que, de faon quivalente, on peut dfinir les structures simples
comme les structures o une variable est suppose dpendre d'un certain
nombre de variables qui ne dpendent pas elles-mmes les unes des autres.
La mesure de dpendance causale est le carr du coefficient de corrlation
total de Bravais-Pearson, dans le cas o l'ensemble des variables
indpendantes se rduit un seul lment, et le carr des coefficients de
corrlation partiels dans les autres cas.
Cependant, toutes les structures causales ne sont pas des structures
simples, comme en tmoigne la structure de la figure prcdente : les variables
ne peuvent tre classes en indpendantes et dpendantes; ainsi, x2 est
dpendante par rapport x et indpendante par rapport xs. De mme,
la structure ne peut tre dcrite par une quation unique. La question qui
se pose alors est la suivante : peut-on tendre la logique de l'analyse de
rgression, et dfinir une mesure de la dpendance causale dans le cas des
structures quations multiples que, par opposition aux prcdentes, nous
appellerons structures complexes ?
28
Mthodes d'analyse causale
[4]
(d) Rappelons que pour obtenir l'lment de la i-me ligne et de la /-me colonne du
produit de deux matrices, on multiplie chaque lment de la i-me ligne de la premire
par l'lment correspondant de la /-me colonne de la seconde et on additionne les
produits ainsi obtenus. De cette dfinition il rsulte que deux matrices ne peuvent tre
multiplies entre elles que si la premire a autant de colonnes que la seconde a de lignes.
29
Revue franaise de sociologie
P=
Si est telle que l'quation [6] soit satisfaite, tant donn un ensemble
d'observations, alors l'quation
[7] PB* = Fe = e'
[8]
31
Revue franaise de sociologie
variable explicite dans la structure causale, alors que nous n'avons pas
introduit d'quation de ce type dans l'exemple des sections III et IV.
Si on multiplie les quations prcdentes deux deux, et si on prend
les esprances mathmatiques des variables, on obtient un systme
d'quations dont les membres de droite sont tous nuls, puisque les corrlations,
et videmment les covariances des facteurs spcifiques sont supposes nulles
par hypothse. On a :
12(\)+(12)=
&13E (*?) + &23E (2) + E () =
bl2 [613E (xf) + 623E (xtx2) + E
+ &13E {xxx2) + &23E (x ) + E (x2x3) = o.
E(x1x2)=-b12E(x\)
[10] E () = QUbn - &13) E (*)
32
Mthodes d'analyse causale
(e) La matrice transpose d'une matrice est obtenue en interchangeant les lignes et
les colonnes de cette dernire. Un vecteur colonne tant une matrice n lignes et une
colonne, son transpos est un vecteur une ligne et colonnes.
33
Revue franaise de sociologie
la
= &43
structure
= &24 =causale
O. est valide et si, par consquent, on a bien &32 = 642
34
Mthodes d'analyse causale
on a
[17] blt E (,) + . . . + E (xtxj) = E (etxj) = 0.
35
Revue franaise de sociologie
ff? C1.23...e
quantit d\t exprime donc bien la proportion de la variance de
spcifiquement explique par xx. C'est ce que veut dire Wright, quand il crit que
la racine de cette quantit mesure la fraction de l'cart-type de la variable
dpendante (affecte du signe convenable) directement explique par un
facteur donn, c'est--dire la fraction qu'on obtiendrait si la variance de
ce facteur tait identique sa variance effectivement observe, les autres
facteurs (y compris les facteurs rsiduels) tant constants (/).
Ainsi, les carrs des coefficients de dpendance corrigs par le rapport
de la variance de la variable indpendante celle de la variable dpendante
sont bien une mesure de l'influence causale de la premire variable sur
la seconde. Comme les coefficients de dpendance peuvent toujours tre
identifis, la dtermination de ces coefficients peut tre considre comme
une mthode gnrale d'analyse causale, dans le cas o les hypothses de
spcificit et de linarit peuvent tre considres comme valides. Nous
appellerons cette mthode analyse de dpendance .
Notons que le carr des coefficients de dpendance corrigs que Wright
appelle path coefficients et que nous dsignerons par l'expression
coefficients de Wright , a une signification parallle celle du carr des
coefficients de corrlation. Les coefficients de Wright peuvent mme tre tenus
pour une extension, obtenue l'aide de l'hypothse de spcificit, des
coefficients de corrlation : en effet, leur carr exprime la proportion de la variance
d'un facteur explique par une variable donne, lorsque cette dernire
dpend elle-mme d'autres facteurs; sinon, les coefficients de Wright sont
purement et simplement des coefficients de corrlation, comme on le voit en
se reportant l'quation [20].
Que les coefficients de Wright puissent tre considrs comme une
extension, dans le cadre de l'analyse causale, des coefficients de corrlation suggre
de considrer les coefficients de dpendance comme une extension des
coefficients de rgression (g). Cependant, une telle interprtation n'est recevable
(/) Voir la rfrence bibliographique (27).
(g) L'acception de la notion d'extension dans tout cet article (de l'analyse de
rpression par l'analyse de dpendance, des coefficients de rgression par les coefficients de
dpendance, des coefficients de corrlation par les coefficients de Wright) apparat
clairement au tableau I : extension signifie, en bref, possibilit d'application un ensemble
de structures plus vaste . L'extension tait obtenue par une hypothse supplmentaire,
il est vident qu'extension n'est nullement synonyme de gnralisation.
36
Mthodes d'analyse causale
que si on peut montrer que, dans le cas des structures identifiables, c'est--
dire dans le cas o les coefficients de rgression peuvent tre dtermins,
les coefficients obtenus par une analyse de dpendance sont identiques aux
coefficients obtenus par une analyse de rgression.
37
Revue franaise de sociologie
et, en posant bu (x/ad du, & (/<) = d}i, etc., de faon substituer les
coefficients de Wright aux coefficients de dpendance,
[26] (dtfu + . . . + ri5 + . . . + djt + . . . + dmirmi) opj - o.
Mais la condition [26] est quivalente la condition suivante :
[27]
D'o on peut toujours obtenir des quations exprimant les coefficients de
Wright en fonction des coefficients de corrlation. L'analyse de dpendance
est ainsi ramene une forme particulirement simple, puisqu'il suffit de
calculer les coefficients de corrlation entre les variables explicites pour
obtenir les coefficients de Wright, qui sont des mesures de dpendance
causale.
Nous avons jug utile de rsumer, par le Tableau ci-contre, les rsultats
obtenus dans les sections prcdentes. La verticale du tableau classe les
structures causales selon la double caractristique du nombre de variables
et de l'identifiabilit et introduit la classe des structures avec facteurs
explicites non-observs ; l'horizontale numre les hypothses; l'intrieur
donne les mthodes applicables dans chaque cas.
38
Mthodes d'analyse causale
Hypothses
Analyse de
Structures dpendance
non
(coeff. de
identifiables dpendance)
Trois
structures variables Analyse de
dpendance
(coeff. de
Structures Analyse Analyse de rgression
multivarie rgression = coeff.
identifiables de
des dpendance) Sous-
produit
Car ctristiques ventuel
Structures Analyse de de l'analyse
non dpendance de
(coeff. de dpendance :
identifiables dpendance) les modles
Plus de de Simon-
trois Analyse de Blalock
variables dpendance
Structures (coeff. de
Analyse de rgression
rgression = coeff.
identifiables de
dpendance)
Prsence de Eventuellement :
Variables non analyse de
observes dpendance
39
Revue franaise de sociologie
Les corrlations observes par Blalock sont les suivantes : r12 = 0,389 ;
^13 = 0,670; ru = 0,264; r1B = 0,736; r23 = 0,067; r24 = 0,531; r25 =
0,440 ; r34 = 0,042 ; r36 = 0,599 ; r45 = 0,386.
La simple inspection de ces coefficients suffit montrer l'intrt d'une
analyse causale. Ainsi, on observe un corrlation ngative et passablement
leve entre x2 et x5. Cela signifie-t-il que, lorsque la population de couleur
est majoritaire, une politique de bas salaires puisse s'instaurer plus
facilement son gard ? En d'autres termes, cela signifie-t-il que x2 ait une
action directe d'importance non ngligeable sur x5, de telle sorte que,
lorsque x2 crot, x5 a tendance dcrotre ?
Pour rpondre de telles questions, l'analyse de dpendance est un
instrument beaucoup plus efficace que l'analyse de Simon. Par ailleurs, il
faudrait, pour appliquer l'analyse multivarie de Lazarsfeld, tre en mesure
de contrler simultanment les effets de xt et "4, ce qui, tant donn la
nature de l'chantillon, n'est sans doute gure praticable.
La premire tape de l'analyse de dpendance consiste crire les
quations correspondant au graphe ci-dessus :
b12x1 + x2 = e2
b2ix2
Mais, en comparant les quations [25] et [27], on voit qu'on peut crire,
en substituant les coefficients de Wright aux coefficients de dpendance :
Les neuf autres quations sont obtenues de la mme faon. Nous nous
contentons de les crire :
[31. 1] rfi2 + r12 = o
[3I-2] <*13 + ^23^12 + ^13 =
[3 1-] rf18r12 + ^23 + ^23 =
[3I4] ^12 + *-14 =
[31-5] <*24 + *24 =
^ + r3 =
quations
0,054, [31.4],
0,003 [31.6],
et 95'[31.9]
La troisime
au lieu des
valeur
valeurs
est videmment
nulles attendues,
peu
satisfaisante et indique que le modle est imparfait. Nous ne nous
attacherons cependant ici ni une critique de fond du modle de Blalock,
ni aux problmes d'estimation poss par l'analyse de dpendance. Notons
seulement en passant que les trois modles proposs par Blalock montrent
41
Revue franaise de sociologie
XI. Conclusion
(i) II est vident que la mthode d'estimation des paramtres prsente ici n'est pas la
meilleure. Elle n'est acceptable que dans la mesure o on admet qu'on a affaire des
donnes non entaches d'erreur. Nous reviendrons sur ce problme de l'estimation des
paramtres dans une publication ultrieure.
42
Mthodes d'analyse causale
Rfrences bibliographiques
(1) Blalock, H. M. Jr. Correlation and causality: the multivariate case. Social
Forces 39 (3), March 1961, pp. 246-251.
(2) Blalock, H. M. Jr. Four-variable causal models and partial correlations .
rican Journal of Sociology 68 (2), September 1962, pp. 182-194.
(3) Blalock, H. M. Jr. Making causal inferences for unmeasured variables from
correlations among indicators . American Journal of Sociology 69 (1), July
1963, PP. 53-62.
(4) Blalock, H. M. Jr. Further observations on asymmetric causal models .
rican sociological Review 27 (4), August 1962, pp. 542-544.
(5) Dunlap, J. W., Cureton, E. E. On the analysis of causation . Journal of
cational Psychology 21, 1930.
(6) Durkheim, E. Le suicide, Nouvelle dition. Paris, Presses Universitaires de France,
i960.
(7) Haavelmo, T. H. The structural implication of a system of simultaneous
tions . Econometrica 11, 1943.
(8) Hurwicz, L. On the structural form of interdependent systems in : Logic,
dology and philosophy of science, edited by E. Nagel, P. Suppes and A. Tarski.
Stanford, Stanford University Press, 1962.
(9) Kendall, P. L., Lazarsfeld, P. F. Problems of survey analysis in:
ties in social research, edited by R. K. Merton and Paul F. Lazarsfeld. Glencoe
(111.) Free Press, 1950, pp. 133-196.
(10) Koopmans, T. C. Identification problems in economic model construction .
metrica, April 1949 (Bibliographie).
(11) Koopmans, T. C. Statistical inference in dynamic causal models. New York, Wiley,
1950. (Cowles Commission Monograph, 10).
(12) Koopmans, . The identification of structural characteristics . Annals of
mathematical Statistics, June 1950.
(13) Lazarsfeld, P. F. The interpretation of statistical relations as a research
tion in: The language of social research, edited by P. F. Lazarsfeld and
M. Rosenberg. Glencoe (111.), Free Press, 1955, pp. 1 15-125.
(14) Malinvaud, E. Les mthodes statistiques de l'conomtrie. Paris, Dunod, 1964.
(15) Novak, S. Some problems of causal interpretation of statistical relationships .
Philosophy of Science 27, January i960.
(16) Polk, K. A note on asymmetric causal model . American sociological Review 27
(4), August 1962, pp. 539-542.
(17) Robinson, W. S. Asymmetric causal models : comments on Polk and Blalock .
Ibid., pp. 545-548.
(18) Selvin, H. C. Durkheim's Suicide and problems of empirical research .
can Journal of Sociology 63 (6), May 1958, pp. 607-619.
(19) Selvin, H. C. The logic of survey analysis. Rapport prliminaire multigraphi, 1964.
(20) Simon, H. A. On the definition of a causal relation . Journal of Philosophy 49,
July 1952.
(21) Simon, H. A. Causal ordering and identifiability in: Studies in econometric
methods, edited by Hood and T. C. Koopmans. New York, Wiley 1953 {Cowles
Commission Monographs).
(22) Simon, H. A. Spurious correlation : a causal interpretation . Journal of the
rican statistical Association 49, September 1954.
(Ces trois derniers articles sont reproduits in : Simon, H. A. Models of man, New
York, Wiley, 1957).
(23) Simon, H. A. Causality and econometrics: comment. Econometrica 23, 1955.
(24) Tukey, J. W. Causation, regression and path analysis in: Statistics and
matics in biology, edited by Kempthorne and others. Ames (Iowa), Iowa State
College Press, 1954.
(25) Wold, H. O. Causality and econometrics . Econometrica 22, 1954.
(26) Wold, H. O. A generalization of causal chain models . Econometrica 28, i960.
(27) Wright, S. 1 he method of path coefficients . Annals of mathematical Statistics 5,
1934 (Bibliographie).
(28) Wright, S. The interpretation of multivariate systems in : Statistics and
matics in biology. Op. cit.
(29) Zeisel, H. Say it with figures, New York, Harper and Brothers, 1947.
43