You are on page 1of 12

Langages

Principes et méthode de l'analyse distributionnelle


M. Jean Dubois, Françoise Dubois-Charlier

Citer ce document / Cite this document :

Dubois Jean, Dubois-Charlier Françoise. Principes et méthode de l'analyse distributionnelle. In: Langages, 5ᵉ année, n°20,
1970. Analyse distributionnelle et structurale. pp. 3-13;

doi : https://doi.org/10.3406/lgge.1970.2034

https://www.persee.fr/doc/lgge_0458-726x_1970_num_5_20_2034

Fichier pdf généré le 02/05/2018


J. DUBOIS ET FR. DUBOIS-CHARLIER
Paris-Nanterre X et Paris-Vincennes VIII

PRINCIPES ET MÉTHODE
DE L'ANALYSE DE3TRD3UTIONNELLE

1. Introduction.

La linguistique structurale européenne s'est développée, on le sait,


à partir du Cours de Linguistique générale, de F. de Saussure, professé de
1906 à 1911 et publié, par les soins de Ch. Bally et A. Séchehaye, en 1916,
et à partir des Travaux du Cercle linguistique de Prague, fondé en 1926
et dont les thèses, œuvre collective de V. Mathesius, de R. Jakobson et
N. Troubetskoï, paraissent en 1929. Elle s'est diversifiée alors en plusieurs
courants, comme l'École de Copenhague (V. Brendal et L. Hjelmslev) ou
le fonctionnalisme (R. Jakobson, N. Troubetskoï, A. Martinet et A. K. Hal-
liday); ceux-ci, tout en se distinguant par l'accent mis sur tel ou tel
aspect de la description (phonologie ou morphologie), par l'analyse des
rapports entre les unités des divers rangs (phonème, morphème, syntagme,
phrase) ou des relations entre les plans formel et sémantique (isomor-
phisme ou non des deux plans, identité ou non des méthodes d'analyse),
par la prévalence d'une méthode inductive empirique ou d'une méthode
deductive axiomatique, impliquent en réalité tous le même modèle
linguistique fondamental : le langage naturel est constitué d'ensembles
d'objets arbitraires; ces ensembles sont organisés en des systèmes qui sont
définis par les seules relations que ces objets entretiennent entre eux; la
construction de ce modèle se fait à partir d'un ensemble de données
effectives, collectées et réunies sous le terme de corpus.
Aux États-Unis, si E. Sapir (Language, 1921), dont les hypothèses
sont proches des Européens, reste isolé, l'ouvrage décisif est celui de
L. Bloomfield, Language, en 1933 : suivant la fondation en 1924 de la
Société de Linguistique américaine et la création de la revue Language
en 1929, il oriente la linguistique structurale dans une direction
différente, marquée par un double développement. D'un côté s'élaborent (1) la
méthode « distributionnelle », qui consiste à définir avec rigueur une
méthode formelle de segmentation de la chaîne parlée en unités distinc-
tives, définies par les seules relations qu'elles entretiennent dans cette
chaîne, c'est-à-dire par leur environnement, et (2) la méthode des «
constituants immédiats » qui définit une analyse combinatoire de ces unités en
allant de l'unité minimale aux unités de rang supérieur (du morphème à
l'énoncé, du phonème au morphème). D'un autre côté, se précise
l'hypothèse fondamentale que la ou les structures découvertes par ces méthodes
heuristiques sont dans les objets « physiques » eux-mêmes, dans les a
phénomènes » linguistiques; d'où l'accent mis sur le rapport étroit entre les
structures de la langue et les structures physiques, par exemple entre
l'unité phonique et sa réalisation physique.
Le distributionnalisme et la théorie des constituants immédiats
dominent la linguistique américaine entre 1939 et 1960 par les ouvrages
et les articles de Z. S. Harris, E. Nida, K. L. Pike, R. Wells, etc.; il
devient le modèle didactique de la linguistique dans les universités, par les
manuels de С F. Hockett et A. Gleason. Toutefois le distributionnalisme
connaît après 1952 deux développements importants qui modifient à la
fois le domaine et les aspects fondamentaux de la méthode : d'une part,
les méthodes distributionnelles sont appliquées aux « discours », c'est-
à-dire à des unités dépassant le cadre de la phrase (les principaux
travaux en cette matière sont (a) ceux de Z. S. Harris et H. Hiž sur le rôle
de la paraphrase en grammaire, sur la désambiguïsation, ou (b) ceux qui
tentent de définir une typologie des discours [V. Langages, n° 13]); de
l'autre, la notion de paraphrase, systématisée en une théorie
grammaticale des « transformations », devient la base des analyses de Z. S. Harris
et de l'École de Pennsylvanie. En 1968, Mathematical Structures of
Language marque une étape dans l'élaboration théorique de la grammaire
distributionnelle et transformationnelle, alors même que se développe sur
d'autres bases théoriques la grammaire generative de N. Chomsky (après
Aspects of the Theory of Syntax, 1965).

2. Les propriétés du langage.

La formalisation des langues naturelles implique la reconnaissance


d'un certain nombre de propriétés du langage, qui constituent les
principes de base de la théorie distributionnelle. On les définira d'après
Z. S. Harris (chap. 2 des Structures mathématiques du langage).

2.1. Le caractère discret des éléments.


Les éléments qui entrent dans la structure linguistique ont pour
propriété essentielle d'être des segments discrets. Dans le continuum
physique que constitue le flux verbal, l'analyse linguistique reconnaît des
éléments discrets. Ceci signifie que, si l'on définit les sons du langage par
certains composants physiques, certains types de variations de ces
composants entraînent des changements qualitatifs dans la perception
verbale. De même sur le plan grammatical, il y a une continuité qui va de
l'acceptation pure et simple de la phrase grammaticale, bien formée,
jusqu'au rejet total de la phrase agrammaticale ou du tas de mots;
autrement dit, il y a un continuum d'acceptabilité grammaticale; or, si
l'on définit l'agrammaticalité par des violations dans l'ordre ou la
réalisation des opérations grammaticales, on introduira alors une segmentation
dans ce continuum et on pourra parler de « degrés » d'acceptabilité ou
d'agrammaticalité.
Ce caractère discret des éléments, qui est la condition de la segmenta-
tion de la chaîne parlée et de l'établissement de la structure de la langue,
écarte donc de l'analyse linguistique un ensemble d'informations
acoustiques, liées au flux verbal (hésitations, pauses, variations de timbre ou
d'intensité, gestes, etc.) qui se modifient selon l'âge, le sexe, la fatigue ou
la personnalité, etc. : ces informations, qui ne sont pas représentées par
un système de segments discrets, n'entretiennent pas de relations
grammaticales avec les éléments de la structure linguistique. En revanche, la
théorie distributionnelle intègre à son modèle grammatical les traits
prosodiques que sont les accents, les hauteurs, les contours d'intonation
(interrogator, emphatique, impératif, etc.) : ceux-ci sont analysés comme
des segments discrets (cf. R. S. Wells, dans ce numéro).
Ce caractère discret des éléments est nécessaire à la communication
qui constitue la fonction essentielle du langage. Les informations sont
transmises avec un taux minimal d'erreurs; or toute communication, par
sa nature même, implique une quantité considérable de bruit qui
empêcherait cette transmission si les éléments n'étaient pas discrets et
redondants (les références à la théorie mathématique de l'information sont
constantes dans le modèle distributionnel).
Contrairement au structuralisme européen, Z. S. Harris ne considère
pas que la pertinence (au sens du fonctionnalisme), c'est-à-dire le fait que
l'énoncé soit porteur d'une signification ou provoque une réponse
significative, soit la propriété essentielle de la langue. Ce qui est spécifique au
langage, c'est qu'un énoncé, formé d'éléments discrets, puisse être transmis
à l'intérieur d'une communauté sociale, entre tous les membres de cette
communauté.

2.2. L'antériorité et la stabilité de la structure grammaticale.


Les éléments discrets ainsi définis sont communs à l'émetteur et au
récepteur; ils leur sont antérieurs et, en quelque sorte, préétablis. Le
locuteur et l'auditeur se réfèrent tous deux dans la communication à un
ensemble d'objets linguistiques qui leur sont communs. Cette propriété
rend compte, par exemple, dans le fonctionnement du langage, du fait
que le sujet parlant, lorsqu'il a à répéter un énoncé, le « reproduit »,
c'est-à-dire qu'il l'interprète par rapport aux éléments grammaticaux
qu'il a intériorisés et qu'il le reconstitue selon les particularités de son
propre système; il ne l'imite pas, c'est-à-dire qu'il ne le redonne pas
comme une copie conforme de ce qu'il a entendu (cette imitation ne se
fait que lorsque les suites à répéter ne sont pas préétablies,
n'appartiennent pas à la langue connue du locuteur, ou lorsqu'il s'agit d'une
suite continue).
Cette intériorisation des éléments grammaticaux se fait par
l'apprentissage : les objets linguistiques agissent comme un ensemble de stimuli
permettant chez le sujet la reconnaissance de certains contrastes et la
constitution d'une structure grammaticale. Cette structure étant propre
à l'objet que forme la langue est donc d'abord extérieure au sujet. Ce qui
est seulement donné à la naissance, c'est la spécificité des structures
neuronales des hémisphères cérébraux, propres à l'espèce humaine et
capables de sous-tendre les fonctionnements complexes de structures
composées d'éléments discrets; en revanche, ce qui est appris, ce sont les
éléments grammaticaux, les structures linguistiques elles-mêmes. Le
modèle structural d'apprentissage s'oppose ainsi au modèle génératif qui
fait de la structure grammaticale, de ses propriétés universelles, un donné
de l'espèce; pour les générativistes, cette structure est activée par les
comportements verbaux constituant l'environnement du sujet :
l'apprentissage de la langue est ramené à celui des règles de réalisation propres
à chaque idiome.
Ce caractère antérieur au sujet et préétabli rend compte, avec
l'arbitraire des symboles verbaux (cf. 2.3), de la stabilité des éléments
discrets; ceux-ci sont relativement indépendants des distorsions que
peuvent leur faire subir les locuteurs dans la mesure où ils doivent rester
le lieu commun de référence qui seul permet la transmissibilité des
messages.

2.3. Le caractère arbitraire des éléments grammaticaux.


Le caractère arbitraire des éléments discrets est impliqué par les
nécessités de la transmission sans erreur. Les sons qui composent les
morphèmes ne suggèrent pas le sens de ces morphèmes; il existe un lien
arbitraire et conventionnel entre les symboles verbaux et les objets.
Dans le cas où un lien naturel existerait entre le son et le sens des mots,
l'instabilité du système serait grande : la transmission sans erreur ne
pourrait se faire puisque le locuteur et l'auditeur ne seraient pas
nécessairement d'accord sur ce lien; les sens et les sons varieraient en fonction des
expériences individuelles; le système ne pourrait pas être intériorisé chez
des locuteurs différents, ni rester le même pendant un temps assez long.
On apprend donc certaines suites arbitraires de sons et on leur
associe une signification d'après les types de combinaisons dans lesquelles
ces suites entrent. Dans cette théorie, les différents sens des morphèmes
ne sont que des différences d'environnement. Si un élément A figure dans
l'environnement x et l'élément В dans l'environnement y, la différence de
sens entre A et В est celle de la gamme des environnements X de A et
Y de B. Ceci permet de ne pas attribuer un sens inhérent à A et à B.
C'est ce caractère arbitraire qui rend ces éléments discrets
susceptibles de traitements mathématiques.

2.4. Le caractère linéaire des combinaisons d'éléments.


Les énoncés sont des suites d'éléments discrets ordonnés de façon
linéaire. Chaque morphème est une suite de phonèmes, chaque syntagme
une suite de morphèmes, chaque phrase une suite de syntagmes, chaque
discours une suite de phrases. Lorsque les éléments paraissent se
chevaucher ou que l'étendue de certains items paraît plus grande que d'autres, on
peut toujours obtenir une représentation linéaire, conforme à la succession
linéaire des événements linguistiques. Ainsi les phonèmes et les
morphèmes suprasegmentaux d'intonation, d'accent et de hauteur sont
simultanés aux phonèmes et aux morphèmes segmentaux : une première
représentation linéaire (cf. R. S. Wells, dans ce numéro) ordonne les éléments
suprasegmentaux avant ou après les phonèmes (ou phrases) impliqués,
selon des critères définis. Mais une deuxième représentation linéaire sera
plus conforme à ce que l'on sait de la réception des signes verbaux; c'est
celle qui consiste à représenter un énoncé par deux suites l'une pt
représentant les éléments segmentaux et l'autre p2 les éléments suprasegmen-
taux. L'énoncé (la phrase P) est la résultante de deux portions simultanées
de la suite px et de la suite p2. Or on sait maintenant que les composants
physiques des sons verbaux ne sont pas reçus également sur les deux
hémisphères; l'écoute dichotique a révélé que, si les éléments vocaliques
étaient reçus également sur les deux hémisphères (avec cependant une
prévalence pour l'hémisphère droit), les éléments consonantiques étaient
reçus de manière privilégiée par l'hémisphère gauche. La synthèse de
ces éléments ordonnés linéairement est alors « centrale ».
De même, à un autre niveau, il y a des éléments co-occurrents,
comme en français le morphème de pluriel dans le syntagme nominal
sujet et le syntagme verbal : le morphème de pluriel sera localisé à
l'endroit de la chaîne parlée où il est le plus libre de figurer (ainsi dans le
syntagme nominal et non dans le syntagme verbal).

2.5. Le caractère fini des combinaisons.


Les éléments grammaticaux d'une langue, les classifications et les
opérations grammaticales forment un ensemble fini. Certes l'application
des règles peut être recursive, mais les opérateurs utilisés dans les règles
de combinaison sont en nombre fini. Les phrases sont donc toujours des
suites finies d'éléments discrets; il est en effet impossible de dire qu'une
phrase est grammaticale et acceptable, c'est-à-dire qu'une suite est une
phrase de la langue, avant qu'elle ne soit finie, car il peut toujours
intervenir avant son achèvement un élément qui pourrait violer telle ou
telle régularité. Si chaque phrase est finie, l'ensemble des phrases est
infini, mais dénombrable; infini puisque l'on peut toujours ajouter un
élément dans une phrase pour en former une autre (ainsi un adjectif peut
être adjoint à un syntagme nominal), de la même manière que l'on peut
former un nouveau nombre en ajoutant 1; mais cet ensemble est
dénombrable, puisque cette phrase est alors une occurrence d'un type de phrase.
On ne peut donc pas parler synchroniquement de phrases nouvelles;
car, en réalité elles ne peuvent être appelées des « phrases » que parce
qu'elles sont le résultat d'opérations déjà définies. Des phrases nouvelles
ne pourraient être que des suites à partir desquelles on pourrait définir
de nouveaux types d'opérations. Le caractère de nouveauté reconnu à
certaines suites provient du fait que l'on peut insérer en certaines places
des membres très nombreux de classes.

2.6. Les restrictions de combinaisons.


Toutes les combinaisons des éléments linguistiques ne sont pas
possibles dans une langue donnée; ceci veut dire que toutes les suites
d'éléments ne constituent pas un discours. En effet, si toute suite de phonèmes
donnait un morphème et si toute suite de morphèmes (ou toute suite de
syntagmes) donnait une phrase, etc., il n'y aurait aucun moyen de
déterminer les relations entretenues par les éléments à l'intérieur du morphème
8

ou de la phrase, ni de fixer leurs frontières (et, par conséquent, leur


signification) : cette détermination ne peut pas se faire seulement par la
dénotation (désignation des objets dénotés) ou par la mimique, ceci étant
vrai en particulier pour les morphèmes grammaticaux, ni par la référence
à une autre langue.
Toutes les combinaisons n'étant pas possibles, on peut donc définir
des éléments grammaticaux, comme les morphèmes, par les restrictions
qui sont imposées aux éléments qui les composent (les phonèmes) et on
peut définir les phrases par les restrictions qui sont imposées aux éléments
(morphèmes ou suites de morphèmes) qui les composent. On peut donc
réunir les morphèmes en des classes définies par le seul critère de leurs
combinaisons dans des suites de morphèmes (syntagmes). De la même
manière, on définira des classes de syntagmes en constatant que toute
suite de morphèmes n'entre pas dans une phrase. Ce processus de
classification permet de définir des classes de phonèmes, de morphèmes, de
syntagmes et de phrases par les restrictions aux combinaisons possibles.
L'objet de la description linguistique est d'abord de constituer ces classes,
de faire une taxinomie.
Les régularités permettent de rendre compte du processus
d'apprentissage : la possibilité de percevoir des éléments discrets a pour
conséquence la présence dans le flux verbal de régularités qui permettent de
déterminer des frontières entre les éléments et, par conséquent, de leur
attribuer un sens.
Ceci signifie que la langue comporte un taux important de
redondance : cette redondance est une propriété essentielle du langage naturel.
La redondance générale d'une langue n'est elle-même d'ailleurs que la
sommation des redondances intermédiaires, celles qui résultent des
combinaisons de phonèmes, de morphèmes, de syntagmes et de phrases;
ces redondances ne sont pas les mêmes; ainsi les restrictions sont plus
fortes quand il s'agit des suites de phonèmes que quand il s'agit des suites
de morphèmes et ces dernières sont plus fortes que celles qui portent sur
les combinaisons de syntagmes dans la phrase. L'établissement des classes
aboutit d'ailleurs à diminuer la redondance. Comme le sens est le résultat
de la redondance, on comprend que les phonèmes qui ne sont pas définis
sur la base de combinaisons régulières (les traits distinctifs ne sont pas
linéaires) ne peuvent être significatifs.
En effet le sens d'un morphème A, relativement aux autres
morphèmes de la phrase, est déterminé d'après l'ensemble des morphèmes
avec lequel A figure dans la phrase élémentaire ou dans les opérations
grammaticales. Le sens des éléments et des relations grammaticales est
déterminé par les restrictions des combinaisons de ces éléments
relativement aux autres éléments : redondance et signification sont donc liées. La
redondance ne renvoie pas à la fréquence, mais à l'acceptabilité; certaines
suites d'éléments constituent une phrase acceptable, d'autres non.
La question la plus importante de la linguistique structurale (Z.
Harris dira même la seule question) est de savoir comment on distinguera les
suites de phonèmes, de syntagmes ou de phrases acceptables et celles qui
ne le sont pas, comment on trouvera des régularités dans les suites
d'éléments discrets constituant le discours, comment on pourra déterminer
dans l'ensemble infini et dénombrable des phrases les combinaisons et les
9

opérations grammaticales récursives et finies qui forment la structure


grammaticale.

2.7. Les structures de phrase.

Ces régularités ne peuvent pas être déterminées sur la seule base de


la transition entre un élément A et un élément В ; on ne pourra pas définir
des classes à partir des transitions des éléments successifs d'une phrase, car
on constate souvent que les phrases peuvent avoir plusieurs sens, c'est-
à-dire qu'elles peuvent être ambiguës. Ainsi une phrase comme J'ai
rapporté un vase du Japon a deux sens au moins : j'ai rapporté un vase,
celui-ci vient du Japon (et moi-même je peux l'avoir rapporté d'un
autre pays), ou bien j'ai rapporté du Japon ce vase, qui peut être un vase
de Chine. Cette ambiguïté, dont on ne saurait rendre compte par la seule
transition entre des morphèmes qui ont toujours le même sens, est liée à
certains types de groupements de morphèmes.
On partira de la constatation empirique qu'il y a dans les suites de
syntagmes ou de morphèmes des régularités qui permettent de définir des
structures de phrase. Dans un discours quelconque, les parties que l'on
découvre alors sont des occurrences particulières d'un certain type de
suite bien formée de morphèmes ou de syntagmes. Toute langue
comporte ainsi un nombre restreint de structures de phrase.
Il s'agit donc pour le linguiste distributionnaliste de définir les suites
caractéristiques des classes d'éléments qui constituent les structures de
phrase de la langue par opposition à celles qui ne la constituent pas; ainsi
on peut définir une classe N des noms, V des verbes, P des
prépositions, etc. Toute suite NVN constitue, par exemple, une structure de
phrase, mais une suite VPP ne constitue pas en français une suite
acceptable. Toutefois toute suite VN, par exemple, n'entre pas dans une phrase
acceptable; il faudra donc constituer des sous-classes de V, la classe Vt
(transitif), la combinaison VtN étant acceptable, et la classe Vj
(intransitif), la combinaison ViN étant non acceptable. L'acceptabilité, comme
on le voit, ne correspond pas à la fréquence d'utilisation des suites de
morphèmes.
Toutefois une telle classification des suites d'éléments n'est pas
suffisante. En effet on constate que, si une phrase comme L'enfant lit un
livre est naturelle, une phrase comme La montagne lit un livre l'est
beaucoup moins, tandis que La table lit un livre ne l'est pas du tout. On
doit donc définir dans la combinaison NVN une classe de N et une classe
de У dont les membres soient co-occurrents. L'appartenance à cette classe
serait définie en termes de « naturel ». Mais on ne peut fixer une limite
absolue à partir de laquelle une combinaison ne serait pas naturelle, car
toute combinaison peut être significative à un moment donné, ou en raison
de métaphores, de jeux de mots, etc., ou être productive pour certains
locuteurs (néologismes).
Enfin les expressions idiomatiques seront définies comme certains
types de régularités à l'intérieur de classes de suites plus larges : on
définira ainsi certains types de combinaison par des règles particulières
dont certaines pourront être utilisées ou non pour fournir des sous-
10

combinaisons correspondant aux expressions idiomatiques. La caractéri-


sation des structures de phrase se fait donc par un ensemble d'opérations
qui peuvent différer dans leur application.

2.8. La relation de contiguïté.


La seule relation existant entre deux morphèmes ou deux suites de
morphèmes est la contiguïté, c'est-à-dire la proximité immédiate de deux
morphèmes ou suites de morphèmes (NVN par exemple). Il n'est pas en
effet possible de définir et de mesurer un espace en linguistique, comme
on peut le définir en musique. Toute suite bien formée de morphèmes est
constituée de morphèmes reliés entre eux par la seule relation de
contiguïté. Ainsi SN est formé de D + N (déterminant + nom). Si nous avons
D + A -f N (déterminant -f- adjectif -f nom), nous avons une autre suite
(R. S. Wells, dans ce numéro). La seule propriété qui fait que cette
suite est un objet de la grammaire est celle d'être elle-même constituée
de mots appartenant à certaines classes spécifiques. Il n'y a pas d'espace
mesurable entre les éléments constitutifs d'une suite.
De la même manière, on définit une opération comme contiguë à son
objet : ainsi le passif sera défini comme une opération grammaticale qui
est contiguë à un objet précis qui est la phrase active; elle peut seulement
en être séparée par d'autres opérations. Ainsi on constate que le syntagme
nominal sujet de la phrase active peut se voir complété par l'enchâssement
d'une relative, et c'est l'ensemble qui subira alors le déplacement qui est
une des opérations de détail de la passivation. En ce cas la passivation
reste contiguë à l'objet que forme la phrase active; il y a seulement une
opération qui vient s'insérer et qui est reconnaissable dans le résultat
final qui en porte la « trace ».

2.9. Le changement comme propriété du langage.


Le changement est une propriété de tout langage naturel vivant; on
constate en effet que toutes les langues se modifient avec le temps. Et le
problème qui se pose à la linguistique distributionnelle est de savoir de
quelle manière elle va traiter de ce changement.
Or, les modifications que présentent une langue au cours du temps
sont continues, en ce sens que le changement est une sorte de continuum
sur lequel la description d'un état de langue va définir un segment. On
peut en effet décrire la langue à un moment h de son fonctionnement, en
établir les classes et les opérations, et on peut déterminer un temps t2,
antérieur au temps tv et procéder à la même description sur des
textes qui seront des échantillons de la langue considérée. On
procède ainsi à une série de segmentations arbitraires sur la ligne continue
du changement (mais il n'est pas possible de définir des grammaires
notablement différentes à des moments très proches). Supposons que nous
ayons ainsi deux grammaires Gx de tx et G2 de t2, tel que tx soit confondu
avec le moment présent et que 1% lui soit antérieur (par exemple le
français du xviie siècle). En ce cas on pourra comparer les grammaires Gx et
G2 au regard d'un certain nombre d'items, ces items étant des classes de
11

morphèmes, des classes de suites ou des opérations affectant les types de


phrases. Ceci implique évidemment qu'aucun élément de chacune des
langues ne soit laissé en dehors de la grammaire.
Le changement pourra alors être décrit de la manière suivante : la
grammaire G2 antérieure à Gx est valable au temps t2; au temps /x
(moment présent) le changement peut être défini soit en établissant la
grammaire G2 dont tous les traits rendent compte des caractéristiques de
la langue en /2, soit en considérant dans la grammaire Gx les traits de G2
qui sont encore valides pour décrire la langue. En ce sens, on ne
considère pas seulement la différence entre les deux grammaires Gx et G2,
mais on rend compte aussi de la continuité du changement tout en
procédant à des coupes synchroniques dans une langue qui a une
histoire.
Mais quelles sont les conditions linguistiques qui rendent possible le
changement? Elles sont de deux types. La grammaire est formée de classes
de morphèmes, de suites de morphèmes et d'opérations, mais cet ensemble
comporte des similitudes et des relations diverses qui font qu'aucun
domaine n'apparaît comme autonome : le changement se manifeste par
le fait que tel phénomène linguistique en Gx s'explique comme une
opération A sur un ensemble X, alors qu'il s'explique par une opération A
sur l'ensemble Y dans la langue G2. Une opération portant sur une phrase
sera en relation avec une opération portant sur une suite de morphèmes
(ainsi la négation peut être exprimée soit par la négation de la phrase,
soit par le préfixe négatif in-). La deuxième condition linguistique du
changement réside dans le fait que tous les phénomènes ne sont pas
exactement descriptibles par les opérations, ni susceptibles d'entrer dans
des classes précises; autrement dit, il existe toujours des phénomènes ou
des items marginaux, à la limite de ces règles (ainsi les métaphores et les
néologismes); le changement consiste en ce que l'exception devient la
règle ou en ce qu'une sous-opération dans un ensemble déterminé
d'opérations devient l'opération principale : ainsi dans la suite DN l'ancien
français connaît des classes de morphèmes différentes de celles du français
moderne; toutefois certaines règles de l'ancien français (N avec
déterminant zéro) sont devenues des sous-règles susceptibles de rendre compte
des exceptions en français moderne. Mais finalement la possibilité de
constituer une succession de grammaires synchroniques tient au fait que
la langue comporte un système d'interrelations entre ses parties.
C'est aux principes et aux méthodes de l'analyse distributionnelle
qu'est consacré ce numéro de Langages, avant que le modèle connaisse
les développements marqués par la théorie de la paraphrase et celle des
transformations : l'article de Z. Harris pose l'ensemble des problèmes
théoriques et méthodologiques qui restent ceux de l'analyse structurale;
E. Fischer-Jergensen en applique de façon critique les méthodes à la
description phonologique; R.S.Wells construit le modèle des constituants
immédiats qu'avait seulement ébauché L. Bloomfield.
Ainsi que le remarque Z. Harris, la métalangue dont se sert la
linguistique pour construire ses modèles est une partie de la langue elle-
même; aussi les opérations sémantiques décrites dans l'analyse compo-
nentielle, telles qu'elles sont exposées par E. Bendix, reposent-elles sur
l'existence dans la langue de certains schemes de phrase. Du moins,
12

dépassant le cadre trop facile des nomenclatures structurées comme les


noms de parenté et de couleur, ce dernier a-t-il donné la première analyse
systématique et théoriquement justifiée d'un vocabulaire général. (Des
raisons de place ne nous ont permis de donner que les premiers chapitres
théoriques de cet article majeur.)
BIBLIOGRAPHIE SOMMAIRE
DE L'ANALYSE DISTRIBUTIONNELLE

Bloch (B.) et Trager (G.)- Outline of Linguistic Analysis, Baltimore,


Waverley Press, 1942.
Bloomfield (L.) Language, New York, Holt, Rinehart et Winston, 1933
(trad. fr. Payot, 1970).
Chomsky (N.) Syntactic Structures, La Haye, Mouton, 1957 (trad. Le Seuil,
1969).
Gleason (H.A.) An Introduction to Descriptive Linguistics, New York,
Holt, Rinehart et Winston. 1961 (tr. fr. Larousse, 1969).
Harris (Z. S.) Methods in Structural Linguistics, Chicago, University of
Chicago Press, 1951.
« Discourse Analysis », Language, 28 (1952), 18-23 et 474-494
(trad, dans Langages, Didier Larousse, 13, 1969).
« Distributional structure » Word, 10 (1954), 146-194 (trad,
dans ce numéro).
« Co-occurrence and transformation in linguistic Structure »
Language, 33 (1957), 283-340.
String Analysis of Sentence Structure, La Haye Mouton, 1962.
« Transformational theory », Language, 41 (1965), 363-401.
Mathematical Structures of Language, New York, Wiley, 1968,
230 pages.
Hiz (H.) The role of paraphrase in grammar, Washington, Georgetown
University, 1964 (Monograph series vol. 17).
Hockett (C. F.) A Course in Modern Linguistics, New York, Macmillan,
1958.
Nida (E.) Morphology : A Descriptive Analysis of Words, Ann Arbor,
University of Michigan Press, 1949 (2e éd.).
Pike (K. L.) Language in Relation to a Unified Theory of Human Behavior,
La Haye, Mouton, 1967 (2 éd.).
Phonetics, Ann Arbor, University of Michigan Press, 1943.
Wells (R. S.) « Immediate Constituents », Language, 23 (1945), 1-11
(trad, dans ce numéro).

You might also like