You are on page 1of 15

PROGNOZA STRUCTURII UNOR FENOMENE UTILIZÂND LANŢURI

MARKOV

CAP.1 LANŢURI MARKOV

1.1. Definiţii:
În lumea reală, există o multitudine de fenomene din diferite domenii cum ar fi management,
economie, structuri sociale care nu pot fi caracterizate in mod determinist, fiind necesară parcurgerea
aleatorie.De aceea, în studierea acestor fenomene se utilizează procesele stochastice.
Marelui matematician rus Andrei Markov îi sunt datorate procesele care îi poartă numele
şi care au deschis calea spre numeroase aplicaţii ale teoriei probabilităţilor şi în special a
proceselor aleatoare. Proprietatea Markov care este aparent restrictivă, stipulând că probabilitatea
unui eveniment prezent depinde numai de trecutul cel mai recent, permite ca în memoria recentă
să fie înglobată întrega evoluţie istorică. În matematică, un proces Markov, sau un lanț
Markov, este un proces stochastic care are proprietatea că, dată fiind starea sa prezentă, stările
viitoare sunt independente de cele trecute. Această proprietate se numește proprietatea Markov.
Cu alte cuvinte, starea curentă a unui astfel de proces reține toată informația despre întreaga
evoluție a procesului. Într-un proces Markov, la fiecare moment, sistemul își poate schimba sau
păstra starea, în conformitate cu o anumită distribuție de probabilitate. Schimbările de stare sunt
numite tranziții. Un exemplu simplu de proces Markov este parcurgerea aleatoare a nodurilor
unui graf, tranzițiile fiind trecerea de la un nod la unul din succesorii săi, cu probabilitate egală,
indiferent de nodurile parcurse până în acel moment.

Definiţia 1. Se numeşte proces stochastic un experiment aleator care constă dintr-o suită de
subexperimente aleatoare. O clasă specială de astfel de procese este reprezentată de lanţurile Markov.
Multe experimente aleatoare se desfăşoară în etape. De aceea, un astfel de experiment
poate fi considerat ca fiind o secvenţă de subexperimente şi fiecare rezultat al experimentului
este determinat de rezultatele subexperimentelor (în ordine).
Aşadar, un proces stochastic este o mulţime indexată de variabile aleatoare, {Xt}, unde t
parcurge o mulţime T numită mulţimea indicilor pozitivi T = N, iar Xt reprezintă o caracteristică
cantitativă sau calitativă a sistemului cercetat.

1
Avem o succesiune de experimente cu aceleaşi rezultate posibile. Prin urmare, se va
considera că t este un moment de timp care ia valorile 1, 2, 3, …, n. Această succesiune redă
secvenţa de experimente. Pentru fiecare moment, rezultatele posibile vor fi notate 1, 2, …, m (m
- număr finit). Cele m rezultate posibile vor fi numite stările în care se poate afla sistemul la un
moment dat. Unitatea de măsură pentru momentele de timp succesive t depinde de sistemul
studiat.
Dintre tipurile de astfel de secvenţe îl putem menţiona pe acela în care probabilităţile
rezultatelor la un moment dat sunt independente de rezultatele experimentelor precedente (de
exemplu: aruncarea repetată a unui zar, extragerile unei bile din urnă cu revenire).
Un alt tip de secvenţă este acela în care probabilităţile rezultatelor la un moment dat
depind de rezultatele din experienţele anterioare (de exemplu: extragerile succesive din urnă fără
revenire). În cazul acestui din urmă tip de experiment se pot distinge două subcazuri extreme:
 O extremă e reprezentată de faptul că probabilităţile rezultatelor la un moment dat
depind de rezultatele tuturor experimentelor precedente din secvenţă;
 cealaltă extremă a nivelului de dependenţă este atunci când probabilităţile rezultatelor la
un moment dat depind doar de rezultatele experimentului precedent. În această situaţie
secvenţa de experimente se numeşte proces (lanţ) Markov.

Definiţia 2. Un proces Markov sau lanţ Markov este o succesiune de experimente în care fiecare
experiment are m rezultate posibile E1, E2,…,Em, iar probabilitatea fiecărui rezultat depinde doar
de rezultatul experimentului precedent.

Definiţia 3. Se spune că un proces stochastic are proprietatea lui Markov dacă este îndeplinită
egalitatea:
P(Xt+1= j/X1 = k1, …, Xt-1 = kt-1, Xt = i) = P(Xt+1 =j/Xt = i),
pentru t =1, 2, …,n şi pentru orice succesiune k1, k2, …kt-1, i, j de stări din mulţimea celor m
stări posibile ale sistemului.
Fie 2 evenimente, A şi B.Notăm P(A/B) – probabilitatea evenimentului A condiţionată de
evenimentul B.

2
Proprietatea lui Markov arată faptul că probabilitatea condiţionată a oricărui eveniment
viitor (Xt+1 = j), date fiind evenimentele trecute X1 = k1, …, Xt-1 = kt-1 şi starea prezentă Xt = i, este
independentă de stările trecute şi depinde doar de starea prezentă a procesului.
Există o largă varietate de fenomene care sugerează o comportare în maniera unui proces
Markov. Ca şi exemple, am redat următoarele situaţii:
 probabilitatea ca o persoană să cumpere un produs de o anumită marcă (detergent, bere,
cosmetice, încălţăminte etc.) poate depinde de marca aleasă la cumpărătura precedentă;
 probabilitatea ca o persoană să aibă cazier poate depinde de faptul că părinţii au avut sau nu
cazier;
 probabilitatea ca starea de sănătate a unui pacient să se îmbunătăţească, să se înrăutăţească
sau să rămână stabilă într-o zi poate depinde de ceea ce s-a întâmplat în ziua precedentă.
Evoluţia unui proces Markov poate fi descrisă prin intermediul unei matrice.
Matricea de tranziţie este un instrument foarte eficient pentru reprezentarea
comportamentului unui proces Markov.

Definiţia 4. Fie un proces Markov care are m rezultate posibile mutual exclusive E1, E2, …, Em.
Forma generală a unei matrici de tranziţie pentru acest gen de experimente are forma:
Starea Viitoare

Starea Curentă =P

O dată cu modelarea sistemului, acesta poate fi în una din cele m stări curente posibile. O
stare corespunde unui rezultat al experimentului.La finalul experimentului, sistemul se poate afla
în una din cele m stări.
Matricea de tranziţie este formata din elemente p ij care reprezinta probabilitatea
conditionata ca sistemul sa se modifice de la starea initiala i la starea viitoare j.
Observaţii

1. Pij cu i = j reprezintă probabilitatea ca sistemul să rămână în aceeaşi stare după efectuarea


experimentului, iar Pij cu i ≠ j reprezintă probabilitatea ca sistemul să treacă dintr-o stare în alta.

3
2. Matricea de tranziţie este o matrice pătratică de ordin m.
Proprietăţi

Elementele matricei de tranziţie trebuie să satisfacă următoarele:


1. 0 ≤ pij ≤ 1, i,j = 1,…,m (pentru că este vorba de probabilităţi),

2. , i=1,2,…m. Suma pe linie trebuie să dea 1 pentru că E1, E2,…Em este


un sistem complet de evenimente.
Proprietatea 2 asigură că, dată fiind o stare curentă i a sistemului, sistemul va trece cu
siguranţă într-o stare j din cele m posibile după efectuarea experimentului.

1.2. Proprietăţi de bază ale lanţurilor Markov


Informaţiile despre tranziţiile de la o stare la alta în cadrul unui lanţ Markov pot fi
reprezentate prin matricea de tranziţie (într-un pas). Ea este formată din elementele pij -
probabilitatea de trecere într-un pas de la starea i la starea j (i, j = 1, 2, …, m). Se poate vorbi,
atunci, şi de probabilităţile de tranziţie în exact k paşi şi de o matrice formată din acestea.
Se vor face următoarele notaţii:
 pij(k) - probabilitatea condiţionată de efectuare a tranziţiei din starea i în starea j în exact k
paşi.
 P(k) - matricea de tranziţie în k paşi.
Teorema 1.

Fie P matricea de tranziţie într-un pas a unui lanţ Markov. Atunci, matricea P(k) de tranziţie în k
paşi este:
P(k)=P∙P∙….∙P=Pk
de k ori

Relaţia din teorema 1 exprimă o proprietate de bază a lanţurilor Markov prin care
acestea se deosebesc de alte procese stochastice.
Conform proprietăţii 2 a matricei de tranziţie P, suma probabilităţilor de pe fiecare linie a
acesteia trebuie să dea 1. Această proprietate rămâne valabilă şi în cazul matricei de tranziţie în
k paşi P(k) = Pk.

4
Un vector poate fi reprezentat ca o matrice linie (vector linie) sau ca o matrice coloană
vector coloană).
Definiţia 5. Un vector linie (q1, q2, …, qn) care are proprietăţile
a) 0≤qi≤1

b) =1
se numeşte vector de probabilitate sau vector stochastic.
O matrice ale cărei linii sunt vectori stochastici se numeşte matrice stochastică.
Rezultă că fiecare linie a matricei de tranziţie P este un vector de probabilitate. Acelaşi
lucru se poate spune şi despre liniile matricei de tranziţie în k paşi P(k) = Pk. De asemenea,
matricele P şi Pk sunt matrice stochastice.

1.3. Lanţuri Markov regulate


Deoarece lanţurile Markov sunt procese stochastice, nu se poate şti cu exactitate ce se
întâmplă în fiecare stare; de aceea, sistemul trebuie descris în termeni de probabilitate.

Definiţia 6. Fie un lanţ Markov cu m stări. Un vector de stare pentru lanţul Markov este un
vector de probabilitate X = şx1 x2 … xnţ . Coordonatele xi ale vectorului de stare X trebuie
interpretate ca probabilitatea ca sistemul să se afle în starea i.
Atunci când se ştie cu siguranţă că sistemul este într-o anumită stare, vectorul de stare are
o formă particulară. Astfel, dacă se ştie sigur că sistemul este în starea a i-a, vectorul de stare va
avea a i-a componentă egală cu 1, iar restul 0. X = [0 0 0 … i … 0].
Comportamentul unui lanţ Markov poate fi descris printr-o secvenţă de vectori de stare.
Starea iniţială a sistemului poate fi descrisă printr-un vector de stare notat X0 . După o tranziţie
sistemul poate fi descris printr-un vector X1, iar după k tranziţii, prin vectorul de stare Xk. Relaţia
dintre aceşti vectori poate fi sumarizată prin următoarea teoremă:

Teorema 2.
Fie un proces Markov cu matricea de tranziţie P. Dacă Xk şi Xk+1 sunt vectori de stare care
descriu un procesul după k şi k+1 tranziţii, respectiv, atunci

5
În particular:

Deci, vectorul de stare Xk care descrie sistemul după k tranziţii e produsul între vectorul
stării iniţiale X0 şi matricea Pk.
Observaţie. X0, X1, X2, …Xk, … sunt toţi vectori linie 1 × m.
Dacă interesează studierea unui proces stochastic după un număr mare de tranziţii, atunci
este utilă studierea comportării generale a acestuia pe termen lung. Pentru anumite tipuri de
lanţuri Markov acest lucru este posibil.
În general pentru un lanţ Markov cu m stări, posibilitatea ca sistemul să se afle în starea j
după k tranziţii depinde de starea din care s-a pornit. Astfel, p1j(k) este probabilitatea ca sistemul
să fie în starea j după k tranziţii dacă iniţial se află în starea 1. Semnificaţii similare avem
pentru p2j(k), …, pmj(k). Nu există nici un motiv ca aceste probabilităţi să fie (sau să ne aşteptăm
să devină) egale. Dar, pentru anumite lanţuri Markov există o probabilitate strict pozitivă qj
asociată cu starea j astfel încât după k tranziţii probabilităţile pij(k) devin, toate, foarte apropiate
de qj.Cu alte cuvinte, speranţa ca sistemul să ajungă în starea j după k tranziţii (unde k este
suficient de mare) este cam aceeaşi, indiferent de starea din care se pleacă.
Lanţurile Markov care au o astfel de comportare pe termen lung formează o clasă aparte
care este definită după cum urmează.

Definiţia 7. Un lanţ Markov cu matricea de tranziţie P se numeşte regulat dacă există un întreg k
pozitiv astfel încât Pk să aibă toate elementele strict pozitive.

CAP. 2 ALGORITM DE REZOLVARE A UNUI FENOMEN REDAT PRIN


LANŢUL MARKOV

6
S 't =[ s1t ,. .. sit ,. . . stm ] , care
Elementele structurale pot fi reprezentate printr-un vector

pentru fiecare t=1,n şi pentru fiecare i=1,m ,


s it variază între 0 şi 1, iar suma
elementelor structurale este 1, pentru orice t.

Etape:

1. Se vor calcula diferenţele de ordinul întâi ale vectorului


S t astfel: ΔS t /t−1 =S t −St−1 .

Elementele structurale ale fiecărui vector diferenţă


ΔSt /t−1 au proprietatea că suma valorilor
pozitive este egală cu suma absolută a valorilor negative.

2. În etapa a doua, matricile de trecere parţiale sunt construite pentru fiecare pereche de
perioade consecutive de timp, t/t-1. Matricele de trecere sunt matrice pătratice de forma

MTPt /t−1 ( m×m ) , unde elementele de pe diagonala principală sunt date de relaţia:

mtpiit / t −1=min ( sit −1 , s it )


, i=1,m . Celelalte elemente, care nu se află pe diagonala

j
Δst/t−1
mtpijt /t−1= Δsit/t−1× m

principală, sunt obţinute prin relaţia: ∑i=1 + Δsijt/t−1 , unde Δsit /t +1 este
m

negativă, iar Δstj/t−1 este pozitivă. În această formulă ∑i=1 + Δsijt/t−1 este suma valorilor

pozitive ale vectorului diferenţă


ΔSt /t−1 . Sintetic, elementele matricii MTPt /t−1 ( m×m ) pot fi
determinate astfel:

j
Δst/t−1
{
{
mtpijt/t−1=¿ min ( sit−1 ,stj) ,dacai=j ¿ |Δsit/t−1× m
∑i=2 +Δs
ij
t/t−1
|,dacăi≠jşiΔsit/t−1<0şiΔst/t−1
j
>0 ¿ ¿¿¿

i, j=1,m
7
3. Matricea de trecere totală MTT ( m×m) se determină prin însumarea elementelor
matricilor parţiale de trecere:

m
mtt ij=∑t =2 mtpijt/t −1

4. Matricea probabilităţilor de trecere MP ( m×m ) se calculează prin raportarea fiecărui


element al matricii de trecere totală la suma liniei pe care se află respectivul element:

ij
mtt
mpij= m
∑ j=2 mttij
5. În ultima etapă a algoritmului se obţine prognoza elementelor structurale pentru p perioade

viitoare prin multiplicarea transpusei matricii MP ( m×m ) , ridicată la puterea k, cu vectorul

^ n+ p =( MP ' ) p ×Sn
S
elementelor structurale pentru ultima perioadă: .

În continuare se va realiza un studiu de caz ce presupune prognozarea numărului


de produse vândute de către cele mai mari companii de telefonie mobilă, pe piaţa din România,
pe baza datelor din ultima perioadă. Prognozare care se va baza pe utilizarea lanţurilor Markov.
S-a observat faptul că alegerea unei anumite mărci este influenţată de ultima opţiune pe care
consumatorul a ales-o.
Pentru obţinerea rezultelor dorite se vor urmări cele cinci etape enunţate anterior, etape în
care pentru realizarea calculelor ne vom folosi de programul Matlab.

Vectorul stărilor în acestă analiză este:

S = {Nokia, Samsung, LG, Sony Ericsson, HTC, Alcatel, Motorola, Blackberry, Apple}

În următorul tabel se dă evoluţia istorică a numărului unităţi vândute pentru fiecare


companie în parte:

FIRMA Numărul de Numărul de Numărul de


PRODUCĂTOARE produse produse produse
vândute în 2008 vândute în vândute în Total

8
[sute] 2009 [sute] 2010 [sute]
NOKIA 322 357 365 1044
SAMSUNG 1554 1529 1236 4319
LG 651 671 558 1880
SONY ERICSSON 1298 1493 1463 4254
HTC 1283 1216 901 3400
ALCATEL 665 655 551 1871
MOTOROLA 393 382 314 1089
BLACKBERRY 768 826 696 2290
APPLE 2031 1984 1459 5474

1. Abateri:
ΔS 2009/2008 =S2009 −S2008

FIRMA N S LG SE HTC AL MOT BB APP Suma


2009 357 1529 671 1493 1216 655 382 826 1984
2008 322 1554 651 1298 1283 665 393 768 2031
Abatere 35 -25 20 195 -67 -10 -11 58 -47
Abatere + 35 20 195 58 308

Abateri:
ΔS 2010/2009 =S2010 −S2009

FIRMA N S LG SE HTC AL MOT BB APP Suma


2010 365 1236 558 1463 901 551 314 696 1459
2009 357 1529 671 1493 1216 655 382 826 1984
Abatere 8 -293 -113 -30 -315 -104 -68 -130 -525
Abatere + 8 8

2. În continuare se vor calcula matricile de trecere de la un an la altul:

Matricea de trecere din anul 2008 în anul 2009:

TR 2009/2008 ( m×m )

i i
- elementele de pe diagonala principală vor fi: min (S 2008 , S 2009 )

9
- atunci când i≠ j , ∆ Si2009/ 2008 <0 şi ∆ S2009/
j
2008 >0, elementul din matrice va fi egal cu valoare

S i2009/2008∗∆ S 2009/2008
j

absolută din : ∆
∑ ∆ Sij2009/ 2008 >0
- iar în rest elementele vor fie gale cu 0.

FIRMA N S LG SE HTC AL MOT BB APP


N 322 0 0 0 0 0 0 0 0
S 2.8409 1529 1.6233 15.8279 0 0 0 4.7077 0
LG 0 0 651 0 0 0 0 0 0
SE 0 0 0 1298 0 0 0 0 0
HTC 7.6136 0 4.3506 42.4188 1216 0 0 12.6168 0
AL 1.1363 0 0.6493 6.3311 0 655 0 1.8831 0
M 1.25 0 0.7142 6.9642 0 0 382 2.0714 0
BB 0 0 0 0 0 0 0 768 0
APP 5.3409 0 3.0519 29.7564 0 0 0 8.8506 1459

Matricea de trecere din anul 2009 în anul 2010:

TR 2010/2009 ( m×m )

i i
- elementele de pe diagonala principală vor fi: min (S 2010 , S 2009 )

- atunci când i≠ j , ∆ Si2010/ 2009 <0 şi ∆ S2010/


j
2009 >0, elementul din matrice va fi egal cu valoare

i j
S 2010/2009∗∆ S 2010/2009
absolută din : ∆
∑ ∆ Sij2010/ 2009 >0
- iar în rest elementele vor fie gale cu 0.

FIRMA N S LG SE HTC AL MOT BB APP


N 357 0 0 0 0 0 0 0 0
S 293 1236 0 0 0 0 0 0 0
LG 113 0 558 0 0 0 0 0 0
SE 30 0 0 1463 0 0 0 0 0
HTC 315 0 0 0 901 0 0 0 0
AL 104 0 0 0 0 551 0 0 0
M 68 0 0 0 0 0 314 0 0
BB 130 0 0 0 0 0 0 696 0

10
APP 525 0 0 0 0 0 0 0 1459

3. În cea de a treia etapă se va calcula matricea de trecere totală, care reprezintă suma
matricilor de trecere parţiale calculate în etapa anterioară.

FIRMA N S LG SE HTC AL MOT BB APP Total


N 679 0 0 0 0 0 0 0 0 679
S 295.8 2765 1.6 15.8 0 0 0 4.7 0 3082.9
LG 113 0 1209 0 0 0 0 0 0 1322
SE 30 0 0 2761 0 0 0 0 0 2791
HTC 322.6 0 4.4 42.4 2117 0 0 12.6 0 2499
AL 105.1 0 0.6 6.3 0 1206 0 1.9 0 1319.9
M 69.3 0 0.7 7 0 0 696 2.1 0 775.1
BB 130 0 0 0 0 0 0 1464 0 1594
APP 530.3 0 3.1 29.8 0 0 0 8.9 2918 3490.1
4. În cea de a patra etapă se calculează matricea probabilităţilor de trecere prin raportarea fiecărui
element al matricii de trecere totală la suma liniei pe care se află respectivul element:

FIRMA N S LG SE HTC AL MOT BB APP


N 1 0 0 0 0 0 0 0 0
S 0.095 0.9 0 0 0 0 0 0 0
LG 0.085 0 0.91 0 0 0 0 0 0
SE 0.010 0 0 0.989 0 0 0 0 0
HTC 0.129 0 0.001 0.016 0.84 0 0 0.005 0
AL 0.079 0 0 0.004 0 0.9 0 0.001 0
1
M 0.089 0 0 0.009 0 0 0.89 0.002 0
BB 0.081 0 0 0 0 0 0 0.91 0
APP 0.15 0 0 0.008 0 0 0 0.002 0.83

Probabilităţile de tranziţie sunt între cele nouă opţiuni sunt următoarele:

FIRM N S LG SE HTC AL MOT BB APP Total


A
N 100% 0 0 0 0 0 0 0 0 100%
S 9.59% 90% 0.0005% 0.0051% 0 0 0 0.0015% 0 100%
LG 8.54% 0 91.46% 0 0 0 0 0 0 100%
SE 1.07% 0 0 98.93% 0 0 0 0 0 100%
HTC 12.91% 0 0.17% 1.69% 84.71% 0 0 0.5% 0 100%
AL 7.96% 0 0.0004% 0.47% 0 91.37% 0 0.14% 0 100%

11
M 8.94% 0 0.0009% 0.90% 0 0 89.79% 0.26% 0 100%
BB 8.1% 0 0 0 0 0 0 91.9% 0 100%
APP 15.19% 0 0.0008% 0.85% 0 0 0 0.25% 83.6% 100%

Valorile de pe diagonala principală reprezintă probabilităţile ca consumatorul să opteze


pentru aceeaşi marcă de telefon mobil.

5. În ultima etapă a algoritmului se obţine prognoza elementelor structurale pentru


anul 2011 prin multiplicarea transpusei matricii probabilităţilor de trecere, cu vectorul
elementelor structurale pentru ultima perioadă, şi anume vectorul corespunzător anului 2010.

Matricea de trecere totală reprezintă doar preferinţa actuală şi imediat următoare a


cumpărătorilor pentru o anumită marcă de telefon mobil.

FIRMA N S LG SE HTC AL MOT BB APP


N 1 0 0 0 0 0 0 0 0
S 0.095 0.9 0 0 0 0 0 0 0
LG 0.085 0 0.91 0 0 0 0 0 0
SE 0.010 0 0 0.989 0 0 0 0 0
HTC 0.129 0 0.001 0.016 0.84 0 0 0.005 0
AL 0.079 0 0 0.004 0 0.9 0 0.001 0
1
M 0.089 0 0 0.009 0 0 0.89 0.002 0
BB 0.081 0 0 0 0 0 0 0.91 0
APP 0.15 0 0 0.008 0 0 0 0.002 0.83

FIRMA Numărul de produse


vândute în anul 2010
[sute]
N 365
S 1236
LG 558
SE 1463
HTC 901
AL 551
M 314
BB 696
APP 1459

12
Prognoza privind numărul de produse din anul 2011 se obţine înmulţind cele două matrici
de mai sus şi este prezentată în tabelul următor:

FIRMA Numărul de produse


prognozate pentru
anul 2011 [sute]
N 365
S 1147
LG 542
SE 1451
HTC 840
AL 540
M 331
BB 669
APP 1289

CAP. 3 CONCLUZII

Deşi utilizarea lanţurilor Markov reprezintă o modalitate destul de satisfăcătoare în


previzionarea alegerii unei anumite mărci de către consumatori, acest model are câteva limitări:

 Consumatorii nu cumpără întotdeauna produse în aceleaşi intervale şi nu cumpără


întotdeauna aceeaşi cantitate de produse. Aceasta înseamnă că în viitor două sau mai
multe mărci pot fi cumpărate în acelaşi timp;

 Consumatorii întotdeauna pătrund sau părăsesc anumite pieţe şi de aceea pieţele nu sunt
niciodată stabile;

 Probabiliţăţile de tranziţie ca un consummator să treacă de la o marca i la o marcă j, nu


sunt constante pentru toţi cumpărătorii, aceste probabilităţi se pot schimba de la
cumpărător la cumpărător şi din timp în timp. Aceste probabilităţi se pot schimba în
acord cu media de timp dintre situaţile de cumpărare;

 Timpul între diferite situaţii de cumpărare poate fi o funcţie a ultimei mărci cumpărate;

 Celelalte ramuri din mediul de marketing precum promovarea, reclama, concurenţa etc.
nu au fost incluse în acest model.

13
Bibliografie:

1. Negrea Romeo: Material curs “Modelare statistică şi Stohastică”, Universitatea Politehnica


din Timişoara, 2010.

2. Ariadna Lucia, Pletea Liliana Popa: “Teoria Probabilităţii”, Universitatea Tehnică “Gh.
Asachi”, Iaşi, 1999.

14
3. Phillip E. Pfeifer and Robert L. Carraway: “Modeling customer relationships as markov
chains”, Journal of Interactive Marketing, 14(2), Spring 2000, 43-55.

4. http://facultate.regielive.ro/proiecte/matematica/lantul_markov-141286.html

5. http://facultate.regielive.ro/cursuri/economie/previziune_economica-6297.html

6. http://ro.wikipedia.org/wiki/Lan%C8%9B_Markov

7. Cenuşa Gheorghe: “Teoria Probabilităţilor”, Bilbioteca digitală ASE.

8. Uslu Aypar et. al.: “Analysis of Brand Loyalty with Markov Chains ”, School of Economic
And Administrative Science

15

You might also like