Analisi dei Dati 16/17 – Secondo compitino – 9 giugno 2017

Esercizio 1. [punti 6 = 3 + 2 + 1]
Il vettore aleatorio (X, Y ) è uniforme sul quadrato Q di vertici (1, 0), (2, 1), (1, 2), (0, 1).
(a.) Calcolare le densità marginali fX (x) ed fY (y) .
(b.) Determinare se le variabili X e Y sono indipendenti.
 
(c.) Calcolare le probabilità P X − Y ≥ 1 , P max(X, Y ) ≤ 1 .
Nota Bene. Si riducano al minimo i calcoli tracciando i grafici e usando le simmetrie.

Soluzione
(a.)
y Fig.1 y Fig.2 y Fig.3
2 2 2

y=x+1

1
Q 1
Q 1
Q
y=-x+1

[ x-y≥1 ] [max(x,y)≤1]
x 1 2 x 1 2 x 1 2 x

La densità congiunta è
1 χQ (x, y) = 1 χQ (x, y) .
fXY (x, y) = 2
area(Q)

La marginale fX (x) si ottiene come
Z ∞ Z ∞

fX (x) = fXY (x, y) dy = 2 Q (x, y) dy .
−∞ −∞

È evidente dalla Fig.1 che fX (x) è nulla per x ∈
/ [0, 2], e ha simmetria pari rispetto ad
x = 1, quindi

 Z x+1   fX(x)
1 1
dy = x + 1 − (−x + 1) = x, x ∈ [0, 1],

1

 2 2
fX (x) = −x+1


−x + 2, x ∈ [1, 2]

1 2 x

dove, per la prima riga si faccia riferimento alla Fig.1, per la seconda alla già notata
simmetria pari rispetto ad x = 1. In modo più diretto e compatto, per ogni x ∈ [0, 2]
Z 2−|x−1|
1
dy = 1 − |x − 1| χ[0,2] (x).

fX (x) = 2
|x−1|

La marginale fY coincide con la fX , vista la simmetria di Q rispetto al I quadrante.
(b.) Le variabili X ed Y non sono indipendenti poiché fX (x)fY (y) 6= fXY (x, y).
(c.) P X − Y ≥ 1 = 0, vedi Fig.2, e P max(X, Y ) ≤ 1 = 14 , vedi Fig.3.
 

) Calcolare il valore atteso di Z. 4).) Calcolare la densità (usuale o generalizzata) e specificare il tipo di Z.) Calcolare la funzione di distribuzione di Z. Soluzione (a.   FZ (z) = P (Z ≤ z) = P BX + (1 − B)Y ≤ z  . e B ∼ b(p) sono indipendenti. (c. 9). (a. ed indicando con Φ(z) la FdD della normale standard.Esercizio 2. (b. [punti 6 = 3 + 2 + 1] Le variabili aleatorie X ∼ N (1.) Applicando la formula della probabilità totale. Sia Z = BX + (1 − B)Y. Y ∼ N (1.

  .

 = P BX + (1 − B)Y ≤ z .

B = 0 P (B = 0) + P BX + (1 − B)Y ≤ z .

B = 1 P (B = 1) .

.

il valore atteso è Z ∞ Z ∞ h i E(Z) = zfZ (z) dz = z (1 − p)N (1. −∞ −∞ In modo più formale. Z è assolutamente continua. la v. con derivata (densità)     z−1 z−1 fZ (z) = (1 − p)φ + pφ . derivabile ovunque.a. 4)(z) dz = (1 − p) · 1 + p · 1 = 1 .) La FdD FZ (z) è una mistura delle due distribuzioni gaussiane N (1. Poiché FZ (z) ammette densità (nel senso usuale). 9)(z) + pN (1. 3 2 dove φ(z) è la densità normale standard.a. (c. 4) ed N (1. indipendenti. 9) ed è quindi una funzione continua. ricordando la definizione di Z e le proprietà delle v.   E(Z) = E BX + (1 − B)Y = E(BX) + E(Y ) − E(BY ) = E(B)E(X) + E(Y ) − E(B)E(Y ) = p · 1 + 1 − p · 1 = 1 . . 9)(z) + pN (1.) Scrivendo simbolicamente la mistura di densità gaussiane fZ (z) nella forma fZ (z) = (1 − p)N (1. 3 2 (b. 4)(z).   = P Y ≤ z (1 − p) + P X ≤ z p     z−1 z−1 = (1 − p) Φ + pΦ .

3 3 .) Per quanto ricavato in (a. Il vettore della media è         X U U 0 E = EA = AE = . Y )> . XY Y 2 0 1 2 2 −1 1 0 2 (b. V )> è gaussiano.68 . La v. 2).) Dare la descrizione probabilistica completa del vettore aleatorio (X. Y )> si può scrivere come        X 1 −1 U U = =A . Y V V 0 La matrice di covarianza coincide quindi con quella di correlazione e vale  2        X XY > 1 −1 3 2 1 0 1 0 E = AΣA = = . e varianza var(Y − X) = var(Y ) + var(X) = 3. 2 2 Si definiscano le variabili aleatorie X := U − V. V )> .a. ed è quindi completamente specificato.). quindi indipendenti.) Il vettore (X. e specificamente X ∼ N (0. Soluzione (a. di media nulla e matrice di covarianza   3 2 Σ := . Si ricava √ ! √  |Y − X| 3 P |Y − X| ≤ 3 = P √ ≤√ = P (|Z| < 1) = 2Φ(1) − 1 ≈ 0. X ed Y sono congiuntamente gaussiane e scorrelate. Y 0 1 V V con ovvia definizione della matrice A.a.) Calcolare P |Y − X| ≤ 3 . √  (b. 1) ed Y ∼ N (0. [punti 6 = 3 + 3] Il vettore aleatorio (U. Y )> è gaussiano.Esercizio 3. le v. dal vettore della media e dalla matrice di covarianza. di media nulla. Y := V . Il vettore (X. nel senso probabilistico. essendo una trasformazione lineare del vettore gaussiano (U. Y − X è quindi gaussiana. (a.

V4 )> . a media nulla. n) = 4δ(k) − δ(k − 1) − δ(k + 1) + δ(k − 2) + δ(k + 2) =: rV (k). se esiste. dove si è tenuto conto che il processo (Vn ) ha media nulla. . rY (k) := 2δ(k) + δ(k − 2) + δ(k + 2). n) = E(Vn+k Vn ) = E (Xn+k − Yn+k )(Xn − Yn )     = E Xn+k Xn − E Xn+k Yn − E Yn+k Xn + E Yn+k Yn = rX (n + k. e funzione di autocorrelazione rispettivamente rX (k) := 2δ(k) − δ(k − 1) − δ(k + 1).) Il calcolo diretto fornisce  rV (n + k.Esercizio 4. (b. La funzione di autocorrelazione dipende solo da k. E(Vn ) = E(Xn − Yn ) = E(Xn ) − E(Yn ) = 0. n ∈ Z.  da cui c = − 14 .) Calcolare la funzione di autocorrelazione di (Vn ) e tracciarne il grafico. è inoltre noto che E(Xn Ym ) = 0. n) + rY (n + k. per imporre l’indipendenza è sufficiente imporre la scorrelazione. V3 .) Il vettore W è gaussiano. di media nulla. e con l’usuale convenzione è stata ridefinita rV (k). 4 rV (k) 1 -1 1 -4 -3 -2 2 3 4 k -1 (b. per ogni m. Soluzione (a. c ∈ R tale che V5 − cV4 e V4 siano indipendenti. n ∈ Z . Imponendo la condizione di scorrelazione si ricava 0 = E (V5 − cV4 )V4 = E(V5 V4 ) − c E(V42 ) = rV (1) − c rV (0) = −1 − 4c.) Poiché le variabili del processo (Vn ) sono congiuntamente gaussiane.) Calcolare la matrice di covarianza del vettore W := (V1 . e matrice di covarianza E(V12 ) E(V1 V3 ) E(V1 V4 )     rV (0) rV (−2) rV (−3) Σ := E(WW> ) = E(V3 V1 ) E(V32 ) E(V3 V4 ) = rV (2) rV (0) rV (−1) E(V4 V1 ) E(V4 V3 ) E(V42 ) rV (3) rV (1) rV (0)   4 1 0 = 1 4 −1 .) Determinare. Il processo (Vn ) è normale e stazionario. si noti che rV (k) = 0 se |k| ≥ 3. stazionari. Si definisca il processo Vn := Xn − Yn .  0 −1 4 (c. (c. ovvero che  E (V5 − cV4 )V4 = E(V5 − cV4 )E(V4 ) = 0. Il grafico di rV (k) è riportato qui sotto. (a. [punti 6 = 3 + 2 + 1] I processi stocastici (Xn )n∈Z e (Yn )n∈Z sono congiuntamente gaussiani.

a. infatti n \ [Yn = 1] = [X1 X2 · · · Xn = 1] = [Xk = 1] . (b. Suggerimento: che variabile aleatoria è Y2 = X1 X2 ? (b.) Studiare la convergenza in media e in media quadratica di (Yn ). a partire dalla definizione.) Verifichiamo se sussiste la convergenza in probabilità alla costante nulla. (c. k=1 quindi risulta ϕn (ω) = 1 − pn + pn ejω . la convergenza in probabilità di (Yn ). Analogamente la v. quindi Y2 è bernoulliana.a. . (Yn )n≥1 . Poiché lim ϕn (ω) = lim 1 − pn + pn ejω = 1.) Per la convergenza in media quadratica alla costante nulla si consideri che lim E(|Yn − 0|2 ) = lim E(Yn2 ) = lim pn = 0. (a.) Si indichi con ϕn (ω) = E ejωYn la funzione caratteristica di Yn . Xn ∼ b(p). per ogni  < 1 lim P (|Yn − 0| > ) = lim P (Yn = 1) = lim pn = 0. . . 1) dato. 1}. · Xn . n→∞ n→∞ e poiché la funzione costante ϕ(ω) = 1 è la funzione caratteristica della v.a. e la funzione caratteristica è ϕ2 (ω) = 1 − p2 + p2 ejω . Yn è bernoulliana Yn ∼ b(pn ). Y2 ∼ b(p2 ).) Studiare la convergenza in distribuzione di (Yn ) applicando il teorema di Lévy.a. bernoulliane. anche che Yn −→ 0. n→∞ n→∞ n→∞ L2 L1 ne segue che Yn −→ 0 e. (c. per le note proprietà. D per il teorema di Lévy si conclude che Yn −→ 0.   Per calcolare ϕ2 (ω) si osservi che la v.) Studiare. Soluzione (a. dove Yn := X1 · X2 · X3 . degenere nulla.Esercizio 5. Si consideri la sequenza di v. Allora è  ϕ1 (ω) = E ejωY1 = E ejωX1 = 1 − p + pejω . n→∞ n→∞ n→∞ P potendosi così concludere che Yn −→ 0. 1} ed è [Y2 = 1] = [X1 X2 = 1] = [X1 = 1] ∩ [X2 = 1] . Poiché Yn assume solo i valori {0. con p ∈ (0. [punti 6 = 3 + 2 + 1] Sia (Xn )n≥1 una sequenza indipendente ed identicamente distribuita di v. Y2 ha alfabeto {0.a.