You are on page 1of 5

TRATAMIENTO DE LA INFORMACIN.

Decisin Analtica Caso Gaussiano


A partir de un conjunto de K observaciones independientes de una variable aleatoria x, se
desea conocer cul es su distribucin de probabilidad, admitindose las dos hiptesis
siguientes:

(
(

(
(


Simplificando la Ecuacin:
(


Para la segunda parte tenemos:

(
(

(
(

)
(

)


Simplificando la ecuacin:

(

)
(

)


(a) Obtenga la forma analtica del decisor ML para este escenario. El fichero datos.mat
contiene las siguientes matrices de datos:
Cada columna de la matriz x contiene K = 100 observaciones para una determinada
hiptesis H0 H1 (es decir, los 100 elementos de una determinada columna han sido
generados a partir de la misma densidad de probabilidad), para un caso en que m0 =
0.1, m1 = 0.1, v0 = 3 y v1 = 2.5.
El nmero de columnas en x es de 1000, correspondientes a 1000experimentos
independientes, en cada uno de los cuales la hiptesis correcta puede ser H0 H1.
El elemento n-simo del vector fila T indica la hiptesis correcta asociada a la n-
sima columna de x.
(b) Utilizando nicamente los datos contenidos en la matriz de observaciones x: Aplique
el decisor construido en el apartado (a) para determinar la hiptesis ms verosmil para
cada conjunto de observaciones (i.e., para cada una de las 1000 columnas de x).
(c) Compare sus resultados con la hiptesis correcta para cada uno de los experimentos, y
determine cul es la probabilidad de falsa alarma y la de prdida, utilizando
estimaciones frecuentistas.
(d) A partir del vector T de hiptesis correctas: cul es la probabilidad a priori de las
dos hiptesis? Discuta sobre la idoneidad del criterio ML. Utilice a partir de ahora las
siguientes probabilidades a priori para las dos hiptesis: P(H0) = 0.3, P(H1) = 0.7:
(e) Estime la probabilidad de error del decisor ML, utilizando las probabilidades de
prdida y falsa alarma calculadas en el apartado (c).
(f) Modifique ahora el decisor, incorporando al mismo la informacin relativa a las
probabilidades a priori de las hiptesis (i.e., disee el decisor MAP), y calcule las
nuevas probabilidades de falsa alarma, de prdida y de error. Compare estos resultados
con los obtenidos en los apartados (c) y (e).
(g) Estudie cmo afecta el nmero de observaciones en el comportamiento de los decisores
ML y MAP. Represente para ello grficamente cmo varan las probabilidades PFA,
PM y Pe de ambos decisores, para distintos valores de K en el rango de 10 a 100.

SOLUCION:
clc
clear all
close all

load('datos.mat')

k=100;
m0=-0.1;
m1=0.1;
v0=3;
v1=2.5;

a=((x-m0).^2)/(2*v0);
b=((x-m1).^2)/(2*v1);
c0=sum(a-b);

c1=k*log((v1/v0).^(1/2));

%se genera un vector de ceros
D=zeros(1,1000)

%Todas aquellas posisciones en que c0>c1 se llenaran con un uno

D(c0>c1)=1

%Hallar la probabilidad de falsa alarma, si T son las hipotesis y D la
%desicion

Pfa=sum(D==1 & T==0)/sum(1-T)

%Probabilidad de perdida
Pm=sum(D==0 & T==1)/sum(T)


%recordemos que H=T

H1=sum(T)/length(T)
H0=sum(1-T)/length(T)

%Utilizar a partir de ahora las siguientes probabilidades a priori para
las dos hipotesis
%P(H0)=0.3 y P(H1)=0.7

PH0=0.3;
PH1=0.7;

Pe=PH0*Pm+PH1*Pfa

for i=2:1:100
PH0=0.3;
PH1=0.7;
c0=sum((x(1:i,:)-m0).^2/(2.*v0)-(x(1:i,:)-m1).^2/(2.*v1));
c1=i*log(sqrt(v1/v0));
D=zeros(1,1000);
D(c0>c1)=1;
Pfa(i)=sum(D==1 & T==0)/sum(1-T);
Pm(i)=sum(D==0 & T==1)/sum(T);
Pe(i)=(PH0*Pm(i))+(PH1*Pfa(i));
end

stem(Pfa, 'r')
hold on
stem(Pm, 'g')
hold on
stem(Pe, 'b')
hold on



%Definicion del MAP
%D1(c0>c1)=(PH0/PH1)+log(PH0/PH1)
%hallar la probabilidad de falsa alarma, si T son las hipotesis y D la
%desicion
%Pfa1=sum(D1==1 & T==0)/sum(1-T)
%Probabilidad de perdida
%Pm1=sum(D1==0 & T==1)/sum(T)

M0=PH0/PH1
M1=log(M0)+ c1

D1=zeros(1,1000);
D1(c0>M1)=1;

Pfa1=sum(D1==1 & T==0)/sum(1-T)
Pm1=sum(D1==0 & T==1)/sum(T)
Pe2=PH0*Pm1+PH1*Pfa1

for i=2:1:100


c0=sum(((x(1:i,:)-m0).^2)/(2*v0)-((x(1:i,:)-m1).^2)/(2*v1));
c1=i*log((v1/v0).^(1/2));
M0=PH0/PH1
M1=log(M0)+ c1
D1=zeros(1,1000);
0 10 20 30 40 50 60 70 80 90 100
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
D1(c0>M1)=1;
Pfa1(i)=sum((D1==1) & (T==0))/sum(1-T)
Pm1(i)=sum((D1==0) & (T==1))/sum(T)
Pe2(i)=PH0*Pm1(i)+PH1*Pfa1(i)
end


figure(2)
stem(Pfa1,'r')
hold on
stem(Pm1,'g')
hold on
stem(Pe2,'b')



0 10 20 30 40 50 60 70 80 90 100
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1

You might also like