You are on page 1of 68

An´ alisis comparativo de m´ etodos basados en subespacios aplicados al reconocimiento de caras

Director: Francesc J. Ferri ferri@uv.es Autor: Marcelo J. Armengot Iborra marcelo.armengot@uv.es Septiembre – 2006

Nunca olvido una cara pero con la suya voy a hacer una excepci´ on. Groucho Marx

.

En el cuarto cap´ ıtulo se presentan una serie de experimentos realizados con dichos m´ etodos y bases de datos est´ andar de im´ agenes extray´ endose conclusiones del presente trabajo e indicando posibles l´ ıneas para trabajos futuros. Se presenta el contexto y se hace un breve recorrido en las t´ ecnicas m´ as importantes recogidas en la literatura reciente. El segundo cap´ ıtulo revisa conceptos te´ oricos que ser´ an necesarios en el resto del documento y que conviene tener presentes. tambi´ en se revisa el problema de la detecci´ on y ajuste de una cara dentro de la foto. introduci´ endolos te´ oricamente para dejarlos preparados para su implementaci´ on. v . No s´ olo de reconocimiento.S´ ıntesis preliminar En el primer cap´ ıtulo se introduce el problema del reconocimiento de caras humanas. El tercer cap´ ıtulo presenta los tres m´ etodos que han sido estudiados con m´ as profundidad.

.

. M´ etodos basados en modelos . . . . . . . . . . . . . . . . . . . . . .1. . . . . . . . . . . . . . . . . .1. 1. . . . . Espacios vectoriales . . . . . . . . vii V VII XI 1 1 2 2 4 4 4 5 6 7 7 8 8 9 12 13 15 15 15 15 .5. . . . . . . . . . Reconocimiento de caras .4. . . . . . . . . Historia . . . . Detecci´ on de caras . .5. . . . . . . . M´ etodos basados en la imagen . . . . 2. . . . . . . . . . . . . . . . . . . . Definici´ on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2. . . . . . . . . . . .3. . . . . . . . . . . . .2. . . . . . . . . . . . . Video . . . . . . . . 1. . . Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . T´ ecnicas b´ asicas . . . . . . . . . . . . . . . . . . An´ alisis de formas activas . . . . . . . . 2. . . Introducci´ on . . . .4. . 1. . . . . . . . . . . . . . . . . . . . . . . . T´ ecnicas basadas en la imagen . . . . . . . . 1. . . . . . . . . . . . . . . . . . 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . T´ ecnicas basadas en rasgos . . . . . . . . .1. . 1. . . . . . . . Fotograf´ ıa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Qui´ en es qui´ en . . . .1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .´ Indice general S´ ıntesis ´ Indice general ´ Indice de figuras 1.1. . . . . . . . . . . . . . . . . .4. Introducci´ on te´ orica ´ 2. . .1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . An´ alisis de bajo nivel . . . . . . . . . . . . . . . 1. . . . . . . An´ alisis de rasgos . . . . . . . . .2. . . . . . . . . . . . . . . . . . . . . . . . Presentaci´ on 1. . .5. . . . . . . . . . . . . . . . . . . . . 1. . . .

. . . . . . . . . . . . . . . . . . . . . . . .3. Eigenfaces . . . LDA de Fisher . . . . . . . . . . . . . . .4. . . 2. . . . . . . . . 2. . . . Introducci´ on . . . . . . . . . . . . .4. . . . . . . . . . . . . . De una matriz . . . . . . . . . .4. . Planteamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. . . . . . . . . . . . . . . . . . . . . . .2. . . . . . .3. . . . . . .1. . .2. . . . . . . . N´ ucleo de un homomorfismo . . . . . . . . . . . . . . . . . . . 2. Preliminar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 16 16 17 17 17 17 17 18 18 18 18 19 19 19 21 21 21 22 22 23 23 23 23 24 25 27 31 31 31 31 32 33 . .3. . . . . . . . . . . . . . . . . . . . . Matriz asociada a un homomorfismo . . . . . . . . . . . . . . . . . . . . . Medidas de centralizaci´ on .2. . . . . . . 3. . . . . . . 2. . . . . . . . . . . . . . . . . Espacio vectorial eucl´ ıdeo . . . . . . . . . . . . . . . . Definici´ on . . . . 3. . . . . . . . . . .2. . . Generalizaci´ on . . . . . . . . . Medidas de dispersi´ on . . . . . . . . . . . . . . .2. . . . 2. . Contexto .2. . . . . .5. . . . . . . . . . . . . . . . . PCA . . . . . . . . . . 2. . . . Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. . . Estad´ ısticos para datos multivariantes . . 2. . . . . . . . . . . . . . . . . . . . . . . . . . Medidas b´ asicas de estad´ ıstica multivariante . . . . . . . . . . . . Imagen de un homomorfismo . . . . . .1. .2. . 2. . . . . . Vectores y valores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . M´ etodos 3. . 2. . . . . . . . . . . . . .1. . . . . . . . . . . . .1. . . . . . . . . . . . . . . . . . . . . . . .3. . . . . . . . . . . Subespacio ortogonal . . . . . . . . . . . . C´ alculo .2. . . . . . . . . . . . . . . . . . .2. . . . . . . . . . . . . . . . Algoritmo . . . . . . 2. . . . . . . . . . . Subespacios suplementarios . . . . . . . . . . Estad´ ıstica unidimensional . . . . . . .1. . . . .Base de un subespacio vectorial . . . . . . . . . . . . 2. . . . . . . . . . . . . 3. . . . . . . . . . . . . . . . .3. . . . . . . . . .3. . . . . . . . . . . . . . . . . . . . . Homorfismos . Punto de vista geom´ etrico . . 2. . . . . . . .4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. . . . . . . . Asociados a un endomorfismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2. . . . . . . . . . . . . . . . . .1. . . . . . . . . . . . . . . . . Generalizados . . . . . . Algoritmo . . . . . . . . . . . . . . . . . . . . . .2. . .3. . . . . . . .4. . . . . . .3. . . . . . . . . . .2. . . . . . . . .

. . . . . . . . . . . . Fisherfaces . . . . . . Justificaci´ on . . . . . . . . . . . . . . . . 4. . . . . . . . . 4.2. . . . . . .2. . . . . . . . . . . . . .3. . . . . . . . . . . . . . . . . . . . . . . . . . .3. . . . . . . . . . Degradaci´ on de la imagen . . . . . . . . . .2. . Eigenface . . . . . . . . . 3. .4. . . . Gaussiana . . . . . . . Sumario . . . . . . . . . . . . . . . .3. . . . . . . . . . . . . . . 4. . . . . . . . . Base de datos de caras de AT&T . . . . . . . . . . . . . . . . . . . . . . . . Formulaci´ on . . . . . . . . . C´ alculo de los vectores comunes discriminantes . . . . . . . . . . . . . . . . . . . . . . . . . . . .3. . .4. . . . . . . . . . . 3. . . . . . . . . . . . .3. . . . . . . . . . .3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4. . . . . . . . . . . . 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bibliograf´ ıa 33 33 34 35 35 35 37 38 39 41 43 45 45 45 45 46 47 47 49 49 49 50 50 51 51 55 . Sal y pimienta . . Leaving one out . . . . . Vectores comunes discriminantes . . . . . . . . .2. . . . Algoritmo . . . Ruido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. . .4.4. . . . . . . . . . . . . . . . . . . . Dimensi´ on en el espacio de llegada . Idea general . . . . . . . . . .3. . . . . . . . 4.2. . . . . . . . . . . . . . . .2. . . . . . . . . . . . . . . . . . . . . Relaci´ on con PCA . . . . . . . . . . . . .3. . . . . .2. . . . . . . . . .4. . . . Fisherface y DCV . . . . . . 3. Resultados . .1.3. . . . . . . . 4. . . . . .4. . . . . . . . . . . . . . . . .1. . . . . . . .1. . . . . . . . . . . . . 3.4. . . . . . . . . . . . . . . . . . . . . . . . . . 4. . . . . . . . . . . . . . . . . .1. . . . . . . . . . . . . . . . . . . . . . . . .5. . . . . . . . . . . . Vector com´ un . . . . . . . . . . . . . . . . . . Preparaci´ on . . . . 3. . . . . . . . . . . . . 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3. . Conclusiones . . . . 3. . . . . . . . .3. . . . . . . .2. . . Ejemplo en 3d . . . . . . . . . . . . . . . . . . . . . . Resultados . . . . . . . . . . . . . . . 4.1. . . . . . . . . . . Experimentos y resultados 4. . . . . 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. . . .

.

. . .3. . . . . . . . . . DCV (ii) . . . . . . . . . .´ Indice de figuras 1. . . 3. Significado de la varianza . . . . . . . . 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ejemplo en dos dimensiones. . Reducci´ on de dimensi´ on en Eigenface 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. . . . Fisherface vs. . . . . . . . . . . . . . . . . xi . . . . . . . . . . . . . . . . . . . . . . . . . . .ejemplo . 1. . . . . . . . . . . . . . . . . . . 2. . . . . . . . . . . . . . . . . . . . . . . . . . .7. . . . . . . .5. . . . . . . 4. . . . . . . . . . . . .4. . . . . . . . . . . . . . . . . . . . . . . . . . . Taxonom´ ıa b´ asica de reconocimiento . . . . . . . . . . . . . . . . . . . . . . DCV 3d . . . . . . 4. . PCA . 1. . . . . . . . . . .9. . . . . . . . . .2. . . . . . . . 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . Im´ agenes de rango . . . . . . . . . . . . . . . . . . . .3.5. . . . . . . . . . . . . . . Vector com´ un . . . . . . . . . . . . . . . . . . . . .6. . . . .5. . . . . . . . . . . . . . . . . . . .4. . . . . . 1. . . . . . . . . . . . . . . . . . . . 3. . . . . . . . . . . . . . . . . . . . . . . 1. . 4. . . . . LDA. . . . . . . . . . . . . Resultados de ruido gaussiano. . . . . 2. . Sal y pimienta . . . . . . . . . . . . . . . . . . . . . 2. . . . . . . . . . . . . . . . . . . . . .2. .ejemplo . . . .1. . . . . . . . . . . . . . . . . . . . . Vector com´ un 3d . . . . . . . . . . .4. . . . . . . . DCV (i) .4. . . . . . . .2. . . . .8. . . .1. . . . . 3. . . . . . . . . . . . . . . . Detecci´ on . . . . . Esquema 3d . . . . . . . . . . . . 4. . . . . . Gausiano . . AT&T . .3. . . . . . . . . . . . . . . . . . . . . . . . . . . . .3. Elastic bunch-graph . . . . . . . . . . . . . . . . . PCA . . . . . . . . . . . . . . . . . . . . . . . . . . . . Karl Pearson (1856-1936) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. . . . . . . 6 8 9 10 12 22 24 25 26 28 34 37 38 40 46 47 48 49 50 50 51 52 53 . . . . . . . .2. PCA . . . . . .1. 4. . . . . . . . .descripci´ on . . . . . . . . . . . . . . . . . . Fisherface vs. Leaving one out . . . . . . . . . . . . . 4. .1. . . . 2. . . . Resultados sal y pimienta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.

. Vigilancia dom´ estica. Buscar a un individuo perseguido por la justicia. 1 .Detecci´ on de expresiones faciales (se considera un subcampo del reconocimiento de caras en general): interfaces inteligentes. y qui´ en es. aeropuertos. Existen distintas aplicaciones pr´ acticas: . etc. detecci´ on de fraudes (usurpar identidad). de Content-Based Image Retrieval. Seguridad de log in en una computadora. sistemas de recuperaci´ on de im´ agenes basados en contenidos. En sistemas con bibliotecas digitales de terabytes de video y audio la clasificaci´ on de las im´ agenes cumple un papel fundamental. aplicaciones m´ edicas.Interfaces hombre-m´ aquina.1. un proyecto de recuperaci´ on de programas de televisi´ on y documentales. Algunas de sus soluciones entran en el campo de la miner´ ıa de datos o en el reconocimiento de patrones. Tiene que ver con localizar la imagen del individuo en una secuencia de webcam para poder hacer un seguimiento. Localizarle en ´ ambitos p´ ublicos. quien entra puede ser conocido o desconocido: detecci´ on de intrusos.Vigilancia. En [8] se cita el caso de Informedia. . 1 Habitualmente ((CBIR systems)). Introducci´ on Detectar y reconocer rostros humanos en fotograf´ ıas y secuencias de video es un problema cada vez m´ as en auge en el campo de la visi´ on por computador. Tambi´ en saber si est´ a o no est´ a. aduanas. lo cual lo hace doblemente atractivo. . .Cap´ ıtulo 1 Presentaci´ on del problema: Reconocimiento de caras 1. .Control de acceso.Base de datos multimedia. El incremento de im´ agenes en el world wide web sugiere cada vez m´ as la existencia de aplicaciones CBIR de recuperaci´ on1 de im´ agenes. detectores de cansancio para conductores. Tarjetas de identificaci´ on.Videoconferencia. Ejemplo: detectar carn´ e falso.

Harmon y Lesk ([6]) crearon un sistema con 21 marcadores que inclu´ ıan color del pelo y grosor de labios. PRESENTACION 2 El planteamiento de partida es tener un nivel de conocimiento previo de im´ agenes (etiquetadas) almacenadas en forma de base de datos. Las distancias y radios se calculaban a trav´ es de las marcas para construir un sistema de referencia y poder comparar los datos. Esta estrategia.2. a partir de 1988 los trabajos –primero [16]– de Kirby y Sirovich (Brown University) y –despu´ es [17]– de Turk y Pentland (MIT) basados en el m´ etodo Eigenface abrieron un camino al que ha ido contribuyendo mucha gente. Se recog´ ıan perfiles faciales como curvas. orejas. Desde 1990. al inter´ es por el reconocimiento de caras autom´ atico se han sumado un creciente n´ umero de grupos de investigaci´ on.3. verificaci´ on o autentificaci´ on de caras ¿soy quien digo ser? (test de uno a uno). infograf´ ıa y visi´ on por computador. Tras una continuada investigaci´ on result´ o que estas medidas no conten´ ıan suficientes datos u ´ nicos como para representar una cara de adulto. era principalmente estad´ ıstica. a partir del cual se quiere entrenar alg´ un tipo de sistema de aprendizaje que permita resolver el problema concreto. A principios de los 70. En los a˜ nos 1960 se introdujeron sistemas semiautom´ aticos que hac´ ıan marcas en las fotograf´ ıas para localizar los rasgos principales: ojos. Historia El primer m´ etodo formal de clasificaci´ on de caras fue propuesto en 1888 por Francis Galton. 1.´ CAP´ ITULO 1. Qui´ en es qui´ en Aunque las aplicaciones pueden ser todas las imaginables y est´ an en funci´ on del desarrollo mismo de las t´ ecnicas y la infalibilidad que ´ estas alcancen. la primera (vigilancia) y todos sus derivados constituyen la raz´ on de ser del auge que en los u ´ ltimos a˜ nos ha tenido este campo. encontrando su norma. an´ alisis de wavelet. Pocos a˜ nos despu´ es Fisher y Elschlagerb introdujeron un sistema m´ as autom´ atico que utilizaba plantillas para medir los rasgos de diferentes partes de la cara. con esas medidas se constru´ ıa un mapa global. El resultado era un vector que pod´ ıa ser comparado con otros vectores de la base de datos. Otra aproximaci´ on intenta clasificar la cara humana usando una combinaci´ on de la gama de gestos como un juego de marcadores a identificar. En general se pone en pr´ actica usando reconocimiento de modelo 2d y principios de redes neuronales. Aunque tambi´ en se trabaja con test de lista (¿me est´ as buscando? ). Sirva . La mayor´ ıa de veces esta t´ ecnica requiere un enorme n´ umero de caras a entrenar para alcanzar una exactitud respetable. Goldstein. Sus pruebas eran tambi´ en difiles de automatizar porque muchas de estas medidas se tomaban a mano. el cual se considera un test de universo abierto ya que la cara buscada puede estar en la base de datos o puede no estar. Apoy´ andose tambi´ en en las mejoras t´ ecnicas que han supuesto el desarrollo de las redes neuronales. Identificaci´ on de caras: ¿qui´ en soy? (test de uno a muchos). Por otro lado. nariz y boca. despu´ es se clasificaban perfiles por sus desviaciones con respecto a la norma. Para valorar y comparar los algoritmos (de acuerdo con [2]) se consideran dos tipos seg´ un el escenario que se d´ e al aplicar el algoritmo y los objetivos que se tengan. se basaba en histogramas y en el valor de escala de gris. 1. El primer m´ etodo completamente automatizado comparaba las caras en un modelo gen´ erico de rasgos esperados y creaba una serie de patrones para una imagen.

com GmbH Sede USA USA Alemania USA Inglaterra Corea del Sur USA USA USA USA Lituania2 USA Inglatera USA Slovenia Jap´ on USA USA Alemania Cuadro 1. construir la base de datos FERET y llevar adelante sus evaluaciones. Identix Inc. Sensible Vision. el cuadro 1. TAB Systems Takumi Vision Technologies. OmniPerception Ltd. que es el plan de evaluaci´ on que FRVT ha puesto en marcha actualmente. Como su propio nombre indica es el test que manejan las compa˜ nias comerciales entre cuyas actividades y servicios se incluyen aplicaciones de reconocimiento de caras. Inc. Cognitec Systems GmbH Cross Match Technologies. Neven Vision Inc. 4 Se podr´ ıa traducir el original NIST Patriot Act certified como ((certificado patri´ otico del NIST)). DreamMirh Co.org el 23 de septiembre de 2006. Las evaluaciones que ha ido introduciendo a la comunidad dedicada a la detecci´ on de caras han ((ayudado a su avance desde la infancia hasta la etapa de prototipos)). El FRVT es el ((Face Recognition Vendor Test)). The Covenant Consortium (TCC) Viisage Technology x-pin. tanto el FERET como el FRVT parecen haber sido determinantes a la hora de marcar los lindes del camino. Compa˜ nia A4Vision Animetrics Inc. . seguridad e inteligencia)) en sus asuntos. El NIST es el ((National Institute of Standars and Technology)) de EEUU. El FRVT 2006 no est´ a dise˜ nado actualmente para ser un certitificado4 ((NIST Patriot Act )) pero sus resultados ser´ an utilizados en los dise˜ nos futuros de certificados ((NIST Patriot Act)).1: Principales compa˜ nias participantes del test FRVT para evaluar t´ ecnicas de reconocimiento de caras. Ltd. Cuyo objetivo es ((asistir al personal de las fuerzas de la ley. JAD Communication & Security Neurotechnologija. el test que sirve como referencia para comparar t´ ecnicas y algoritmos. Hacia el a˜ no 2000 ((la tecnolog´ ıa de reconocimiento de caras ha madurado desde sistemas de prototipo hacia sistemas comerciales)). de http://www.org. El Departamento de Defensa (DoD) de los EEUU a trav´ es de la CTDPO (Oficina para el Programa de Desarrollo Tecnol´ ogico Antidroga) financia el plan FERET.frvt. Inc. Geometrix Inc. El FERET se dedica a financiar investigaci´ on. Inc. 2 Es 3 Extra´ ıdo una compa˜ nia lituana aunque fue fundada en 1990 cuando Lituania pertenc´ ıa a la antigua Uni´ on Sovi´ etica..face-rec. Cybula Ltd. tres de las cinco evaluaciones usadas por FRVT actualmente han sido introducidas por el plan FERET. pero particularmente desde entonces.1 muestra algunas de las principales3 .3 ´ CAP´ ITULO 1. Ya desde hac´ ıa a˜ nos. PRESENTACION a modo de s´ ıntesis de la situaci´ on actual esta colecci´ on de extractos de www. ID One. Inc. Varias agencias del gobierno de los EEUU (entre ellas el FBI) participan actualmente en la cofinanciaci´ on del FRVT 2006. Sin embargo. Entre sus diversas actividades dirige el FRVT 2006 (y ha dirigido el FRVT con anterioridad).

La posici´ on relativa de los ojos y su detecci´ on tambi´ en puede ser descubierta con este tipo de m´ etodos. Una vez extra´ ıdos los bordes pueden usarse diferentes operadores.4. ambos casos ponen en pr´ actica algunos m´ etodos y conceptos comunes. Existen t´ ecnicas m´ as recientes que utilizan estas estrategias. Algunos algoritmos de extracci´ on de rasgos faciales buscan m´ ınimos locales dentro de regiones faciales segmentadas. Detecci´ on de caras Como un paso previo al reconocimiento de caras. Color: Si el blanco y negro permite una representaci´ on b´ asica de la imagen para extraer propiedades. conviene tener algo de conciencia sobre las t´ ecnicas que suelen emplearse para su detecci´ on. PRESENTACION 4 1. En dichos algoritmos a las im´ agenes se les realza previamente el contraste y se les aplica rutinas morf´ ologicas de escalas de grises para mejorar la calidad de las regiones oscuras y facilitar su detecci´ on.4. Los trabajos que utilizaban esta idea extra´ ıan bordes de la cara tanto externos como internos. T´ ecnicas basadas en rasgos En este tipo de t´ ecnicas el conocimiento previo se hace completamente expl´ ıcito y se sigue una metodolog´ ıa cl´ asica de detecci´ on en la que los rasgos de m´ as bajo nivel se extraen de un an´ alisis a priori basado en el conocimiento. La cuesti´ on determinante en este tipo de m´ etodos es decidir qu´ e rasgos de la cara o de la imagen interesan para su estudio. el color es una herramienta mucho m´ as poderosa. El color de la piel humana (en sus diferentes variantes) ha permitido desarrollar algunas t´ ecnicas que detectan la raza.´ CAP´ ITULO 1. En diferentes niveles del sistema se explotan propiedades aparentes de la cara tal como el color de la piel y la geometr´ ıa facial. Dos formas que en una imagen de blanco y negro aparecen iguales pueden ser diferentes en una imagen con color. pupilas y los labios aparecen generalmente m´ as oscurecidos que las regiones de su alrededor. la mayor´ ıa de las aplicaciones del reconocimiento de caras tienen sentido si esta fase est´ a ((resuelta)) adecuadamente. en las que se alcanzan tasas de acierto del 76 % con dos falsos positivos por imagen. es decir su localizaci´ on dentro de una imagen. en este tipo de t´ ecnicas se suele trabajar con un RGB normalizado que vendr´ ıa dado por las ecuaciones: 5 Red-Green-Blue. Como una de las maneras m´ as habituales de trabajar con fotografia digital es la representaci´ on RGB5 . 1. . En estas t´ ecnicas la detecci´ on de la cara se resuelve manipulando medidas de distancia. Adem´ as. entre otras cosas porque al triplicarse la dimensionalidad se tiene m´ as informaci´ on. Esta propiedad puede ser explotada para diferenciar partes. Luego eran sometidos a an´ alisis de forma y posici´ on. Tambi´ en se puede utilizar estos m´ etodos para detectar si el individuo lleva gafas. ´ angulos y ´ areas de los rasgos visuales en la escena. Niveles de gris: Los rasgos faciales como las cejas.1. An´ alisis de bajo nivel Bordes: Uno de los rasgos m´ as primitivos que tiene cualquier figura es su contorno. en individuos varia mucho menos.

Medidas generalizadas: Como la forma de la cara es sim´ etrica se utilizan medidas de simetr´ ıa de la imagen. Al comparar luego un p´ ıxel con dicha regi´ on se puede averiguar si dicho p´ ıxel pertenece o no a la cara. Una de las mejores formas es mediante diferencia de fotogramas. Utilizar el conocimiento que ya se tiene de la geometria facial puede servir para caracterizar y verificar muchos rasgos a priori confusos. Existen trabajos en los que el entrenamiento se hace con im´ agenes en distintas orientaciones y fondos. En estas t´ ecnicas se completa la localizaci´ on de la cara con un algoritmo que construye una elipse ajust´ andola. cejas. En este tipo de trabajos y aprovechando la representaci´ on rgb (normalizada) se pueden encontrar tambi´ en t´ ecnicas que detecten labios. Existen t´ ecnicas que miden variaciones verticales y horizontales para encontrar los ojos. en las que se consigue detectar la boca y los ojos. Tambi´ en existen t´ ecnicas que trabajan con la velocidad a la que se mueven ciertas regiones de la escena. Video: Si se dispone de una secuencia de video. Pudi´ endose averiguar cualquiera de los tres componentes conociendo los otros. Por ejemplo una peque˜ na ´ area sobre un ´ area alargada puede corresponderse al escenario ((cabeza sobre los hombros )) y un par de regiones oscuras encontradas en el ´ area facial incrementa la probabilidad de que aquello sea realmente una cara. etc para poder usar esquemas de segmentaci´ on. la componente azul por ejemplo ser´ a: b = 1 − r − g . Detectar contornos de una escena en movimiento es m´ as sencillo. Detectar la cara sobre la base del color permite que se ((cuelen)) como falsas caras cualesquiera objetos del fondo. Los rasgos m´ as usados son los ojos. contorno de la cabeza y el cuerpo (bajo la cabeza). ojos. Relacionado con la detecci´ on de razas. se utiliza tambi´ en la representaci´ on YIQ en la que el componente I representa un rango de color desde el naranja hasta el cyan. Existen b´ asicamente dos estrategias: B´ usqueda de rasgos: Estas t´ ecnicas buscan rasgos prominentes que permiten localizar rasgos menos prominentes partiendo de hip´ otesis geom´ etricas. lo que permite realzar la imagen para el caso de individuos asi´ aticos. Al analizar el color de la piel. PRESENTACION r= g= b= R R+G+B G R+G+B B R+G+B (1. ojos) para utilizar la derivada de la medida del gradiente. Medidas del gradiente en una imagen frontal. An´ alisis de rasgos El problema de los m´ etodos anteriores es que sus medidas son demasiado ambiguas. la localizaci´ on de objetos en la imagen es m´ as factible.1) A partir de las cuales siempre ocurrir´ a r + g + b = 1. un histograma basado en r y g muestra el color de la cara como una peque˜ na regi´ on. En otros trabajos se parte de la concavidad y convexidad de las regiones (p´ omulos. .5 ´ CAP´ ITULO 1. Se utilizan filtros espaciotemporales de gaussiana para encontrar los bordes de la cara y el cuerpo.

Existen otros m´ etodos posteriores a aquellos que agrupan rasgos faciales en constelaciones6 ((faciallike )) y utilizan metodos m´ as robustos de modelado como an´ alisis estad´ ıstico.´ CAP´ ITULO 1. Aplicados a casos m´ as generales (diferentes posturas. Las variaciones de dichos puntos son primero entrenadas con diferentes posturas y tama˜ nos. Algunas de ellas aprovechan la idea de las ((serpientes)) y utilizan una plantilla parametrizada. brillo) y gradualmente deformarla hasta adaptarla a la forma de los rasgos. Serpientes: Se utilizan las ((serpientes)) o contornos activos comunmente para localizar el contorno de la cabeza. constelaciones parecidas a una cara. An´ alisis de constelaci´ on: La mayor´ ıa de los algoritmos que se basan en b´ usqueda de rasgos dependen fuertemente de su heur´ ıstica. Existen t´ ecnicas que aprovechan los cambios de contraste. Durante el proceso de deformaci´ on s´ olo se permite variar a la forma en una de las posibilidades del conjunto de entrenamiento. La arquitectura y ajuste de este m´ etodo es diferente a los anteriores. 6 Facial-like constellations. PRESENTACION 6 Figura 1. primer plano sobre fondos complejos) pueden volverse demasiado r´ ıgidos. Modelos de distribuciones de puntos: Se trata de una descripci´ on compacta parametrizada de las formas de la cara basada en estad´ ısticas. An´ alisis de formas activas Se basan en representar la imagen en rasgos de alto nivel para posteriormente interactuar con rasgos locales de la imagen (ojos. El contorno del PDM se discretiza en un conjunto etiquetado de puntos.1: La detecci´ on de caras dentro de una imagen es un paso previo para su reconocimiento. Se inicializa la serpiente ante una cara inminente. Se va cerrando a los contornos de la imagen asumiendo la forma de la cabeza. Plantillas deformables: Localizar una cara partiendo de contornos gen´ ericos puede no ser tan sencillo. .

Lo primero que separa el tipo de t´ ecnicas es si se utiliza como fuente el video o la foto. PRESENTACION 1. que vienen con la recomendaci´ on de www. Redes neuronales: Las redes neuronales se han convertido en una t´ ecnica popular para el reconocimiento de patrones.face-rec. Tambi´ en se incluyen aqu´ ı t´ ecnicas que utilizan m´ aquinas de vectores soporte y reglas de decisi´ on de Bayes. Ciertas t´ ecnicas basadas en redes neuronales han utilizado ventanas de 20 × 20 p´ ıxels que reciben como entrada una imagen preprocesada. o por el contrario puede intentar construirse partiendo de ella distintos modelos que representen la cara y puedan responder ante m´ etodos de comparaci´ on y b´ usqueda. Al representarlas as´ ı pueden utilizarse muchos m´ etodos para tratar los datos: an´ alisis estad´ ıstico multivariante.5. Los trabajos que se han hecho al respecto han propuesto todo tipo de m´ etodos. Lu. redes neuronales. La figura 1. Se entrenan las redes neuronales con im´ agenes con caras e im´ agenes sin caras. teor´ ıa y algoritmos que se utilicen en cada caso. La figura 1. Dentro de las t´ ecnicas basadas en fotograf´ ıa. Consideran las im´ agenes de caras humanas como un subespacio lineal de un espacio mayor (de todas las im´ agenes). as´ ı que para tener una visi´ on de conjunto en esta secci´ on se ha tomado sobretodo los informes [1] de W. el reconocimiento de caras es un problema que puede resolverse (o no) de muchas maneras. etc. El conocimiento previo se incorpora impl´ ıcitamente en esquemas de entrenamiento. Tambi´ en se han utilizado este tipo de t´ ecnicas para detecci´ on de rasgos. 7 No es lo mismo saber si una foto es de una cara que saber si en esa foto hay alguna cara. Se trabaja directamente con una representaci´ on de la imagen a la que se le aplican algoritmos de entrenamiento y an´ alisis. ocurre algo parecido a lo que se ha descrito sobre la detecci´ on de caras.2.2 puede servir de orientaci´ on en el universo del reconocimiento de caras. Zhao y [2] de X.7 ´ CAP´ ITULO 1. que utiliza modelado estad´ ıstico para capturar la variaci´ on que crea la apariencia facial. . Se resuelven problemas de solapamiento de regiones ya que estas t´ ecnicas son usadas para verificar si una foto es de una cara o no7 .1 muestra un ejemplo de las t´ ecnicas estad´ ısticas empleadas por Henry Schneiderman y Takeo Kanade que les ha permitido en 2004 ofrecer varias soluciones comerciales de su tecnolog´ ıa. T´ ecnicas basadas en la imagen En estas t´ ecnicas. algoritmos y estrategias. M´ etodos basados en subespacios: Se basan en los trabajos de Sirovich y Kirby y los desarrollos posteriores de Turk y Pentland. el objeto de estudio es la imagen misma. 1. Separadas estas cuestiones previas ´ puede profundizarse m´ as en sus propias variantes.4.org. se puede considerar la fotograf´ ıa como base de trabajo y como objeto de trabajo. Las propiedades del video permiten ciertas consideraciones relacionadas con el movimiento que en la foto no existen. Reconocimiento de caras Al igual que ocurre con la detecci´ on. por el contrario. Estas har´ an referencia al tipo de estrategias. M´ etodos estad´ ısticos: Hacen referencia a m´ etodos basados en teor´ ıa de la informaci´ on.

para que al menos una dispare la correspondiente cara en la base de datos.2: Clasificaci´ on de m´ etodos para reconocimiento de caras. En este caso. Ocurre que p puede ser mucho m´ as peque˜ no que N .5.´ CAP´ ITULO 1. Redes neuronales Una red t´ ıpica para reconocimiento de imagen requiere N = m × n neuronas de entrada. circuito integrado de prop´ osito espec´ ıfico. 1. a la que llaman PCNN8 . O bien dise˜ nar un clasificador suficientemente potente (com por ejemplo algunos modelos de redes neuronales) sobre el espacio de todas las caras. Se entrena la red neuronal con personas autorizadas y con personas no autorizadas estudi´ andose tanto las falsas aceptaciones como los falsos rechazos. red neuronal. El entrenamiento de redes neuronales con un peque˜ no conjunto de im´ agenes permite registrar un almacenamiento ajustado incluso cuando las im´ agenes son muy ruidosas o alguna parte est´ a oculta. los autores han dise˜ nado un hardware cuya implementaci´ on en ASIC9 es capaz de procesar 11000 entradas por segundo en el proceso de aprendizaje y 19000 en la fase de recuperaci´ on. una por cada p´ ıxel en una imagen de m × n. El objetivo de este tipo de aplicaciones es funcionar en tiempo real. . PRESENTACION 8 basado en la imagen FOTO reconocimiento de caras basado en modelos 2D 3D VIDEO Figura 1. La segunda posibilidad ser´ a tratada en el cap´ ıtulo 3. Estas van por turnos trazando el mapa de las neuronas de salida. La capa oculta se considera un vector de caracter´ ısticas que expresa los rasgos faciales de forma concentrada. El mapa correspondiente se traza en un n´ umero p de ´ neuronas en capas ocultas. O bien aplicar m´ etodos basados en subespacios u otras t´ ecnicas de reduccion de dimensionalidad para poder aplicar otros m´ etodos de clasificaci´ on en mas bajas dimensionalidades. Sudha y Kamakoti han descrito en [10] una red neuronal que utiliza el m´ etodo PCA. Fotograf´ ıa M´ etodos basados en la imagen Existen dos alternativas fundamentalmente a la hora de plantearse m´ etodos de reconocimiento basados en la imagen. Su sistema tolera variaciones locales en la cara como cambios en la expresi´ on y direcci´ on de la luz. Lo cual es –seg´ un 8 NN 9 Application-specific de neural network.1. M´ as recientemente Prasanna. integrated circuit. En [9] se supone una red neuronal perceptr´ on multicapa para construir un dispositivo de control de acceso basado en reconocimiento facial.

algunos puntos del contorno). Construir un sistema capaz de reconocer autom´ aticamente las fotos partiendo del boceto puede tener un enorme valor pr´ actico. Un grafo etiquetado es un conjunto de nodos conectados por arcos. La base de datos de fotos reales de caras puede contener miles de fotos. Los cambios en la iluminaci´ on pueden degradar significativamente el reconocimiento.9 ´ CAP´ ITULO 1. el grafo de la cara se posiciona en la imagen usando una correspondencia el´ astica. M´ etodos basados en modelos 2D Grafos el´ asticos de racimo10 Todas las caras humanas comparten una estructura topol´ ogica similar. 10 En 11 En el original bunch graph. La geometr´ ıa de un objeto queda codificada por los arcos mientras que la distribuci´ on de grises se codifica por los nodos. muchos de los m´ etodos basados en fotograf´ ıas normales utilizan diferentes t´ ecnicas para escapar de este problema conocido. aunque tienen otros problemas derivados de su resoluci´ on. En [1] se rese˜ nan varios trabajos interesantes. De hecho. los nodos est´ an etiquetados con muelles11 . el original jets : ((Representaci´ on concentrada y robusta de la distribuci´ on local de valores de gris)). los arcos est´ an etiquetados con distancias. . Otros trabajos destinados a aplicaciones m´ as concretas de investigaci´ on policial han trabajado con bocetos. Si el grafo se inicializa adecuadamente este proceso es autom´ atico. Bas´ andose en la descripci´ on de un testimonio un dibujante hace un boceto de la cara. Otras estrategias Dentro de los m´ etodos que funcionan con una imagen 2d de la cara existen algunas variantes. Las im´ agenes en infrarrojos pueden servir de alternativa. grafo de manojo. El objetivo de la correspondencia el´ astica es encontrar en la imagen consultada los puntos fiduciarios que permiten maximizar la funci´ on de similitud del grafo. Existen alternativas que trabajan con fotos tomadas en infrarrojos cuyo inter´ es es escapar a las variaciones de la luz. extremo de la nariz.3: Reconocimiento basado en elastic bunch-graph (gr´ aficos el´ asticos de racimo). Para identificar una nueva cara. Para representar la cara como un grafo hay que seleccionar los puntos testimoniales o fiduciarios (ojos. El reconocimiento de caras se basa en grafos etiquetados. PRESENTACION sus autores– 10 veces superior y 5 veces m´ as r´ apido que un sistema software (funcionando en un PC). Figura 1.

Por otra parte. En la fase de reconocimiento se hace el proceso inverso. Se se aplica PCA para construir el modelo de la forma. La forma 3d es invariante a los cambios de posici´ on e intensidad de luz aunque no ante los cambios de expresi´ on facial.4: Esquema habitual 3d deformable. Corresponder a una imagen supone encontrar los par´ ametros del modelo que minimizan la diferencia entre dicha imagen y la s´ ıntesis del modelo. no es trivial12 . tomado de Mitsubishi Electric Research Labs. se intenta maximizar la similitud entre el grafo de la base de datos y el grafo de la imagen. Modelo de Apariencia Activa Un AAM es un modelo estad´ ıstico integrado que combina un modelo de la variaci´ on de la forma con un modelo de variaciones de la apariencia en un fotograma normalizado en escala de grises.´ CAP´ ITULO 1. . Figura 1. 12 Existen varias t´ ecnicas. proyectado en la imagen. 3d El reconocimiento de caras humanas basado en correspondencias con superficies 3d puede resolver muchas de las limitaciones actuales del reconocimiento 2d. PRESENTACION 10 Un grafo de este tipo aplicado a una cara puede concebirse como una colecci´ on de modelos individuales de caras combinados en una estructura de pila. Para posicionar la rejilla en una nueva cara. recoger y almacenar plantillas de cada sujeto en una base de datos (asociadas a varias expresiones). Para construir el AAM hace falta un conjunto de entrenamiento con im´ agenes etiquetadas con los puntos significativos marcados en cada ejemplo en posiciones clave para los rasgos caracter´ ısticos. entre ellas el uso de dispositivos l´ aser de scanner. La funci´ on similitud se define como la media de las mejores posibles correspondencias entre la nueva imagen y cualesquiera de las almacenadas previamente. Todos los vectores de caras se normalizan en un sistema de coordenadas com´ un. La dificultad reside en que el n´ umero de par´ ametros puede ser potencialmente grande.

La t´ ecnica de reconocimiento consiste en dos componentes.5d (dos dimensiones y media). que se tiene que parametrizar en los t´ erminos del modelo. PRESENTACION Modelo deformable 3d: La primera y u ´ nica t´ ecnica rese˜ nada en [2] es relativamente reciente y se corresponde con un esquema bastante generalizado. posteriormente se puede encontrar ((3d deformable model)) en otros trabajos. que se procesan y se comparan utilizando Eigenface para comparar con los caras tridimensionales de la base de datos. Este m´ etodo tambi´ en parte de disponer las im´ agenes de la base de datos en scanner de l´ aser y la foto nueva en imagen de rango. Estas c´ amaras pueden tomar ese tipo de fotos por medio de un objeto de referencia que permite el calibrado. una correspondencia de superficie y una correspondencia basada en la apariencia. como la luz y la posici´ on. Es el caso de las c´ amaras de rango14 : capaces de tomar im´ agenes de rango. El planteamiento es reconocer una imagen nueva (en fotograf´ ıa) partiendo de una base de datos con formas 3d. la estrategia general de todas las t´ ecnicas es ajustar el modelo generativo a una imagen nueva. Cada triplete se considera un candidato para encontrar nariz y ojos. Correspondencia 2. 13 En su primera aparici´ on en el original ((3d morphable model )).11 ´ CAP´ ITULO 1.5d tomadas para cada individuo. Para el an´ alisis de imagen. El m´ etodo de cara 3d deformable13 codifica la forma y la textura en un modelo de par´ ametros y con un algoritmo se recogen dichos par´ ametros en un caso de foto simple.5d presentado en [3] genera superficies 3d en una representaci´ on (x.5 est´ an tomadas con una c´ amara de rango. existen otros recursos aplicables a este contexto. El m´ etodo de correspondencia 2. Para hacer la identificaci´ on independiente de las condiciones de la imagen el objetivo es separar los par´ ametros intr´ ınsecos del modelo de los par´ ametros extr´ ınsecos de la imagen de la cara. y. Las fotos tomadas con este tipo de c´ amaras tambi´ en se llaman fotos en 2. La parte de correspondencia con la superficie se apoya en el algoritmo del punto m´ as cercano15 (ICP). z ) partiendo de varias im´ agenes 2.5d: Adem´ as de los scanners l´ aser. Podemos entender una imagen de rango como una imagen digital donde cada p´ ıxel contiene un valor equivalente a la distancia de dicho objeto con la c´ amara. An´ alisis de curvatura: En [4] se describe otra posibilidad que consiste en buscar los rasgos salientes (ojos y nariz) y someterlos a un an´ alisis de curvatura de superficies. Los modelos tridimensionales de la base de datos se utilizan para sintetizar muestras de apariencia con las variaciones de posici´ on y luz y se utilizan dichas im´ agenes sintetizadas para hacer el an´ alisis con la foto de prueba. Las im´ agenes de la derecha son im´ agenes de intensidad (normales) con el foco de luz colocado cerca de la c´ amara (por eso parecen negativos) pero en entornos no controlados la luz puede estar distribuida de muy diferentes maneras. El m´ etodo funciona para im´ agenes con y sin cara. normalizadas y representadas como una imagen normal en la que el negro se asigna a puntos cercanos y el blanco a puntos lejanos. Para la identificaci´ on se usan los par´ ametros de textura y forma del modelo separados de los parametros de la imagen. Las im´ agenes de la izquierda en la figura 1. Para manejar las variaciones se suelen usar modelos generativos de imagen. El candidato de la base de datos usado para verificar correspondencia de la apariencia es generado din´ amicamente bas´ andose en la salida del componente de superficie. 14 Range cameras 15 Iterative Closest Point . Esa separaci´ on se registra expl´ ıcitamente utilizando un proceso de formaci´ on de imagen utilizando tecnolog´ ıa gr´ afica 3d. que reduce la complejidad de la fase de correspondencia basada en la apariencia.

La imagen de la cara una vez tomado el video queda muy peque˜ na. Sin embargo. 1.2. oclusi´ on parcial. . Por ejemplo. es mucho m´ as facil detectar y localizar caras que reconocer una cara espec´ ıfica.5. Por las mismas condiciones de adquisici´ on de los datos la cara puede llegar a ser diminuta y no se alcanzan los tama˜ nos asumidos en la mayoria de sistemas de reconocimiento de caras. Caracter´ ısticas propias humanas. 2. durante la u ´ ltima d´ ecada la investigaci´ on en el reconocimiento de acci´ on y comportamiento a partir de video est´ a activ´ andose: Detectores de cansancio para conductores. Video Una de las aplicaciones m´ as importantes del reconocimiento de cara es en sistemas de videovigilancia. 3.5: A la izquierda im´ agenes de rango. Una de las principales razones de la viabilidad de una descripci´ on gen´ erica de comportamiento humano es que la variaci´ on intr´ ınseca de objetos humanos y en particular faciales es mucho m´ as peque˜ na que la variaci´ on con respecto a los objetos contextuales. etc. Despu´ es de muchos a˜ nos de estancamiento (hasta finales de los noventa).´ CAP´ ITULO 1. reconocer sujetos para video-vigilancia conlleva algunas dificultades: 1. PRESENTACION 12 Figura 1. sistemas de control dom´ estico. C´ amaras situadas en sitios con luz natural y la no ((colaboraci´ on)) de los sujetos. a la derecha fotos normales. etc. Baja calidad de video.

Estructura del movimiento: El problema de la estructura del movimiento es estimar la profundidad 3d de los puntos en una secuencia de im´ agenes. Hay m´ etodos basados en el an´ alisis de diferentes im´ agenes. Combinar segmentaci´ on y detecci´ on en video puede ser una buena aproximaci´ on a la detecci´ on de caras individuales. La informaci´ on de profundidad es u ´ til para construir modelos 3d para objetos y usar esos modelos para reconocer objetos presentes u oclu´ ıdos. PRESENTACION T´ ecnicas b´ asicas de procesado de caras basado en video La literatura al respecto parece ponerse de acuerdo en cuatro ´ areas acotadas para tratar este problema: 1. Tanto en la aproximaci´ on diferencial como en la discreta los par´ ametros que caracterizan el movimiento aparecen conjuntamente con los par´ ametros de la profundidad. Ciertas t´ ecnicas utilizan un modelo 3d gen´ erico de cabeza para alinear a la frontal de la vista en una secuencia de video. Un buen grueso de la literatura se dedica al an´ alisis de segmentaci´ on y detecci´ on de objetos en movimiento en video obtenido de plataformas est´ aticas o m´ oviles. esquinas. Este tipo de t´ ecnicas tienen que ver con la observaci´ on de objetos no r´ ıgidos en movimiento y su detecci´ on. En la aproximaci´ on discreta se calculan s´ olo una serie de puntos. Existen (y se han descrito) infinidad de t´ ecnicas para todo este tipo de casu´ ıstica. procesos de l´ ınea o modelos basados en cadenas de Markov. Sus aplicaciones van desde trabajos relacionados con el movimiento de glaciares hasta la detecci´ on de objetos articulados. Segmentaci´ on de objetos en video: Los intentos m´ as sencillos como basarse en cualquier movimiento de los p´ ıxels puede no funcionar en condiciones adversas: por ejemplo si hay multiples objetos en movimiento y existe oclusi´ on.5. bordes. Algunas de estas t´ ecnicas se han extendido a situaciones con movimiento (de la c´ amara o de los objetos). l´ ıneas o contornos extra´ ıdos de la secuencia de video. A menos que la c´ amara pueda moverse a lo largo de una base conocida las t´ ecnicas t´ ıpicas stereo quedan exclu´ ıdas. Aplicar alguna de ellas a video supone aplicar t´ ecnicas de tiempo real de modelado 3d y rastreo de caras.13 ´ CAP´ ITULO 1. 4. pero esto es computacionalmente costoso. 2. discontinuidades en campos de flujo utilizando segmentaci´ on. An´ alisis de movimiento no r´ ıgido: Se han aplicado a problemas de reconocimiento algunas de las t´ ecnicas de detecci´ on de movimiento no r´ ıgido. Modelos 3d para caras: Son conocidos los modelos 3d para reconocimiento de caras en aplicaciones de reconstrucci´ on facial forense.1 se han rese˜ nado algunas alternativas m´ as recientes para reconocimiento. si se dispone de visi´ on biocular (o multi-c´ amara) se pueden triangular valores absolutos. 3. En la secci´ on 1. Se puede calcular alg´ un tipo de c´ ampo de flujo y usarlo para estimar la profundidad de los puntos visibles. En visi´ on monocular dicha informaci´ on es relativa a un factor. El color de la piel puede ser utilizado para fortalecer ciertos algoritmos de detecci´ on de caras. informaci´ on parcial y envejecimiento infogr´ afico. .

PRESENTACION 14 .´ CAP´ ITULO 1.

∀x ∈ Rn =⇒ α(xβ ) = (αβ )x .∀x ∈ Rn =⇒ 1 · x = x .Suma: . se ha dado por sentado en sobre el que se describen todas las estructuras algebr´ aicas es 2.∀α. Se revisa en esta secci´ on algunos elementos de ´ algebra que repasar.Producto por un escalar: . Espacios vectoriales Definici´ on Teniendo en Rn el conjunto de los vectores de n dimensiones se entiende que la combinaci´ on (Rn . .Elemento opuesto .1.∀α. A saber: .Ley de composici´ on interna. β ∈ R. ∀x. Para simplificar. ∀x ∈ Rn =⇒ (α + β )x = αx + βx 15 .Ley de composici´ on externa .Conmutativa . ´ Algebra que antes o despu´ es se han tenido [14].1.Cap´ ıtulo 2 Introducci´ on te´ orica 2.Elemento neutro .∀α ∈ R.Asociativa . +. En su mayor´ ıa se ha tomado esta secci´ on de sint´ eticamente. ·) es un espacio vectorial al existir dos tipos de operaciones (suma y producto por un escalar ) que verifican una serie de propiedades. β ∈ R. a veces literalmente y a veces todas las definiciones que el cuerpo R. y ∈ Rn =⇒ α(x + y ) = αx + αy .1.

x 2.´ TEORICA ´ CAP´ ITULO 2. Es decir cumple: n ∀x ∈ U =⇒ x = i=1 αi ui con αi ∈ R (2. u2 .4) (2. Un espacio vectorial eucl´ ıdeo es un par (V. llamado producto escalar de x por y . de un espacio vectorial V es un subespacio vectorial cuando cumple: ∀u. x. Sus propiedades son: (2. U . ) donde V es un espacio vectorial y . x = 0 ⇐⇒ x = 0 ∀x. z ∈ V . y ∈ V ∀x. . ∀λ. ∀λ ∈ R ∀x ∈ V ∀x.3) 1. y + z ≡ x. y. un es una base del espacio vectorial U definido en R si es un sistema generador de U . x. habitualmente representado por x.1) El conjunto de vectores u1 . ya que de cualquier combinaci´ on lineal de ellos igualada a cero se deduce que todos los coeficientes han de ser cero. y . INTRODUCCION Una parte. x. definido en V . es decir que no es un sistema ligado. y ∈ V asocia un n´ umero real. y = y. y 4. x ≥ 0 5. y + x. . : V × V → R es un producto escalar. z 3. λx.2) Y si es un sistema libre. y ∈ V. . µ =⇒ λu + µv ∈ U Base de un subespacio vectorial 16 (2. v ∈ U. x. Un producto escalar sobre V es aquella aplicaci´ on que a cada par de vectores x. Subespacios suplementarios Se dice que U1 y U2 son subespacios suplementarios de V si y s´ olo si cumplen: U1 + U2 = V U1 ∩ U2 = 0 Tambi´ en puede escribirse como: V = U1 ⊕ U2 Espacio vectorial eucl´ ıdeo Se dice que a un espacio vectorial se le ha dotado de estructura de espacio vectorial eucl´ ıdeo cuando se considere en ´ el un producto escalar. y = λ x.

Si U ≡ V y f : U → V es un isomorfismo se dice que es f es un automorfismo. todos los elementos x de V cuya imagen es el vector nulo de W . Homorfismos Definici´ on Conviene diferenciar el concepto de aplicaci´ on y el de funci´ on. Imagen de un homomorfismo Dada una aplicaci´ on lineal f : V → W entre espacios vectoriales. Los espacios de Hilbert son una generalizaci´ on de los espacios eucl´ ıdeos sin restricciones de dimensiones finitas. su subespcio ortogonal U ⊥ es tal ⊥ que la intersecci´ on U ∩ U se anula. N´ ucleo de un homomorfismo Si f : V → W es un homomorfismo se define el n´ ucleo de f o Ker(f ) como: Ker(f ) = {x ∈ V : f (x) = 0} Es decir.17 Subespacio ortogonal ´ TEORICA ´ CAP´ ITULO 2. (2. subespacio de W . En el caso en el que C sea un espacio de Hilbert. Una aplicaci´ on lineal f : V → W ser´ a sobreyectiva si su imagen es todo el espacio W de llegada. y ∈ U f (x + x) = f (x) + f (y ) aditividad b) ∀λ ∈ R∀x ∈ U f (λx) = λf (x) homogeneidad Finalmente: Si U ≡ V y f : U → V es lineal se dice que f es un endomorfismo. En una funci´ on no todos los elementos del conjunto partida tienen imagen en el conjunto de llegada. la imagen de f no es s´ olo el conjunto f (V ) sino que se le considera con estructura de espacio vectorial. Tienen nociones de distancia y ´ angulo y permiten algunas abstracciones geom´ etricas. C ⊥ recibe el nombre de complemento ortogonal. Una aplicaci´ on de un conjunto en otro es cualquier regla mediante la cual a cada elemento del conjunto de partida se le asocia un u ´ nico elemento del conjunto de llegada. Sean U y V dos espacios vectoriales definidos sobre R y sea f : U → V una apliaci´ on lineal u homomorfismo entre los espacios vectoriales U y V si cumple: a) ∀x. Es decir.5) . Si f : U → V es lineal y biyectiva se dice que es un isomorfismo.1. se llama subespacio ortogonal de C y se representa por C ⊥ al conjunto formado por todos los vectores que son ortogonales a C . La imagen de f es denotada por Im(f ). INTRODUCCION Dado un subconjunto C de vectores de un espacio vectorial eucl´ ıdeo.2. Si U es un subespacio del espacio vectorial eucl´ ıdeo V . al espacio f (V ) se le llama imagen de f . 2.

T´ enganse en cuenta las siguientes definiciones para su correcto trato. al centro del cual tiende a situarse. se tendr´ a que si expresamos x e y en forma de matrices columna X e Y cuyos elementos son las coordenadas en B y B ′ . . Sean B = (u1 . v2 . Siendo n el n´ umero de datos de la muestra contenida en el vector x.2. . Estad´ ıstica unidimensional Sea una variable que puede tomar una serie de valores. Tambi´ en se le llama el espacio nulo. . En 2 x n + x n+1 caso contrario vendr´ a definidida como 2 2 2 .´ TEORICA ´ CAP´ ITULO 2. De todo ello se deduce que s´ olo pueden tener matrices inversas aquellas matrices cuadradas cuyo determinante sea distinto de cero. u2 . Medidas de centralizaci´ on Son las medidas cuyo valor es representativo de un conjunto de datos.1. . Si es Am×n la matriz asociada a f respecto de las bases anteriores. la mediana ser´ a el elemento x x+1 si n es impar.Moda: Valor m´ as frecuente que tomen los xi .7) A−1 = |A| Donde Adj (A) es la matriz adjunta de A y |A| es su determinante. La inversa de A se calcula seg´ un: 1 (Adj (A))T (2. Consid´ erese x a un vector que contenga distintos valores para una serie de observaciones de dicha variable. vm ) las respectivas bases.Mediana: Sean xi los elementos del vector x ordenados crecientemente. 2. No se han inclu´ ıdo en esta secci´ on todas –evidentemente– pero sirva de ejemplo que el n´ ucleo de una matriz ser´ an aquellos vectores x donde el producto Ax sea nulo. un ) y B ′ = (v1 . .6) Muchas de las definiciones sobre aplicaci´ on lineal tienen un equivalente para su matriz asociada. La mediana es el valor que deja a cada lado la mitad de los valores de la muestra. . evidentemente: Y = AX (2. empezando desde lo m´ as b´ asico: 2. Inversa de una matriz La matriz inversa de la matriz A es otra matriz A−1 que verifica AA−1 = A−1 A = I siendo I la matriz identidad compuesta por unos en la diagonal y ceros en el resto de posiciones.2. INTRODUCCION Matriz asociada a un homomorfismo 18 Dada una aplicaci´ on lineal f del espacio vectorial Un (de dimensi´ on n) en el espacio vectorial Vm .Media aritm´ etica: O promedio de los xi habitualmente entendido como: x = 1 n n i=1 xi . .

x1c x2c .Varianza: Una forma de medir la dispersi´ on entorno a la media es calcular la media de las diferencias. .. pero como los valores por encima y por debajo se compensan es mejor calcular el cuadrado de las diferencias. INTRODUCCION 2. Dicho de otra manera. Medidas de dispersi´ on Expresan el grado en el que los valores num´ ericos tienden a extenderse entorno a un valor medio. .3.3. la desviaci´ on est´ andar es simplemente el ((promedio)) o variaci´ on esperada con respecto de la media aritm´ etica. indistintamente.Recorrido: Diferencie entre el mayor y el menor de los xi valores. xn2 . As´ ı. n 1 2 (xi − x) s2 = (2. . . En este caso.        X=  (2. Estad´ ısticos para datos multivariantes Consid´ erese ahora un estudio de distintas variables para distintos individuos.. . Seg´ un la literatura puede encontrarse los datos organizados en una matriz de vectores fila o columna. La desviaci´ on est´ andar es una medida del grado de dispersi´ on de los datos del valor promedio.2. .1. xnc Es una matriz de c vectores columna. . . . . Obs´ ervese tambi´ en –sin confundir– que se manejan vectores columna y vectores fila usando el sub´ ındice i para denominar a unos y a otros o a sus elementos. . hay que recordar: c n = = nu ´mero de individuos. atendiendo a la matriz 2. . de objetos de estudio nu ´mero de datos observados para cada individuo (2. xn1 x12 x22 . donde cada vector representa a un individuo con los n valores observados. puede ser correcto –seg´ un el contexto– hablar de la variable xi (lo cual hace referencia a un vector fila de mismo tipo de datos pero con valores para diferentes individuos) o hablar del individuo xi (que ser´ ıa un vector columna con todos los valores de las variables tomados para un mismo individuo).8) n i=1 Cuya ra´ ız cuadrada s es lo que se llama desviaci´ on t´ ıpica o est´ andar.10) Y en cualquier caso puede entenderse que las filas representan las variables mientras que las columnas representan los individuos. . .9) ..19 ´ TEORICA ´ CAP´ ITULO 2.9. . Medidas b´ asicas de estad´ ıstica multivariante Se considera la generalizaci´ on –en esta secci´ on– de las f´ ormulas y ecuaciones vistas antes. 2. 2.. Una matriz de datos multivariantes t´ ıpica tendr´ a la forma:  x11 x21 .2.

Varianza: De la misma manera.  . . .´ TEORICA ´ CAP´ ITULO 2. . . Puede entenderse que µ representa los valores del ((individuo medio )). se representa la varianza como un vector σ 2 descrito por:  2 σ1 2 σ2 . . . xic ) como en el caso univariante.  . se ha conservado el denominador c − 1.Media: An´ alogo al caso univariante. .13) . 2 Obs´ ervese .14) N´ otese que si i = j tendr´ ıamos la varianza para la variable xi .11) Donde los µi resultan de calcular la media al vector fila xi = (xi1 xi2 . . . . Seg´ un [11]. . (2.  µn 20 (2. 2 σn   σ2 =   2 Donde σi ser´ a calculado seg´ un: 2 σi =      (2.16) ingl´ es es la ((scatter matrix )). y por la estructura misma de esta presentaci´ on. . Cuando apareciera c en el denominador. .12) 1 c−1 c k=1 (xik − µi )2 (2. σnn Suele encontrarse que la matriz Σ es estimada2 por medio de la matriz S que viene dada por: S= 1 En 1 c−1 c i=1 (xi − µ)(xi − µ)T (2. . . . INTRODUCCION . σ1n  σ21 σ22 .Covarianza: La covarianza de dos variables xi y xj se define por: σij = 1 c−1 c k=1 (xik − µi )(xjk − µj ) (2. ahora se tiene el vector media µ con la forma:   µ1  µ2    µ= . σ2n    Σ= . . as´ ı formulado debe considerarse a S como el estimador imparcial ((unbiased )) (o no sesgado) de Σ. la varianza de la variable xi se denota amenudo 2 como σii en lugar de σi . x2 . xn existen n varianzas y n(n − 1)/2 covarianzas. La covarianza de xi y xj se denota usualmente como σij . Con n variables x1 . que por concordancia con las ecuaciones de varianza. como puede encontrarse en parte de la bibliografia. . .  . Por lo tanto. .15)  . . . S ser´ ıa el estimador de m´ axima verosimilitud.  σn1 σn2 .Matriz de covarianza tambi´ en llamada matriz de varianza-covarianza o simplemente matriz de dispersi´ on1 : Con n variables podemos formar una matriz Σ sim´ etrica n × n tal que:   σ11 σ12 . . . .

 xin Llegados a este punto.3. ahora en el interior del sumatorio se libra un producto cuya resultante es una matriz3 atendiendo al producto de un vector columna y su (traspuesto) vector fila.19) 2. sin embargo la covarianza en el c´ ırculo es cero pero no la de la elipse.  (2.13 y 2. Vectores y valores propios Vectores y valores propios de un endomorfismo Dado un endomorfismo cualquiera en un espacio vectorial V .14.1. .2.3. Por cierto. .18) . En el caso de la ecuaci´ on 2.17)  .21 ´ TEORICA ´ CAP´ ITULO 2. Expresando los valores altos (cercanos a uno) y positivos un grado muy alto de relaci´ on lineal y los negativos lo contrario.Matriz de correlaci´ on: Con n variables existen n(n − 1)/2) distintas correlaciones que pueden ser disupuestas en una matriz n × n llamada R cuya diagonal est´ a formada por unos. 2.Coeficiente de correlaci´ on lineal: Es una medida ρ que expresa el grado de asociaci´ on lineal entre dos variables xi y xj y su valor estar´ a comprendido entre −1 y +1.16 se multiplica una matriz de n × 1 (o sea un vector columna) por su traspuesta. El vector xi es –en este caso– un vector columna que representa a un individuo.   xi1  xi2    xi =  . puede ocurrir que la varianza sea la misma para uno y otro caso. (2. una aplicaci´ on f : V → V que a cada vector x ∈ V le atribuye un vector f (x) tambi´ en en V se dan las siguientes definiciones: 3 En a ´lgebra de matrices tiene sentido el producto de la matriz Am×p y la matriz Bp×n cuya resultante A · B es una matriz m × n. por lo que el resultado es una (((aut´ entica ))) matriz n × n . es importante darse cuenta de la diferencia entre la ecuaci´ on 2. INTRODUCCION Donde µ es el vector definido por la ecuaci´ on 2.3. o sea.11. Mientras que en el interior de aquellos sumatorios se calculaba un valor. un vector fila o matriz 1 × n.16 y las ecuaciones 2. Punto de vista geom´ etrico Suponiendo dos nubes de puntos distribu´ ıdas geom´ etricamente como se muestra en la figura 2. σij ρij = √ σii σjj (2. Esta matriz puede ser expresada en t´ erminos de la matriz de covarianza Σ como sigue: R = D−1/2 ΣD−1/2 √ Donde D−1/2 = diagonal(1/ σij ). si se considera una matriz X a la que ya se le ha restado las medias. la matriz de 1 T dispersi´ on es equivalente a c− 1 XX .

es decir A ∈ Rn×n se dice que un escalar λ es un valor propio o un autovalor si existe alguna matriz no nula X ∈ Rn×1 tal que AX = λX . los autovectores de un endomorfismo son vectores que o no se ven alterados por el endomorfismo o se ven multiplicados por un escalar (λ) que no varia su direcci´ on. Siendo as´ ı. si se verifica la ecuaci´ on: AX = λX (2. El problema del autovalor generalizado Se llama as´ ı al problema de.´ TEORICA ´ CAP´ ITULO 2.20) De esta definici´ on se entiende que si la matriz A es la matriz asociada a un endomorfismo f los valores y vectores propios de A lo ser´ an tambi´ en del endomorfismo f . b) Un vector propio o autovector. dada una matriz cuadrada A. Siendo el autovalor el factor de escala por el que ha sido multiplicado. Se dice que una matriz columna X = 0 del espacio Rn×1 es un autovector o vector propio de A correspondiente al autovalor λ. es todo vector no nulo de V tal que f (x) = λx. INTRODUCCION 22 Figura 2. correspondiente al autovalor λ de f . Vectores y valores propios de una matriz Las definiciones anteriores pueden extenderse a una matriz si consideramos ´ esta asociada a una aplicaci´ on lineal. En otras palabras.1: Ilustraci´ on del significado geom´ etrico de la varianza a) Un valor propio o autovalor de f es todo escalar λ ∈ R tal que existe al menos un vector no nulo x de V para el que se verifica f (x) = λx. de tama˜ no n. dadas dos matrices A y B encontrar las parejas αk y βk de escalares. y los vectores xk que cumplan: .

2 . Si la matriz B tiene inversa los vectores xk ser´ an los vectores propios de B −1 A. INTRODUCCION βk Axk = αk Bxk k = 1. An´ alisis de componentes principales Introducci´ on Un problema t´ ıpico en el an´ alisis de datos multivariantes es la reducci´ on de la dimensionalidad de los mismos. u = v T u es el producto escalar est´ andar en Rn . . la norma de cada elemento que la compone es igual a 1.24) k −1 un = vk − projui vk i=1 en = u3 u3 2.22) 2. . Pudi´ endose rescribir la ecuaci´ on 2. . un } que generan el mismo subespacio que los primeros.4.3. .21 como un problema est´ andar de autovalores. u u u. . n (2.4. 2. (2. u (2. .21) Los escalares λk = αk /βk son los autovalores generalizados y xk los autovectores generalizados. resolviendo: B −1 Axk = λk xk (2.23 ´ TEORICA ´ CAP´ ITULO 2.1. vn } se encuentran los vectores ortogonales S ′ = {u1 . El algoritmo de Gram-Schmidt seguir´ ıa la iteraci´ on: u1 u1 = v1 e1 = u1 u2 e2 = u2 = v2 − proju1 v2 u2 u3 e3 = u3 = v3 − proju1 v3 − proju2 v3 u3 . Algoritmo Se define el operador proyecci´ on de v en la direcci´ on de u como sigue: proju (v ) = v. Finalmente se normalizar´ a el conjunto de vectores S ′ (dividiendo por su tama˜ no).23) Donde v. M´ etodo de Gram-Schmidt El m´ etodo de Gram-Schmidt es un m´ etodo para encontrar una base ortonormal4 un conjunto de vectores en un espacio. El objetivo es poder describir con precisi´ on los valores por medio de un subconjunto 4 Una base ortonormal es aqu´ ella que adem´ as de ser ortogonal. Partiendo de los vectores S = {v1 . . . . .4. . .

Al ser variables de media cero. Posteriormente los trabajos –independientes entre s´ ı– de Kari Karhunen (en 1946) y de Michel Lo` eve en 1955.4.´ TEORICA ´ CAP´ ITULO 2. Se considera un subespacio de dimensi´ on 1. dispuestos en una matriz X de dimensiones n × c. El objetivo es encontrar un espacio de dimensi´ on m´ as peque˜ na que represente a los datos. la trasformada de Karhunen-Lo` eve. Intuitivamente supone encontrar la recta que m´ as cerca pase de todos los puntos y mejor mantenga .2: Karl Pearson (½ sidad de Londres.2. introdujo el punto de partida en sus trabajos de ajustes ortogonales por m´ ınimos cuadrados. ello equivale a maximizar la suma de las varianzas. Figura 2. El an´ alisis de componentes principales tiene este objetivo: dadas c muestras de un conjunto de n variables se analiza si es posible representar adecuadamente esa informaci´ on por un n´ umero menor de variables construidas como combinaciones lineales de las originales. Harold Hotelling hizo un primer desarrollo te´ orico y le dio el nombre de an´ alisis de componentes principales. –½ ¿ ) fue Catedr´ atico de Matem´ aticas y Eugenesia en la Univer- Esta t´ ecnica recibe varios nombres debido a la evoluci´ on por la que fue siendo concebida. En 1901 el cient´ ıfico brit´ anico Karl Pearson (1857-1936).3 muestra un ejemplo para R2 en el que se han dibujado una serie de puntos siguiendo una distribuci´ on m´ as o menos lineal. a ´ el se debe que se conozca tambi´ en como la trasformaci´ on de Hotelling. Se ha de haber normalizado la matriz X restando a cada variable su media. Planteamiento Sup´ ongase que se dispone de los valores de n–variables en c elementos a estudio. En 1933. La figura 2. INTRODUCCION 24 de los mismos. Se desea que las proyecciones de los puntos sobre esta recta mantengan sus posiciones relativas. donde las columnas contienen los elementos y las filas las variables. ((trasformada KL)) o TDKL. trasformada discreta de Karhunen-Lo` eve. lo cual equivale a maximizar la suma al cuadrado de los valores de las proyecciones. de manera que las variables de la matriz X tienen media cero y su matriz de covarianzas viene dada por (1/n)XX T . una recta. 2. Puede calcularse esta recta usando c´ alculo geom´ etrico y minimizando la suma de las distancias de los puntos a la ((recta de proyecci´ on )). le dieron uno de sus nombres m´ as conocidos. inventor del contraste que lleva su nombre y uno de los fundadores de la Estad´ ıstica en el siglo XIX.

5 1. a modo de algoritmo. Generalizaci´ on Esta secci´ on no tiene el objetivo de explicar por qu´ e funciona esta t´ ecnica sino proveer de una visi´ on de conjunto de la t´ ecnica.9 1. Servir´ an como datos de ejemplo una serie de 10 puntos que sirve adem´ as para seguir gr´ aficamente el proceso.3: Enfoque descriptivo del an´ alisis de componentes principales.3 2.5 2.6 1.4.6 1.2 2. la generalizaci´ on de esta trasformaci´ on y repasar la t´ ecnica tal como habitualmente se utiliza.9 2.1 2.5 0. el primer desarrollo matem´ atico de la t´ ecnica de los componentes principales.7 2. Para todos los valores de x se calcula x y se le resta a todos los valores de x.0 1. Con y lo mismo.6 1 1. x y 2.2 3.3. 1 2 3 4 (al proyectarse esos punto en s´ ı misma) la variabilidad original.7 1.25 ´ TEORICA ´ CAP´ ITULO 2.7 2. Representando las columnas a las muestras y las filas a las variables.2 2.1 1.5 2. El primer componente principal se define como la combinaci´ on lineal de las variables originales que tienen varianza m´ axima. 2.9 1.2 3.5 0.4 0.3 se dir´ ıa que en este ejemplo hay c = 10 muestras y n = 2 dimensiones (2 variables). INTRODUCCION 3 2 1 −4 −3 −2 −1 −1 −2 −3 −4 Figura 2.1 0. En concordancia con la secci´ on 2.7 2 1. No hay necesidad de abordar dicha t´ ecnica en esta secci´ on. En el caso del ejemplo .9 1. plantea c´ omo ir calculando uno por uno dichos componentes.3 2.9 (2. X= 2. pero s´ ı que conviene recordar para tener bien presente.5 2. Disponer los datos en forma de matriz.1 0.4 0.0 1.9 3.6 1.1 3 2. Con el planteamiento geom´ etrico anterior y teniendo presentes las varianzas iniciales.25) 2.1 1. Restar la media: Restar la media para cada dimensi´ on.0 2.

49 0.27) 4.6779 0. 0.6166 0.7352.4 se entiende el significado de estos resultados. 5. Calcular la matriz de covarianza: Tal como se ha visto en la secci´ on 2. . los valores propios ser´ ıan (0.7166 (2. Ordenados los valores propios de mayor o menor nos queda que en la direcci´ on del segundo vector (0.5 2 1. 0. 3. de manera que la matriz X normalizada quedar´ ıa: X= 0.91).28) Observando la figura 2.7352) es en la que se halla la m´ axima variaci´ on de los datos. INTRODUCCION (x.29 0. S= 0.99 0. y la siguiente viene determinada por el segundo vector (−0.7352. .6779 0.6779.26) 3.Ordenar los λi autovalores y comenzar eligiendo por el primero hasta que la suma de los restantes valgan igual o menos que λi . El primer valor propio del ejemplo es 0.6779).5 0 0 1 2 3 Figura 2. 1.7352 0.0491.´ TEORICA ´ CAP´ ITULO 2.01 26 (2.4: Gr´ afica con los puntos del ejemplo para un c´ alculo de PCA.09 0. Calcular los valores y vectores propios de la matriz de covarianza: En el caso del ejemplo.31 0.31 −0.81 −0.3 la matriz de covarianza es de dimensi´ on n × n.7352 (2.0491 y el vector propio correspondiente es (−0.21 0.29 1.31 −0. 0.6154 0.81 −0.6779).5 3 2. Los vectores propios est´ an asociados a los valores.81.19 −0.71 0.39 0.79 −0.5 1 0.31 −1.6154 0.2840) y los vectores propios normalizados vendr´ ıan dados por la matriz: vectores propios = −0. y ) = (1.49 −1. Elegir los componentes y formar una base con sus vectores: De acuerdo con la importancia marcada por los valores propios.69 −1. existen distintas estrategias para elegir un n´ umero de ellos.2840 con el vector (0. El peso de los valores marca la importancia y la direcci´ on del vector marca la m´ axima variaci´ on de los datos. aplicado al ejemplo: 2 × 2.7352). 1. 0. que ser´ a la reducci´ on de dimensionalidad.09 1.6779. el segundo valor es 1.

puede utilizarse un porcentaje (el 80 o 90 por cien) de corte que permita deshechar aquellas direcciones de dispersi´ on que no aportan nada o casi nada de informaci´ on.2742 1.29) Y los nuevos valores Z pueden reescribirse como muestra la tabla 6. La trasformaci´ on viene dada por: Z = PTX En el caso del ejemplo: P = 0.7352 0.7352 0. 2.3844 0.Los valores propios de la matriz de dispersi´ on son una expresi´ on de la varianza de ´ esta.1446 -0. An´ alisis Discriminante Lineal de Fisher PCA es la t´ ecnica estad´ ıstica m´ as famosa para reducir la dimensionalidad.4380 -1.7776 0.6779 (2. Desde este punto de vista.0464 0. Estas u ´ ltimas dos t´ ecnicas son arbitrarias y en la literatura se aconseja manejar adecuadamente. Y asociadamente con los vectores. que representar´ ıa los datos en una sola dimensi´ on. En tal caso se reducir´ ıa de dos dimensiones a una.27 ´ TEORICA ´ CAP´ ITULO 2. elegir los dos vectores o quedarse con (0.8280 -1.0991 -1.7352) cuyo valor propio es mayor 1.1751 0. En el caso del ejemplo hay dos opciones.0178 -0. INTRODUCCION . expresan las direcciones principales de variaci´ on. La figura 2.9129 -0.2095 0.5 muestra los datos despu´ es de la trasformaci´ on. Busca las direcciones en los datos que tienen mayor varianza y proyecta los datos en ellas.1304 -0.1429 0. Esta operaci´ on puede interpretarse como elegir unos nuevos ejes coordenados que coincidan con los ((ejes naturales )) de los datos. 6. De esa manera.2238 y -0. Calcular los componentes principales equivale a aplicar una trasformaci´ on ortogonal a las variables originales (X ) para obtener unas nuevas variables Z incorreladas entre s´ ı. entendiendo que la suma total de los autovalores es una expresi´ on de la varianza de los datos.30) (2.29 hubiera dado como resultado un matriz de 1 × n.Desechar aquellos componentes asociados a valores propios inferiores a una cota. x 0.1753 -0. se obtienen .1627 Si se hubiera elegido s´ olo el primer vector propio (asociado al mayor autovalor) para formar la matriz P el resultado del producto matricial de la ecuaci´ on 2.6779 −0.5.3498 0. Suele fijarse como la varianza media. . 0.6758 0. Procesar los datos: Llamando P a la matriz cuyas columnas son los vectores propios de S adecuadamente ordenados.9922 0.2840.6779.

34) 1 n n µc c xi = i (2. Se trata de una t´ ecnica no supervisada y como tal no incluye informaci´ on etiquetada de los datos. donde en cada clase tenemos n muestras. el objetivo es encontrar una w que maximice: w T SB w (2.5: Los datos despu´ es de la trasformaci´ on de PCA aparecen con mayor variaci´ on entre s´ ı.33) SW = c i∈c Donde µc es la media de la clase c y x es la media total. representaciones de los datos de menor dimensi´ on eliminando direcciones ((ruidosas)). INTRODUCCION 28 2 1 0 −1 −2 −0. SB habla de la dispersi´ on entre s´ ı que tienen las clases de distribuciones de puntos mientras que SW habla de la dispersi´ on interna que tienen las clases de puntos.4 Figura 2.2 0.´ TEORICA ´ CAP´ ITULO 2. SB y SW se definir´ ıan: SB = c n (µc − x) (µc − x)T (xi − µc ) (xi − µc )T (2.31) J (w) = T w SW w Donde SB es la matriz de covarianza (o matriz de dispersi´ on) interclase5 y SW es la matriz de dispersi´ on intraclase6. Una aproximaci´ on para resolver dicho caso la propuso en 1936 el bi´ ologo y estad´ ıstico brit´ anico Sir Ronald Aylmer Fisher (1890-1962).4 −0.35) class scatter matrix. class scatter matrix .32) (2. Considerando una matriz w de proyecci´ on an´ aloga al papel que cumpl´ ıa la matriz de proyecci´ on P en la ecuaci´ on 2. Para clasificar ambas distribuciones se tratar´ ıa de una p´ esima proyecci´ on porque todas las etiquetas est´ an mezcladas y la informaci´ on u ´ til se destruye.29 para PCA. la varianza del conjunto de datos total es la direcci´ on de las rectas. ignorando las etiquetas. Suponiendo los datos de c clases. Por ejemplo si se disponen dos distribuciones de puntos a lo largo de dos rectas paralelas y pr´ oximas entre s´ ı. cumpli´ endose: µc = x = 5 Between 6 Within 1 n 1 n xi i∈c (2.2 0 0. Es decir.

37) Lo cual concuerda con las ecuaciones 2. . dicha ecuaci´ on se rescribir´ ıa como: SB w = λSW w (2. considerando los autovalores en la diagonal de una matriz λ. INTRODUCCION (xi − x) (xi − x)T (2. ST = i ´ TEORICA ´ CAP´ ITULO 2.22.21 y 2.36) se cumple ST = SW + SB De acuerdo con [11] el problema de maximizar J (w) conduce a la ecuaci´ on de vectores propios generalizados.29 Si se considera ST la matriz de dispersi´ on total.

´ TEORICA ´ CAP´ ITULO 2. INTRODUCCION 30 .

1. ((caras propias )). De esta manera. podr´ a ser manejada como un vector de d = n × m elementos. Kirby en 1987 ([16]). Si en lugar de representarla as´ ı. Comenzando con un conjunto original de im´ agenes de caras calculaban el mejor sistema de coordenadas para comprimir la imagen. se colocan las filas de la matriz una detr´ as de otra. Preliminar Habitualmente se considera una imagen digital como una matriz donde cada valor representa el color del p´ ıxel correspondiente. 31 . resulta que todas las im´ agenes de m × n tienen un espacio vectorial asociado en Rd . lo que se tiene es un vector. por otra parte Eigenfaces es un m´ etodo de reconocimiento que utiliza PCA con alguna variaci´ on. Los eigen vectors son los vectores propios. algoritmos y estrategias diversas. lo cual no es del todo correcto: El m´ etodo PCA es un m´ etodo general de an´ alisis de datos. 3. Eigenfaces Contexto La idea de aplicar an´ alisis de componentes principales (en adelante PCA) para representar im´ agenes de caras en una dimensi´ on baja fue introducida por primera vez por Lawrence Sirovich y Robert M. La aplicaci´ on tanto del ´ algebra lineal como de an´ alisis estad´ ıstico a dichos datos. los m´ etodos principales que utilizan proyecciones en subespacios. Esta idea fue tomada poco despu´ es por Matthew Turk y Alex Pentland en [17] quienes desarrollaron el m´ etodo de reconocimiento de Sirovich y Kirby y lo reformularon con la denominaci´ on Eigenfaces. 1 El t´ ermino eigen lo introdujo por primera vez en este contexto David Hilbert en 1904. Asumida esta trasformaci´ on. En este cap´ ıtulo se pretende revisar. significa ((caracter´ ıstico)) o ((individual)). de entre los que se atribuyen a este campo. En cierta literatura se habla de PCA y Eigenfaces indistintamente.2.1. 3.Cap´ ıtulo 3 M´ etodos de clasificaci´ on basados en subespacios 3.2. en alem´ an. una imagen de n × m p´ ıxels. ((im´ agenes propias )). donde cada coordenada es una imagen que ellos llamaban eigenpictures 1 . ha permitido construir toda una l´ ınea de desarrollo cient´ ıfico a lo largo de la cual se han ido sumando –con distintos resultados– varios m´ etodos.

x3 . Cada vector de dimensi´ on d = N 2 describe una imagen N × N . se construye la matriz AT A de dimensi´ on m × m y se encuentran los m vectores propios. se les llama Eigenfaces.2) (3. Si el n´ umero de puntos en el espacio de im´ agenes es menor que la dimensi´ on del espacio m < N 2 .1) = AA Donde A ser´ ıa la matriz X normalizada (a cada xi columna se le ha restado la media). y como son parecidas a una cara. al que Kirby y Sirovich llaman espacio de las im´ agenes. x2 . xm (considerando vectores columna de dimensi´ on d podemos contruir la matrix X de dimensiones d × m). Puede considerarse como un vector de dimensi´ on N 2 . lo que hace de extraer sus vectores y valores propios una tarea computacionalmente prohibitiva para im´ agenes de un tama˜ no normal. Como estos vectores son los vectores propios de la matriz de covarianza correspondiente al espacio original de las im´ agenes. se tiene: AAT Avi = αi Avi Donde Avi son los vectores propios de S = AAT Partiendo de este an´ alisis. 2 Se habla aqu´ ı de una matriz cuadrada por guardar concordancia con el original (en [17]) pero no tiene por qu´ e serlo. La idea de PCA es encontrar la base que mejor expresan la distribuci´ on de las im´ agenes de las caras dentro del espacio completo. el ((espacio de las caras)). Los vectores uk y los escalares λk son los vectores y valores propios respectivamente de la matriz de covarianza: S= 1 m m i=1 T (xi − µ)(xi − µ)T (3. Este conjunto de vectores grandes es sometido a PCA lo cual buscar´ a un conjunto de m vectores ortonormales uk que describe la distribuci´ on de los datos. METODOS 32 3.´ CAP´ ITULO 3.2.2. La matriz S tiene una dimensi´ on de d × d (= N 2 × N 2 ). Un conjunto de im´ agenes trazar´ a una nube de puntos en este gran espacio. Estos vectores describen la base del subespacio de las im´ agenes de caras. y es una combinaci´ on lineal de los vectores base del subespacio.3) . . Calcular Eigenfaces Sea una imagen de una cara dada por una matriz2 N × N . Si en lugar de calcular AAT consideramos T vi los vectores propios de A A (y αi sus valores propios) resultar´ a que: AT Avi = αi vi Premultiplicando a ambos lados por A. . Sea el conjunto de im´ agenes de caras x1 . La media del conjunto (o la cara m 1 media) se define µ = m i=1 xi . Cada cara difiere de la media por el vector xi − µ. de manera que una imagen t´ ıpica (peque˜ na) de 256 por 256 ser´ a un vector de dimensi´ on 65536 o de forma equivalente. habr´ a como mucho m − 1 vectores propios significativos. Puede resolverse el problema tomando apropiadamente combinaciones lineales de las im´ agenes. un punto en un espacio de 65536 dimensiones. (3.

2. Para cada clase (para cada individuo) elegir al menos una (o promediando m´ as de una) de sus im´ agenes y calcular el vector de clase (proyect´ andolo en el espacio de caras) Ωk . Calcular la matriz m × m normalizada y encontrar sus vectores y valores propios. Elegir los m′ vectores propios con los valores propios asociados m´ as altos. la anterior observaci´ on no se mantiene exactamente.1. El m´ etodo de Eigenface se basa tambi´ en en la proyecci´ on lineal del espacio de las im´ agenes en un espacio de caracter´ ısticas de dimensi´ on menor. Mientras que las proyecciones por PCA son optimas para reconstruir los datos desde bases de menor dimensi´ on. y no depende de la direcci´ on de emisi´ on. Combinar el conjunto de entrenamiento con los vectores propios para calcular las m′ Eigenfaces. en [18] se insiste en que ((las variaciones entre las im´ agenes de la misma cara debidas a la direcci´ on del punto de vista y la luz son siempre m´ as grandes que las variaciones en la identidad de la cara )). ya que uno de los objetivos es encontrar una proyecci´ on lineal de las im´ agenes de las caras en un espacio menor de caracteristicas insensible a las variaciones de la luz y la expresi´ on facial. 3.2. ciertas regiones de la cara pueden tener variabilidad de imagen a imagen que frecuentemente deriva significativamente del subespacio lineal y consecuentemente merma la fiabilidad del reconocimiento.3. reflejos y expresiones faciales. 3. Fisherfaces Justificaci´ on La misma persona con la misma expresi´ on facial y vista desde el mismo punto de vista puede aparecer dram´ aticamente diferente cuando las fuentes de luz iluminan la cara desde diferentes direcciones.33 ´ CAP´ ITULO 3. METODOS 3. el m´ etodo de Fisherfaces explota dos observaciones: 1. Originalmente (en [18]). con variaciones en la expresi´ on y en la iluminaci´ on. 2. 3 Seg´ un la Ley de Lambert: Un cuerpo que radia obedece a la ley de Lambert si su luminancia espectral energ´ etica es la misma para un elemento cualquiera de su superficie. Todas las im´ agenes de una superficie de Lambert 3 tomadas desde un punto de vista fijo pero con variaciones en la iluminaci´ on. Sin embargo. 4. no son optimas para la discriminaci´ on. un algoritmo t´ ıpico de reconocimiento de caras utilizando las Eigenfaces seguir´ ıa: 1.3.3. Tomar un conjunto inicial de im´ agenes (el conjunto de entrenamiento). En la pr´ actica. De acuerdo con la literatura. En la pr´ actica por razones de sombra. 3. Para cada nueva imagen y calcular su vector Ω = uk (y − µ) y calcular la distancia a cada vector de clase. Este conjunto deber´ ıa incluir un n´ umero de im´ agenes para cada persona. al utilizar PCA para reducir la dimensi´ on (ya que PCA busca maximizar la dispersi´ on) se mantienen variaciones indeseadas debidas a cambios en la luz y en la expresi´ on facial. se proyectan en un subespacio lineal 3d del espacio de la imagen (de dimensionalidad alta). . 5. Algoritmo Seg´ un [17].

LDA busca los vectores que proporcionan mejor discriminaci´ on entre clases despu´ es de la proyecci´ on.1: LDA. En este sentido el an´ alisis discriminante de Fisher intenta proyectar los datos de manera que su nueva dispersi´ on sea ´ optima para clasificaci´ on. Mientras PCA describe la dispersi´ on total.3. Se utiliza PCA para reducir la dimensi´ on del espacio de caracter´ ısticas y despu´ es se aplica el LDA est´ andar. En la recta que representa la direcci´ on principal de los datos seg´ un PCA. En el problema de reconocimiento de caras. el m´ etodo de las Fisherfaces propone una variaci´ on al LDA tradicional: Aunque existen otras estrategias. Esto ocurre porque en general. originalmente. LDA describe mejor la dispersi´ on entre clases. Mientras PCA busca los vectores que mejor describen los datos. METODOS 34 3. los puntos se proyectar´ ıan mezclados y ser´ ıa imposible discriminarlos. ejemplo en dos dimensiones. se puede evitar el problema proyectando el conjunto de im´ agenes en un espacio de dimensi´ on m´ as baja donde la resultante SW es no singular. existe la dificultad de que la matriz de dispersi´ on intraclase siempre es singular. de acuerdo con [18]. tiene sentido utilizar dicha informaci´ on para construir un m´ etodo de reducci´ on de dimensionalidad del espacio de caracter´ ısticas m´ as confiable.1 muestra una ejemplo habitual en dos dimensiones para ilustrar los beneficios de LDA.2. el n´ umero de im´ agenes en el conjunto de aprendizaje siempre es menor que el n´ umero de p´ ıxeles en cada imagen.4) Donde Wpca se calcula partiendo de la matriz de dispersi´ on total ST y Wlda se obtiene buscando una matriz w que maximice Jlda (w): Jlda (w) = T wT wpca SB wpca w T T w wpca SW wpca w (3. es decir que no tiene inversa. PCA 3 2 1 + + ++ + + −1 + 1 LDA 2 3 4 −1 Figura 3.´ CAP´ ITULO 3.5) . Puede formularse estrictamente que la proyecci´ on optima Wopt de acuerdo con: T T T Wpca Wopt = Wlda + (3. Formulaci´ on Como el conjunto de aprendizaje est´ a etiquetado. La figura 3. Para salvar este obst´ aculo.

Vectores comunes discriminantes Esta t´ ecnica ha sido presentada en [22] por Cevikalp. es decir. Para cada clase contruir un vector de caracter´ ısticas proyectando con la matriz anterior. . .4. La clasificaci´ on se resuelve por la distancia a los vectores de caracter´ ısticas. a2 . Wilkes y Barkana los llaman los vectores remanentes. Por otro lado.1. xn ) ∈ Rn e y = (y1 . . los vectores que quedan no son u ´ nicos. en dicho subespacio est´ en representados por un u ´ nico vector al que Cevikalp.3.3. tanto en [20] como [21] se establece que los vectores diferencia de cada clase en el conjunto de entrenamiento constituyen un u ´ nico subespacio llamado subespacio diferencia. am ∈ Rn con m < . . Y sea x la norma eucl´ ıdea del vector x. Cevikalp. Sean los vectores linealmente independientes n-dimensionales a1 . aqu´ el vector con respecto al cual var´ ıan los dem´ as (por sus diferencias y en ellas mismas) vectores de la muestra. S´ olo un vector contiene las caracter´ ısticas invariantes para cada clase. x2 . aunque la idea de vector com´ un hab´ ıa sido propuesta con anterioridad ([20] y [21]). Wilkes y Barkana por primera vez. xn yn el producto escalar de los vectores x = (x1 . y conviene repasar el concepto del vector com´ un para comprender mejor la t´ ecnica de los vectores comunes discriminantes. La t´ ecnica de los vectores comunes discriminantes se pregunta si existe una proyecci´ on a un subespacio tal que todos los elementos de una misma clase proyectados en dicho subespacio tengan una u ´ nica proyecci´ on. . 3. Vector com´ un En primer lugar. . el vector com´ u n. Neamtu. Previamente. en el conjunto de pruebas. Es decir.35 ´ CAP´ ITULO 3. Aunque se trata de t´ ecnicas diferentes est´ an relacionadas. Neamtu. y2 . . cuando todas las diferencias en el subespacio diferencia han sido eliminadas. Se puede elegir uno por cada clase o promediarlos. Cada vector com´ un es u ´ nico para cada muestra del conjunto de entrenamiento y representa las propiedades comunes del la clase. Wilkes y Barkana han llamado el vector com´ un discriminante. La t´ ecnica del vector com´ un extrae de un conjunto de entrenamiento el vector com´ un. y = x1 y1 + x2 y2 . Seg´ un [21] los vectores remantentes est´ an habitualmente m´ as pr´ oximos a los vectores comunes de su propia clase que a los de otras clases. . Algoritmo Sint´ eticamente: Construir la matriz de proyecci´ on con los vectores propios generalizados a SB y SW correspondientes a los valores propios no nulos. Sea un espacio vectorial n-dimensional en Rn y x. puede ser necesaria una reducci´ on de dimensionalidad para poder tratar con SB y SW . Se eliminan todas las diferencias dentro de una cierta clase del conjunto de entrenamiento. dicha reducci´ on deber´ a hacerse a los vectores de caracter´ ısticas y a los de prueba para la clasificaci´ on. METODOS 3.4. Neamtu. 3. el clasificador busca en los vectores de prueba aqu´ ellos que m´ as pr´ oximos est´ an al vector com´ un de una cierta clase. . yn ) ∈ Rn . Una vez calculado dicho vector.

. se puede rescribir como un sumatorio de un vector com´ un x que representa las propiedades comunes de la clase y un vector diferencia ai. . b m− 1 = am + a1 (3. . . a2. a1 = x + a1. zm−1 ortonormal del llamado subespacio diferencia. existen m ecuaciones con m + 1 vectores desconocidos. 2.dif . .dif a2 = x + a2. Para obtener una u ´ nica soluci´ on para el vector com´ un. .dif = ai .6 existen m ecuaciones pero existen m + 1 vectores desconocidos x. una base z1 .2 muestra un ejemplo de este m´ etodo para dos dimensiones. Si se llama B a dicho subespacio diferencia. Si todos los vectores error ǫi (i = 1.dif pertenecen a un subespacio que en [20] y [21] es llamado subespacio diferencia.dif .dif son las proyecciones de los vectores de caracter´ ısticas en el subespacio diferencia B . m) se asumen nulos. Los vectores comunes de 1 2 ambas clases se muestran como acom y acom . . Y los datos de prueba tendr´ an distancia casi cero.dif . Cada vector com´ un x puede calcularse como x = ai − ai. . METODOS 36 n. .dif .dif . Existen infinitas soluciones. . z2 . puede escribirse un sistema de vectores que sea base de B : b 1 = a2 − a1 b 2 = a3 − a1 . considerando todos los ai pertenecientes a una misma clase de un conjunto de entrenamiento.6) El vector com´ un representa las propiedades comunes o caracter´ ısticas invariantes de la clase. z2 z2 + . cada uno de los vectores puede escribirse: ai = ai. En la relaci´ on 3. seg´ un el m´ etodo de Gram-Schmidt.dif que representa las propiedades individuales del i-´ esimo. zn zn (3. Los vectores propios correspondientes a los valores nulos de la matriz de dispersi´ on de cada clase de cada clase tienen la misma direcci´ on que el vector com´ un. Lo cual permite construir el clasificador. Si se proyectan los datos de entrenamiento en ese subespacio nulo tendr´ an distancia cero con el vector com´ un. am = x + am. . a1. . Una de las clases (C 1 ) 1 1 2 2 tiene los vectores a1 y a2 y la otra clase (C ) tiene los vectores a2 1 y a2 . Si se llama acom al vector com´ un. z1 z1 + ai . am. .dif (3.9) La figura 3. .´ CAP´ ITULO 3. ai .dif + acom + ǫi (3.8) Donde ǫi es un t´ ermino de error. ai.7) Se sugiere en [20] utilizar dicho conjunto para encontrar. se puede asumir que los vectores ai. . Los vectores ai.

2.5 1 1.2: Ejemplo de clasificaci´ on con vector com´ un en 2D. . El an´ alisis de componentes principales de SW permite encontrar los vectores de proyecci´ on αk del espacio de rango de SW . 5. Es decir.5 a 1 0. 4. 3. encontrar la proyecci´ on de m´ axima dispersi´ on en dicho espacio permite la clasificaci´ on. Neamtu.5 2 com a 2 2 1 1 a 1 2 2 1 1 com 0 0. los vectores de proyecci´ on del espacio nulo se pueden calcular restando z = x − y . Los vectores comunes son combinaci´ on lineal de los z . Se cumple adem´ as que la matriz de dispersi´ on intraclase SW equivale a AAT . Por lo tanto. el m´ etodo de los vectores comunes discrimantes o DCV sigue los siguientes objetivos por pasos (en esta secci´ on la notaci´ on aparece m´ as flexible porque lo principal que se pretende describir es la idea intuitiva): 1.5 3 3.5 4 Figura 3. 2. En [22] Cevikalp.37 ´ CAP´ ITULO 3. Pensando en datos de C clases con N muestras por clase. Wilkes y Barkana sustentan te´ oricamente que los vectores comunes de cada clase est´ an en el espacio nulo de la matriz de dispersi´ on intraclase SW com´ un a todas las muestras.25). Idea del m´ etodo de los Vectores Comunes Discriminantes En el m´ etodo del vector com´ un se calcula un u ´ nico vector com´ un para cada clase partiendo de la matriz de dispersi´ on de dicha clase.4. Los vectores y se calculan proyectando los vectores x con los αk . METODOS 4 3. El objetivo es encontrar los vectores de proyecci´ on del espacio nulo de SW . Disponer los datos en una matriz A (seg´ un se ver´ a en la ecuaci´ on 3.5 a 0 −0. Los puntos de la clase C 1 est´ an 2 marcados con un aspa.5 a 2 1. 6. Son los correspondientes a los autovalores no nulos. 3. Una vez obtenida la proyecci´ on sobre el espacio nulo de SW .5 2 2.5 −0. Consid´ erese V dicho espacio de rango y V ⊥ el espacio nulo. los de la clase C con un circulo.5 a 3 2. agrupando los vectores de la misma clase. Recu´ erdese que su intersecci´ on es nula y por lo tanto un vector x de Rd puede descomponerse en la suma de y ∈ V y z ∈ V ⊥ .

En este ejemplo se calcularan los vectores propios de forma directa en cada caso. De forma que SW = A × AT .  0 0 0 1 −1 1  0 −1/2 1/2 (3.12) Se calculan los vectores propios de SW y se normalizan.3: Ejemplo para el m´ etodo DCV en 3d.  −1 −1  −1 1 0 0 Se resta la media por clases para construir  0 A =  −1 0  1 1 −1 1  1 2 (3.11) la matriz A. para intentar ahora. METODOS Ejemplo en 3d 38 Supongamos cuatro puntos en el espacio tal como muestra la figura 3. Agrupando las muestras que pertenecen a la misma clase. SW resulta tener un u ´ nico valor propio nulo que es el primero. Se organizan los datos tal como describe el m´ etodo DCV.10) 3 2 1 N 0 −1 −2 3 2 1 0 −1 Y −2 −2 −1 X 1 0 2 a 2 a 1 3 b 1 b 2 Figura 3. DCV. como la dimensi´ on es peque˜ na puede hacerse directamente.        −1 −1 1 1 a1 =  − 1  a2 =  1  b 1 =  − 1  b 2 =  1  0 0 1 2  (3. Colocamos en Q por lo tanto el segundo y el tercer vector propio y al .3. utilizar sobre ellos el m´ etodo del vector com´ un discriminante.´ CAP´ ITULO 3. Se han marcado los puntos ai de la misma clase con una estrella y los puntos bi de la misma clase con un c´ ırculo.

Relaci´ on con PCA Como las covarianzas caracterizan las variaciones de los vectores sobre su media. las diferencias dentro de las clases est´ an en dicho plano. En cualquier caso. Sea Ker(S ) el n´ ucleo de la matriz de covarianza y B ⊥ el complemento ortogonal del subespacio diferencia B . . 0) bcom2 = b2 − P × b2 = (1. Se pueden calcular los vectores comunes bien proyectando los datos en la recta o bien rest´ andoles su proyecci´ on con P . u2 . Su complemento ortonormal (la linea recta X ) es el subespacio nulo. λ2 . . 0) acom2 = a2 − P × a2 = (−1. 3. Por otro lado.14) El m´ etodo no propone calcularlos todos (aunque aqu´ ı se haya hecho) sino hacerlo una sola vez con una muestra de entrenamiento por cada clase. el vector com´ un debe ser una combinaci´ on lineal de los vectores propios correspondientes a los valores propios nulos.4 (el otro es el opuesto). 0.  −1 1 = 0 0  0 0  Acom (3. 0) (3. es decir. cuyo an´ a lisis por componentes principales da un u ´ nico autovalor no nulo Scom = Acom × AT com cuyo autovector es (100). Sean u1 . En efecto.13) Lo cual significa que el subespacio de rango de SW est´ a en el plano (Y. Z ). 0. que es el que se muestra en la figura 3. el vector com´ un puede ser tambi´ en extra´ ıdo restando todas las proyecciones de un vector de caracter´ ısticas sobre los vectores propios correspondientes a los valores propios no nulos. Para clasificar cualquier otro punto de prueba bastar´ ıa calcular w′ × prueba y calcular la distancia a cada uno de los vectores discriminantes antedichos. la matriz de proyecci´ on w de DCV para este caso estar´ ıa compuesta de un u ´ nico vector. 0. .15) En este ejemplo resulta trivial el an´ alisis de componentes principales de dicha matriz para proyectar los datos de entrenamiento en un subespacio de m´ axima dispersi´ on. METODOS 0 P = 0 0   0 0 1 0  0 1 (3. Al utilizarla sobre a1 y a2 lleva a dichos puntos sobre el vector discriminante (−100) mientras que al proyectar los puntos de la otra clase el resultado es (100).3. o lo que es lo mismo.4. un los correspondientes vectores propios.39 calcular P = Q × QT resulta que: ´ CAP´ ITULO 3. mientras m ≤ n. Como el vector com´ un es ortogonal a cualquier vector del subespacio diferencia. Los valores propios de la matriz de covarianza S son no negativos y pueden ser ordenados de mayor a menor: λ1 . . los valores propios no nulos de la matriz de covarianza S corresponden a los vectores que forman una base ortonormal del subespacio de diferencia B . λn . es equivalente. acom1 = a1 − P × a1 = (−1. . 0. El complemento ortogonal B ⊥ en este caso es generado por todos los vectores propios correspondientes a los valores propios nulos. all´ ı donde no hay diferencias dentro de las clases. 0) bcom1 = b1 − P × a1 = (1.

Se sugieren en [21] las siguientes ecuaciones: Ker(S ) = {x ∈ Rn×1 : Sx = 0} B ⊥ = {x ∈ Rn×1 : x. tambi´ en [21] se plantea una demostraci´ on te´ orica para los siguientes teoremas: B ⊥ ⊂ Ker(S ) (3. un } corresponden a los valores propios nulos. u2 .4: El vector com´ un a la clase de los puntos marcados con un c´ ırculo. . Por tanto {um . un } es un sistema generador del complemento ortogonal de B .5 −2 2 0 −2 Y −2 −1 X 0 1 2 3 Figura 3. b = 0 ∀b ∈ B } (3.16) El n´ ucleo de S es el espacio de todos los vectores propios correspondientes a los valores propios nulos de S .18) Ker(S ) ⊂ B ⊥ Concluyendo que: Ker(S ) = B ⊥ ⊥ De esta igualdad y recordando que B tiene dimensi´ on (n − m + 1) se deduce que los u ´ ltimos (n − m + 1) vectores propios del conjunto {u1 . A´ un m´ as. como el espacio de B tiene de dimensi´ on (m − 1) el espacio de B ⊥ tiene dimensi´ on (n − m +1). METODOS 40 3 2.17) (3. .5 0 −0. . um+1 .´ CAP´ ITULO 3.5 2 1.19) (3.5 −1 −1.5 1 N 0. Adem´ as. Manteniendo la descomposici´ on para un vector de caracter´ ısticas ai : ⊥ ai = a∗ i + ai a∗ i ∈B ⊥ a⊥ i ∈B (3. .20) Y la siguiente para acom : acom = ai − a∗ i .

As´ ı. es el primer objetivo de c´ alculo. las matrices Q = {α1 ..23) i T i i i i ⊥ donde ym = P xi y P y P son los operadores de m = QQ xm ∈ V . Se consideran. Si Rd es el espacio de muestras original. .. se deben calcular primero los vectores que generan el espacio nulo de SW . αd } es un conjunto ortonormal y {α1 .. .1– i es zm .. En particular los vectores propios normalizados αk correspondientes a los valores propios no . Sup´ ongase d > M − C . con las ecuaciones: V = S { αk | SW αk = 0 ⊥ V = S { αk | SW αk = 0 k = 1. . METODOS 3. que t´ ıpicamente es un espacio de dimensi´ on m´ as baja. Como Rd = V ⊕ V ⊥ cualquier vector d xi ´ nica descomposici´ on: m ∈ R tiene una u i i xi m = ym + zm T (3. Esta tarea es computacionalmente intratable ya que la dimensi´ on del espacio nulo puede ser muy grande. Siendo µ la media de todas las muestras y µi la media de las muestras de la clase i-´ esima.4. αr } es el conjunto de vectores propios ortonormales correspondientes a los valores propios no nulos de SW .5 escriben en [22] Cevikalp. C´ alculo de los vectores comunes discriminantes Sea un conjunto de entrenamiento compuesto de C clases donde cada clase contiene N muestras. αd }. Wilkes y Barkana utilizan las definiciones de las matrices de dispersi´ on total. Una manera m´ as eficiente es utilizar el complemento ortogonal del espacio nulo de SW .d } donde r < d es el rango de SW .22) k = r + 1.24) Lo cual necesita conocer una base de V que puede ser calculada con los vectores propios de la matriz SW . Arreglo a esta nomenclatura y a lo escrito en la secci´ on 2. que se resuelve seg´ un: i i i i zm = xi m − ym = xm − P xm (3. respectivamente.21) SB = i=1 N (µi − µ) (µi − µ)T Como la matriz de dispersi´ on total.41 ´ CAP´ ITULO 3. pues.4. . intraclase e interclase: C N i T (xi m − µ) (xm − µ) = SW + SB i T (xi m − µi ) (xm − µi ) ST = i=1 m=1 C N SW = i=1 m=1 C (3. intraclase e interclase respectivamente. Las ecuaciones 3. . Para encontrar los vectores de la proyecci´ on w ´ optima en el espacio nulo de SW se proyectan las muestras en el espacio nulo de SW para lo cual es necesario obtener los vectores de proyecci´ on utilizando los vectores propios. . Sea xi esima de la clase i-´ esima. Existe m un vector columna d-dimensional que denota la muestra m-´ un total de M = N C muestras en el conjunto de entrenamiento. El vector com´ un –en concordancia con la definici´ on dada en la secci´ on 3.19 y 3. . Neamtu. {α1 . zm = P xm = Q Q xm ∈ V ⊥ proyecci´ on ortogonal sobre V y V .4. .23 son en realidad la misma expresi´ on.r } (3. αr } y Q = {αr+1 . V es el espacio de rango de SW y V ⊥ es el espacio nulo de SW .

´ CAP´ ITULO 3. METODOS

42

nulos de SW ser´ an una base ortonormal de V . Los vectores propios pueden ser obtenidos calculando los vectores propios de la matriz AT A m´ as peque˜ na (M × M ), donde se define SW = AAT y en A se colocan agrupadamente los vectores de la misma clase, con lo que A tendr´ a la forma:
1 A = [x1 1 − µ1 . . . xN − µ1 C x2 1 − µ2 . . . xN − µC ]

(3.25)

Sean λk y vk el k -´ esimo valor propio y su correspondiente vector propio de AT A, donde k ≤ M − C . Entonces, αk = Avk ser´ a el vector propio correspondiente al k -´ esimo valor propio de SW . La proyecci´ on buscada sobre V ⊥ se archiva utilizando 3.24. As´ ı, se obtiene el mismo u ´ nico vector para todas las muestras de la misma clase:
i T i i xi com = xm − QQ xm = Q Q xm m = 1...N T

(3.26)

i = 1...C Es decir, el vector resultante de 3.26 es independiente del ´ ındice m. En [22] Cevikalp, Neamtu, Wilkes y Barkana proponen una demostraci´ on matem´ atica para justificar 3.26. Despu´ es de obtener los vectores comunes xi ecnica de Cevikalp, Neamtu, Wilkes y Barkana propone optimizar com la t´ los vectores de proyecci´ on maximizando la dispersi´ on total de los vectores comunes, buscando la W que maximice J (Wopt ) = |W T Scom W | (3.27)

donde W es una matriz cuyas columnas son los vectores wk y Scom es la matriz de dispersi´ on de los vectores comunes. Todo ello lleva –de nuevo– a aplicar PCA, esta vez a Scom . Como Scom puede ser grande (es una matriz d × d) se aplica la modificaci´ on de Eigenfaces utilizando la matriz AT A de tama˜ n o C × C , para encontrar los valores propios y los correspondientes vectores com com propios de Scom = Acom AT , siendo A una matriz d × C de la forma: com com
C Acom = [x1 com − µcom . . . xcom − µcom ]

(3.28)

Habr´ a C − 1 vectores de proyecci´ on (ya que el rango de Scom es C − 1) si todos los vectores son linealmente independientes. Si dos vectores comunes son id´ enticos las dos clases representadas por dicho vector no pueden ser distinguidas. Como los vectores de proyecci´ on ´ optima wk pertenecen al de la clase i -´ e sima son proyectados en el espacio nulo de SW , cuando los vectores de muestra xi m i , w espacio generado por los vectores wk , el vector de caracter´ ısticas Ωi = [ x1 1 . . . xm , wC −1 ] de m i los coeficientes de proyecci´ on xm , wk ser´ an independientes del indice de la muestra m. Teni´ endose Ωi = W T xi m m = 1 . . . N, i = 1...C (3.29)

Los autores de esta t´ ecnica llaman en [22] vectores discriminantes comunes a los vectores de caracter´ ısticas Ωi y son los utilizados para la clasificaci´ on de im´ agenes. El hecho de que Ωi no dependa del ´ ındice m garantiza la exactitud a la hora de reconocer las muestras del conjunto de entrenamiento. Para hacer el reconocimiento Cevikalp, Neamtu, Wilkes y Barkana proponen utilizar como matriz de proyecci´ on W y comparar con los vectores comunes discriminantes utilizando la distancia eucl´ ıdea. De manera que para una imagen de prueba xtest obtienen su respectiva Ωtest : Ωtest = W T xtest (3.30)

Compar´ andose Ωtest con los vectores discriminantes comunes Ωi , siendo el i-´ esimo m´ as pr´ oximo el que sirve para hacer la identificaci´ on. Al comparar Ωtest s´ olo con un u ´ nico vector por cada clase se presentan ventajas seg´ un [22] para tareas de reconocimiento en tiempo real. Otros m´ etodos hacen esa comparaci´ on con todos los vectores de muestra del conjunto de entrenamiento.

43

´ CAP´ ITULO 3. METODOS

3.4.5.

Sumario

Se resumen los siguientes pasos para concebir esta t´ ecnica como un algoritmo: 1. Calcular los valores propios no nulos (y sus vectores propios) de SW utilizando la matriz AT A. Agruparlos en la matriz Q. Construir con ella la matriz de proyecci´ on P = QQT . 2. Elegir cualquier vector de la muestra y proyectarlo en el espacio nulo de SW para obtener los vectores comunes. Expresi´ on 3.26. Construir con ellos su matriz de dispersi´ on Scom . 3. Calcular componentes principales con los vectores propios wk de Scom correspondientes a los valores propios no nulos utilizando la matriz AT com Acom . 4. Existen como mucho C − 1 vectores propios que corresponden a los valores propios no nulos. Utilizar dichos vectores para construir la matriz de proyecci´ on W que servir´ a para obtener los vectores de caracter´ ısticas. 5. Elegir (de nuevo) un vector de caracter´ ısticas por cada clase y proyectarlo con W , el resultado ser´ a un vector de clasificaci´ on, es decir, la proximidad con ´ el nos dir´ a la pertenencia o no a la clase. 6. Para proyectar en el espacio de los vectores de caracter´ ısticas finales habr´ a que componer la primera trasformaci´ on P con la segunda w en una sola matriz de proyecci´ on W que se utilizar´ a para proyectar los vectores de prueba en el espacio de caracter´ ısticas.

´ CAP´ ITULO 3. METODOS

44

pero debe ser estudiado por separado. En la figura 4.1. En otras bases de datos esto no es as´ ı. De manera que los vectores-imagen tendr´ an una dimensi´ on de 5600. a los cuales se les tom´ o 10 fotos en cada sesi´ on con variaciones de luz. este tipo de im´ agenes.1 pueden verse las fotos tomadas a 3 de esos 40 individuos. punto de vista y (en algunos casos) presencia o no de gafas.1. llev´ andolo a Rd con d << D.Cap´ ıtulo 4 Experimentos y resultados 4.2.face-rec. Son im´ agenes de 40 individuos diferentes. por lo que se requiere un preprocesado de la imagen donde se ((encuentre)) y se seleccione la parte donde existe la cara. En la base de datos de AT&T existen 400 im´ agenes tomadas en laboratorio entre 1992 y 1994. las m´ as grandes). Leaving one out Preparaci´ on Cada m´ etodo genera una matriz de proyecci´ on simplificando el problema de reconocer im´ agenes en RD para una dimensi´ on D muy grande. La dimensi´ on de las fotos es de 80 de alto por 70 de ancho. 45 . 4.2. Una vez proyectadas las im´ agenes de caras al espacio Rd se la clasificaci´ on puede resolverse de varias maneras. Como se ha visto durante la secci´ on 1. Los resultados que se muestran en este cap´ ıtulo se han obtenido escribiendo los m´ etodos sobre Matlab y haciendo uso de la base de datos de AT&T. El acceso a ellas (no a todas) es m´ as o menos p´ ublico y podemos encontrar referencias en [22] y otros trabajos al uso de bases de datos de im´ agenes de caras como la de Yale o la de AR (de entre las facilmente conseguibles. 4. S´ olo hablando de las recomendadas por http://www.org. ya suficientemente encuadradas. Se ha elegido ´ esta por tener un n´ umero de caras suficiente y por tener las caras centradas en la foto. Para los experimentos cuyos resultados se muestran a continuaci´ on se han considerado.4 existen muchos trabajos que afrontan este problema y se puede asumir para afrontar el reconocimiento. Base de datos de caras de AT&T Existen m´ as de una veintena de bases de datos est´ andar con im´ agenes de caras para probar cualquier algoritmo. expresi´ on facial.

luego la segunda y as´ ı sucesivamente hasta haber probado el entrenamiento y la prueba sin cada una de las diez fotos que tiene cada individuo.8950 0.9875 Cuadro 4.9000 0.0000 10 0.8371 0.9867 0.2. Un vector por cada clase. EXPERIMENTOS Y RESULTADOS 46 Figura 4. cuya proximidad para la imagen de prueba ha de entenderse como la identificaci´ on a esa clase. Resultados Considerando C el n´ umero de clases. Primero se extrajo la primera cara de cada clase.9900 15 0. Para la clasificaci´ on se ha utilizado un promediado de distancias.9829 0.9650 1.1: Leaving one out para distintos valores de C . en este caso el n´ umero de individuos diferentes.9920 30 0.9900 0. Al conjunto de entrenamiento se le extrajo una de las caras por cada clase que luego fue utilizada para probarlo.9667 0. Para cada valor de C se realiz´ o un experimento diferente por cada m´ etodo. Es decir se ha clasificado en la clase i aquella im´ agen que m´ as cerca (en promedio) estaba de las N − 1 im´ agenes de entrenamiento. 4. la implementaci´ on de Fisherface se limita a proyectar todas las im´ agenes de entrenamiento al espacio de llegada Rd .9600 0.1: Extracto de la base de datos de im´ agenes de caras de AT&T Las implementaciones de Eigenface y Discriminative Common Vector (o DCV) se han resuelto de manera que la fase de entrenamiento organizara en una matriz Ω los vectores de caracter´ ısticas de cada clase. gastando cada m´ etodo para reconocer las C caras extra´ ıdas (una por clase) durante la fase de entrenamiento.9933 20 0.CAP´ ITULO 4.8833 0. Fisherface y Discriminative Common Vector con diferentes valores para C . Por otro lado. C= Eigenface Fisherface DCV 5 0.9943 40 0.9800 0.9800 0. en el caso de la base de datos de AT&T equivale a N = 10. han sido lanzados los tres m´ etodos Eigenface.9600 1.0000 25 0.7675 0.2.2.9880 0.9825 0. Siendo N el n´ umero de im´ agenes por cada clase. Los resultados (tasa de aciertos) promediados se presentan en la tabla 4.1 y son los que se han utilizado para generar la figura 4.9867 35 0.

Conforma mayor sea la dimensi´ on mejor se reconocer´ a.2.8 DCV Fisherface Eigenface 0. EXPERIMENTOS Y RESULTADOS Leaving one out con diferentes valores C de clases 1 0. Estos resultados (que tambi´ en se pueden ver en forma de gr´ afica en la figura 4.3) han sido tambi´ en promediados ya que por cada clase se hacen 10 experimentos diferentes quitando cada . Para no abandonar esta elecci´ on a la arbitrariedad se han hecho varias pruebas cuyos resultados se presentan en la tabla 4.3. pero a partir de un cierto valor. incluso puede fijarse tomando un n´ umero de vectores propios que parezca apropiado. y por lo tanto la tasa de reconocimiento no se ver´ a aumentada. La matriz de proyecci´ on es mayor y el subespacio de llegada de dicha proyecci´ on tiene mayor dimensi´ on. la magnitud de los autovalores expresar´ a la poca informaci´ on que aportan los vectores asociados. esta reducci´ on puede hacerse de varias maneras.95 Tasa de aciertos 0. m´ as autovalores y por lo tanto m´ as autovectores. Sin embargo.2: Evoluci´ on del comportamiento de los tres m´ etodos arreglo al n´ umero de caras de entrenamiento 4. Se han probado varias cotas de varianza en relaci´ on a la suma acumulada de los autovalores.2. Cuanto m´ as porcentaje de varianza total tomamos.47 CAP´ ITULO 4.75 5 10 15 20 25 Valores de C 30 35 40 Figura 4.9 0. Dimensi´ on en el espacio de llegada Eigenface Como se ha explicado en anteriormente (p´ agina 26) el an´ alisis de los componentes principales es un algoritmo que reduce la dimensi´ on de los datos.85 0.

7675 Cuadro 4.7675 0.6 48 Cuadro 4.7325 0.2: Dimensi´ on del espacio de llegada para Eigenface.85 0.75 0.95 0.8800 35 0.8 0.5 0.9000 0.7 75% 76’25% 0. una de las 10 fotos de cada uno de los cuarenta individuos.95 144.CAP´ ITULO 4. la dimensi´ on de llegada ha podido variar.7675 0.7500 0. Esto explica que haya valores para la dimensi´ on con decimales.9667 20 0.8833 0.3 0.7625 0. EXPERIMENTOS Y RESULTADOS Porcentaje varianza Dimensi´ on Tasa de aciertos 0. Aumento de la dimensionalidad de destino arreglo al porcentaje de varianza tomado 200 180 160 Dimensionalidad de destino 140 120 100 80 60 40 76’75% 20 0 0.9600 15 0.5 81.3 pueden compararse con los obtenidos con el 80 % valor a partir del cual se ((estabiliza)) la tasa de ´ exitos con C = 40.85 Porcentaje de varianza 0.1 han sido calculados con un porcentaje del 95 % de la varianza.8257 40 0.9800 10 0. C= 0.80 5 0.65 11 0.9 0.8371 0.3: Variaci´ on de ´ exitos conforme a la dimensi´ on del espacio de llegada.95 1 Figura 4.9667 0.9800 0.9000 30 0.90 50. Los resultados mostrados en el cuadro 4.75 22.6 73’25% 0.80 33.8950 25 0.3: Cambio de dimensi´ on y tasa de aciertos seg´ un porcentaje de varianza. .4 0. Sin embargo en el cuadro 4.8950 0.9600 0. se debe a que incluso con el mismo porcentaje seg´ un los experimentos.65 0.70 16 0.

1.015. Aplicando ruido a la imagen de prueba. Se tienen dos tipos de distorsiones. Siendo C el n´ umero de clases. Ruido Degradaci´ on de la imagen Se presentan tambi´ en los resultados de leaving one out con im´ agenes ruidosas. Se ha fijado el porcentaje de varianza en el m´ etodo de Eigenface a 95 % otra vez. 4.005. Previamente se reduce la dimensi´ on con PCA a un espacio de M − C siendo N el n´ umero total de im´ agenes M = N × C equivaliendo N al n´ umero de im´ agenes por individuo. En este caso.4 (en la que tambi´ en puede verse a la izquierda la imagen original). puede verse en la figura 4. la dimensi´ on de llegada en DCV tambi´ en se ha fijado a C − 1.49 Fisherface y DCV CAP´ ITULO 4. EXPERIMENTOS Y RESULTADOS De acuerdo con [19] la dimensi´ on del espacio de llegada para la proyecci´ on seg´ un Fisherface es de C − 1.5 en la columna superior. con los experimentos sobre la base de datos de AT&T resulta M − C = 400 − 40 = 360. 15 % y 20 % como se muestra en la ilustraci´ on 4. 4.020 y 0. Con distintas varianzas 0. 15 % y 20 % respectivamente. 0. Figura 4. 0. Gausiana con media cero. 0.3. De acuerdo con [22].025.4: Ruido de sal y pimienta al 5 %. 10 %. .010.3. Sal y pimienta: Variando el porcentaje de im´ agen que se distorsiona en el 5 %. 10 %. en un espacio de R360 se aplica entrenamiento seg´ un Fisher resultando una proyecci´ on que lleva de dicho espacio a uno de C − 1 = 40 − 1 = 39 dimensiones.

Se ha expresado en la misma degradaci´ on del trazo (desde continuo hasta punteado) la progresi´ on.8 5 10 15 20 25 Valores de C 30 35 DCV 40 10 15 20 25 30 Fisherface 35 40 10 15 20 25 30 35 40 Figura 4.010. 10 %. Al igual que en la figura 4.CAP´ ITULO 4.8 5 1 0. 0. Las l´ ıneas son el resultado seg´ un la densidad del ruido 5 %. EXPERIMENTOS Y RESULTADOS 50 Figura 4.3. Las cruces marcan el comportamiento del m´ etodo con im´ agenes sin ruido. 4. Sal y pimienta 1 Eigenface 0. 0. cien por cien de aciertos). la superior corresponde a Eigenface.005. El eje vertical representa la tasa de aciertos (siendo 1 acierto total. Fisherface y DCV. 0.6 aparecen de arriba abajo tres gr´ aficas.2. Se ha marcado con cruces el comportamiento de los m´ etodos para im´ agenes .025.8 5 Tasa de aciertos 1 0.6: Resistencia al ruido de sal y pimienta de los tres m´ etodos (de arriba a abajo) Eigenface.9 0. la del medio a Fisherface y la de abajo a DCV. Dichas gr´ aficas muestran la resistencia de los m´ etodos al ruido de sal y pimienta como se ha descrito anteriormente.9 0.9 0.2 el eje horizontal representa la variaci´ on para distintos n´ umeros de clases.015.020 y 0. Resultados Sal y pimienta En la figura 4. 15 % y 20 %.5: Ruido de gaussiana con media 0 y varianza 0.

0.020 y 0.4. Dentro de los m´ etodos de reconocimiento de caras se ha trabajado en el campo del an´ alisis estad´ ıstico multivariante y los subespacios vectoriales. El objetivo es caracterizar su eficacia en problemas simulados y su posible aplicaci´ on pr´ actica.51 CAP´ ITULO 4. EXPERIMENTOS Y RESULTADOS sin ruido.9 0.7 muestra (con la misma estructura y presentaci´ on que la figura 4. y siguiendo en [22] a sus autores para cotejarlo con otros anteriores. Utilizando muestras de bases de datos est´ andar (reconocidamente) para la resoluci´ on del problema de identificaci´ on de im´ agenes de rostros humanos. 0.005.8 5 1 0.010.6) los resultados de los distintos m´ etodos para el ruido con distribuci´ on gaussiana de media 0. Conclusiones Ha sido desarrollado. el trazo cont´ ınuo representa im´ agenes con poco ruido (un 5 % de sal y pimienta ) y conforme el trazo es m´ as discontinuo se est´ a representando el comportamiento del m´ etodo para im´ agenes de prueba con m´ as ruido (un 10 %.8 5 Tasa de aciertos 1 0. 0. La varianza se ha variado tal como se ha descrito anteriormente (o sea.8 5 10 15 20 25 Valores de C 30 35 DCV 40 10 15 20 25 30 Fisherface 35 40 10 15 20 25 30 35 40 Figura 4. Y se ha expresado en el mismo trazo de la gr´ afica el nivel de degradaci´ on al que fueron sometidas las im´ agenes de prueba.015. 4. . Ruido de gausiana 1 Eigenface 0. As´ ı.025). implementado.7: Resistencia a ruido aditivo con distribuci´ on gaussiana. probado y comparado un clasificador global para un problema de alta dimensionalidad. un 15 % y un 20 % de ruido de sal y pimienta ). 0.9 0. tomando uno de los m´ etodos m´ as recientes. Ruido con distribuci´ on gaussiana La figura 4.9 0.

Los mejores resultados de este experimento los muestra el m´ etodo de Fisherfaces.02 Gaussiana: Media 0 Varianza 0. El eje horizonal var´ ıa con el n´ umero de muestras. con 40 clases. una con cada muestra. EXPERIMENTOS Y RESULTADOS 52 Se han hecho pruebas de clasificaci´ on con 10 muestras de cada clase.8: Alteraci´ on ante el ruido en el m´ etodo de Fisherface y en el de DCV. Los resultados de estas pruebas de leaving one out muestran mejores tasas de acierto para el m´ etodo de los vectores comunes discriminantes (DCV). Los resultados del m´ etodo de DCV se muestran en trazo grueso. lo cierto es que el m´ etodo de Fisherfaces ha resultado m´ as robusto para este tipo de situaciones.005 0 0 5 10 15 20 25 30 35 40 Alteraciones ante el ruido 0.CAP´ ITULO 4. Queda pues para trabajos futuros estudiar la raz´ on de estas respuestas con m´ as detalle. Pues si bien es l´ ogico (y de acuerdo con la teor´ ıa) que Eigenface se muestre peor en general y ante este tipo de condiciones.005 0 5 10 15 20 25 Valores de C 30 35 40 Figura 4.025 0. 0. Se ha aplicado ruido de sal y pimienta y ruido con distribuci´ on gaussiana a las im´ agenes.025 de varianza. No se ha afrontado en ning´ un momento la implementaci´ on desde el punto de vista de la efi- . El ruido de sal y pimienta ha alterado especialmente los resultados del m´ etodo de Eigenfaces y tambi´ en (aunque mucho menos) los de DCV.01 0. Se ha fijado los resultados para ruido de sal y pimienta con un 20 % de densidad y para ruido con distribuci´ on gaussiana con 0 de media 0 y 0. la mejor´ ıa de DCV sobre Fisherfaces en el primer leaving one out promet´ ıa mejores comportamientos ante condiciones ruidosas. Repitiendo para cada clase el experimento 10 veces.015 Sal y pimienta: Densidad 20% 0.015 0. El aditivo de gaussiana ha resultado ser m´ as benigno para este tipo de experimentos. se ha aplicado ruido a las muestras de prueba en un segundo experimento. Entrenando al clasificador con 9 por clase y probando la restante. Aunque el error de DCV para ruido de gaussiana es comparable o incluso menor al del m´ etodo de las Fisherfaces. La implementaci´ on de los m´ etodos anteriores ha sido depurada y ajustada buscando superar a DCV Con la misma fase de entrenamiento para el clasificador.01 0.

01 Gaussiana 0. ciencia.01 0.15 0.004 0.025 0.05 0. Dise˜ nar una aplicaci´ on real atendiendo a estas cuestiones es una interesante posibilidad para un futuro inmediato. Los resultados del m´ etodo de DCV se muestran en trazo grueso.006 0.2 Figura 4. El eje horizontal var´ ıa seg´ un la cantidad de ruido a˜ nadida.004 0.9: Se ha promediado las alteraciones ante el ruido (el error producido) para todos los valores del n´ umero de clases C . .01 Sal y pimienta 0.002 0 0. Tanto para que sean capaces de generalizar mejor como en contraste con otros m´ etodos basados en subespacios que en este trabajo no se han probado as´ ıcomo en otro tipo de problemas de clasificaci´ on con dimensionalidad alta o muy alta.008 0.53 CAP´ ITULO 4.002 0 0.1 Densidad del ruido Alteraciones ante el ruido 0.015 Varianza de la gaussiana 0. no se han marcado objetivos de coste temporal ni se ha buscado optimizar los algoritmos ni el c´ odigo.005 0. es decir. Se ha establecido un punto de partida para posibles desarrollos futuros en la l´ ınea de extender los m´ etodos del vector com´ un y vectores comunes discriminantes.02 0.008 0.006 0. EXPERIMENTOS Y RESULTADOS 0.

CAP´ ITULO 4. EXPERIMENTOS Y RESULTADOS 54 .

2005. IEEE Vol 59. Webb Statistical Pattern Recognition second ed. Copyright ´ [15] Juan De Burgos Algebra lineal y geometr´ ıa cartesiana.D. second ed. Jain and Dirk Colbry Matching 2. 5 (748-760) May 1971 [7] William A. [13] Daniel Pe˜ na An´ alisis de datos. A. 2003 [3] Xiaoguang Lu.A. Phillips Face recognition: A literature survey ACM Computing Surveys. Rosenfeld and P. primera ed.J. IEEE Computer Society [4] Alessandro Colombo.Bibliograf´ ıa [1] W.U.V. L. 2002 John Wiley & [12] Brian S. Jon Krueger and Doug Kochelek Face Recognition Background Colecci´ on Conexions 2004 www. Goldstein.J. Copyright 55 . No. Claudio Cusano and Raimondo Schettini 3D face detection using curvature analysis Copyright 2005 Pattern Recognition Society Published by Elsevier B.B.cnx. N. Copyright Sons. Sudha and V. Zhao. Barret A survey of Face Recognition Algorithms and Testing Results 2000 National Biometrics Test Center Collected works [8] Erik Hjelm˚ as and Boon Kee Low Face detection: A survey Copyright 2001 Academy Press [9] Valery Starovoitov and Dmitry Bryliuk Access control by face recognition using neural networks and negative examples 2002 The 2nd international conference of Artificial Intelligence [10] Chakka Siva Sai Prasanna. Everitt and Graham Dunn Applied multivariate data analysis. Ltd. [5] Matthew Escarra. S. Copyright 2001 Arnold Publishers. Harmon and A. 18th International Conference [11] Andrew R. Anil K. 2002 McGraw-Hill Interam´ ericana 1994 Alhambra Longman 2000 McGraw Hill [14] Juan De Burgos Curso de a ´lgebra lineal y geometr´ ıa. 2003 [2] Xiaoguang Lu Image analysis for face recognition personal notes. R.5D Scans for Face Recognition 2005. Marshall Robinson. Kamakoti A principal component neural networkbased face recognition system and ASIC implementation VLSI Design. Copyright de Espa˜ na.org [6] A. Lesk Identification of human faces Proc. Chellappa.

Kirby (1987) Low-dimensional procedure for the characterizacion of human faces Journal of the Optical Society of America A. Fisherfaces: Recognition using class especific linear projection. Vakıf Dzhafarov. Jo˜ ao P. Bilginer G¨ ulmezo˘ glu. Kriegman Eigenfaces vs. (Journal of Cognitive Neuroscience ) 1991 Massachus- [18] Peter N. Copyright setts Institute of Technology. Copyright 1996 Computer Conference on Computer Vision [19] Kamran Etemad and Rama Chellappa Discriminant analysis for recognition of human face images. Marian Neamtu. Mitch Wilkes and Atalay Barkana Discriminative common vectors for face recognition Copyright 2005 IEEE Computer Society . Copyright 1997 Optical Society of America [20] M.BIBLIOGRAF´ IA 56 [16] L. 4(3). Hespanha and David J. Bilginer G¨ ulmezo˘ glu. Sirovich and M. Belhumeur. Vakıf Dzhafarov and Atalay Barkana The common vector approach and its relation to principal component analysis Copyright 2001 IEEE [22] Hakan Cevikalp. Mustafa Keskin and Atalay Barkana A novel approach to isolated word recognition Copyright 1999 IEEE [21] M. 519-524 [17] Matthew Turk and Alex Pentland Eigenfaces for Recognition.