You are on page 1of 81

UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ

Programa de Pós-Graduação em Engenharia Elétrica e Informática Industrial
DISSERTAÇÃO
apresentada à UTFPR
para obtenção do título de
MESTRE EM CIÊNCIAS
por
ANDRÉ ZANIN ROVANI

SISTEMA PARA CAPTURA AUTOMÁTICA DE IMAGENS DE ÍRIS

Banca Examinadora:
Presidente e Orientador:
Prof. Dr. Humberto Remigio Gamba

UTFPR

Examinadores:
Prof. Dr. Ogê Marques Filho
Prof. Dr. Maurizio Tazza

Curitiba, 9 de novembro de 2006

FAU - EUA
UTFPR

ANDRÉ ZANIN ROVANI

SISTEMA PARA CAPTURA AUTOMÁTICA DE IMAGENS DE ÍRIS

Dissertação apresentada ao Programa de PósGraduação em Engenharia Elétrica e Informática
Industrial da Universidade Tecnológica Federal
do Paraná, como requisito parcial para a
obtenção do título de “Mestre em Ciências” –
Área de Concentração: Informática Industrial.
Orientador: Prof. Dr. Humberto Remigio Gamba

Curitiba
2006

R873 Rovani, André Zanin
Sistema para captura automática de imagens de íris / André Zanin Rovani.
Curitiba. UTFPR, 2006
XV, 63 f. : il. ; 30 cm
Orientador: Prof. Dr. Humberto Remigio Gamba
Dissertação (Mestrado) – Universidade Tecnológica Federal do Paraná. Curso
de Pós-Graduação em Engenharia Elétrica e Informática Industrial. Curitiba,
2006.
1. Processamento de imagens – Técnicas digitais. 2. Informática industrial. 3.
Algoritmos. 4. Estrutura do olho humano. 5. Íris. 6. Pupila. 7. Biométrica. I.
Gamba, Humberto Remigio, orient. II. Universidade Tecnológica Federal do
Paraná. Curso de Pós-Graduação em Engenharia Elétrica e Informática Industrial. III. Título
CDD: 621.367

iv

Este trabalho é dedicado à Karine. iii .

.

Agradeço especialmente ao professor e orientador Dr. Karine Greice Vieira. Humberto Remigio Gamba por apoiar este projeto desde o início. Tomas Fernandes. E por fim.AGRADECIMENTOS Agradeço a minha família pelo incentivo e apoio para a conclusão desse curso. Agradeço aos revisores do trabalho Andressa Zanin Rovani. v . e Rafael Locks Lange pelas correções e pela paciência. Agradeço ao Instituto de Automação da Academia Chinesa de Ciências pelo fornecimento da base de imagens CASIA. Agradeço a todos os meus amigos que contribuíram com idéias e disponibilizaram seu tempo para a captura de imagens. agradeço a todos que de alguma forma contribuíram para a realização deste trabalho.

.

.............................................................................1................2.....xiv 1 INTRODUÇÃO...25 4..........50 5........... CÁLCULO DO CENTRÓIDE DA IMAGEM .............6.22 4.................................................. ALGORITMO DE BRESENHAM PARA CÍRCULOS.............................................. ESTIMATIVA DE FOCO ..23 4......................5 2........................51 5..........................................................................................................9.......................................................2....................... DETERMINAÇÃO DOS PARÂMETROS DA PUPILA.................................................. xii RESUMO..............1......... GERAÇÃO DO VÍDEO COM IMAGENS ARTIFICIAIS DE ÍRIS .........3............................................... DISCUSSÕES .......2 1............ TRABALHOS FUTUROS .......................................... DETERMINAÇÃO DOS PARÂMETROS DA ÍRIS ............ INTERFACE DE CONTROLE DA CAPTURA DE IMAGENS .................... TRANSFORMADA DE HOUGH.... MÉTODOS DE ESTIMATIVA DE FOCO ............27 4......................... HISTOGRAMA DA IMAGEM ....................................................................................................................4..........................................3 2........49 5............. INTRODUÇÃO .........................3......... MÉTODOS DE LOCALIZAÇÃO DE ÍRIS ..........19 4..49 5.................... OBJETIVO DO TRABALHO....................................................2......................1..........19 4...................... MÁQUINAS DE ESTADO FINITO ..............................................................................3............................................................... CÁLCULO DO GRADIENTE SOBEL ...............................3..................57 6.....3......................13 3......................30 4....37 4.......7 2.....................6........................... FILTRAGEM ESPACIAL ........... ESTRUTURA DO OLHO HUMANO....................................................................3..............................................8.9............................. VALIDAÇÃO DO MÉTODO DE CAPTURA DE IMAGENS ......................1.......61 vii ...............................................................4....................32 4....................................................... BASES DE DADOS UTILIZADAS ...................1 1.. SISTEMA DE AQUISIÇÃO DE IMAGENS ..................................................1..................7..................58 6...................................7 2..3.......................................5................. FILTRO GAUSSIANO.............................................7........................................................................3.................3....................2..............9 3 REVISÃO DA LITERATURA.......1....57 6.........................3.........2...3.......5..........................17 4 MATERIAIS E MÉTODOS ...............42 4................................................. xiii ABSTRACT............................5 2..................................... ESTIMAÇÃO DO RAIO DA PUPILA............................... PARÂMETROS DE UMA LENTE..............2......................... LIMIARIZAÇÃO DO GRADIENTE ....................................2............................3......................................3 2........................................................................3 2.............3....... MOTIVAÇÃO ......................... HISTOGRAMA.....3.........................................................2.25 4.1............................................ix LISTA DE TABELAS..............................................................1...........3..13 3................2 2 FUNDAMENTAÇÃO TEÓRICA ........ AVALIAÇÃO DO ALGORITMO DE DETECÇÃO DE FOCO ..................................................39 4...............................................8 2.................................................................................. INTRODUÇÃO ............................. ESTRUTURA DA DISSERTAÇÃO ..........24 4.1 1..............................49 5....................................43 5 RESULTADOS ..........................3.................. ESTRUTURA DO ALGORITMO DE LOCALIZAÇÃO ...... PROCESSAMENTO DO VÍDEO.SUMÁRIO LISTA DE FIGURAS .................................................................................................................. VALIDAÇÃO DA LOCALIZAÇÃO DA ÍRIS .........................1.. CONCLUSÃO ..........................8...............53 6 CONCLUSÃO .58 REFERÊNCIAS BIBLIOGRÁFICAS .........................................................13 3.........1.... TEOREMA DE BAYES ..................4..............3 2........................

viii .

.................... (a) limiar mínimo 35................................. ........................................ ...................................................29 ix ................... respectivamente....................................................... ....19 Figura 13 – Objetiva com distância focal de 100 mm utilizada para obter as imagens de íris............21 Figura 17 – Programa auxiliar desenvolvido para determinar manualmente os parâmetros das imagens da base de dados CASIA......................................... n é o índice do elemento atual do vetor............25 Figura 21 – Imagem de boa qualidade e seu respectivo histograma...................... .......................26 Figura 22 – Imagem de baixa qualidade e seu respectivo histograma.................. h é o vetor de entrada. Fonte: BDIRIS................... incrementado a cada transição de estado....21 Figura 16 – Curva de transmissão de radiação de dois modelos de filtro Hoya....24 Figura 20 – Máscaras do operador de Sobel........ h[n] é o valor atual do vetor......................................................... Na figura.....14 Figura 8 – Imagem de íris transformada de coordenadas retangulares para coordenadas polares...............................................24 Figura 19 – Máscara do filtro gaussiano utilizado na filtragem....................................................................................4 Figura 3 – Transformada de Hough.... ...............................5’’ usado para a realimentação do posicionamento para o usuário....................16 Figura 9 – Posição dos pontos pré-calculados de cada círculo com raio entre 10 e 107 pixels................................................................................................................... 256 tons de cinza................... (PRATT........................LISTA DE FIGURAS Figura 1 – Estrutura do olho humano.10 Figura 6 – Algoritmo de Bresenham para círculos...............28 Figura 25 – Máquina de estados para detecção de máximos e mínimos locais............................... (b) limiar máximo 46............................................................. ...................................................... ..... Fonte: BDIRIS................ h[n+1] é o valor do próximo elemento do vetor........9 Figura 5 – Esboço traçado pela equação da circunferência................. Dimensões: 320×240 pixels... À esquerda a curva do RM90.......................................................................................... Abaixo de cada pupila é apresentado o histograma da imagem original e o ponto onde foi aplicado o limiar de binarização..............................3 Figura 2 – Definição da profundidade de campo de uma lente ..6 Figura 4 – Exemplo de máquina de estado finito para reconhecer seqüências ímpares de números 1.............................................................................20 Figura 15 – Filtro infravermelho Hoya RM90 utilizado para impedir a entrada de luz com comprimento de onda inferior a 900 nm............ Possui CCD com 1/3 de polegada e 600 linhas de resolução horizontal..................11 Figura 7 – Círculo escuro sobre um fundo claro e seus vetores de gradiente................... .. e listamax e listamin são listas que armazenam os máximos e os mínimos.....................23 Figura 18 – Diagrama de blocos do algoritmo de detecção.............................................. (a) limiar mínimo 43.........19 Figura 12 – Câmera de vídeo utilizada no trabalho........................................................ Abaixo de cada pupila é apresentado o histograma da imagem original e o ponto onde foi aplicado o limiar de binarização.......................................... (b) limiar máximo 75...................................... 256 tons de cinza......................... ... ............. 2001) ................20 Figura 14 – Monitor de vídeo de 2.....17 Figura 10 ......26 Figura 23 – Resultado da binarização da Figura 21.....................................................18 Figura 11 – Componentes do sistema de aquisição de imagens............. ........................... Dimensões: 320×240 pixels......... e à direta a curva do modelo RM100.........Princípio de funcionamento do cálculo do foco proposto por Park & Kim (2005)..27 Figura 24 – Resultado da binarização da Figura 22.........

............................45 Figura 41 – Caixa de diálogo de captura de íris... .......33 Figura 29 – Esquerda: Imagem de uma íris onde as linhas contornam a pupila e a íris.......... e o último representa o monitor de vídeo..........bmp da base de dados CASIA.........49 x .......31 Figura 27 – Imagem de íris com seus parâmetros determinados e o quadrado delimitando a região de busca pela pupila..Esquerda: Imagem de íris 019_2_2.. O pico estreito entre 180 e 210 é causado pelo reflexo do sistema de iluminação. a busca deve ser realizada através do cálculo dos pares de gradientes.... (c) Situação de uma região de interesse que está fora de foco....................34 Figura 30 – Gráfico que apresenta a probabilidade de ocorrência de um acerto e de um erro em função da DM..32 Figura 28 – Direção dos vetores de gradiente em uma circunferência...................................................................46 Figura 42 – Imagem artificial de íris que compõe o vídeo usado para a validação do algoritmo de detecção............ ...................... distância do centro da pupila ao centro da imagem............... quadros por segundo................ ........................................... no entanto as fronteiras da íris não apresentam bordas nítidas............................... (a) Modelo da íris e as regiões de interesse...... o terceiro transforma imagens de 8 para 32 bits......... ......................... No caso em que existe mais de dois picos...................... O software permite o cadastro de pessoas e também a pesquisa de indivíduos através da íris..................... Notam-se pequenos aglomerados que podem representar as bordas da íris........35 Figura 31 ..... ................................................ o segundo é o filtro de detecção da íris.......................................... Os picos representam as bordas da íris........... Da esquerda para a direita....................Grafo DirectX do software de captura de imagens de íris......... No entanto ele não interfere na localização..... Neste caso em que aparecem apenas dois picos.............. e região de busca pelo centro da pupila......... observadas em seu diâmetro horizontal.........................38 Figura 32 – Fatia da imagem usada para fazer a detecção.. Nota-se que na grande maioria das imagens o centróide está a uma distância de quatro ou cinco pixels do centro da pupila....... .........40 Figura 34 – Derivada do vetor gerado a partir da fatia da imagem.......................................39 Figura 33 – Vetor gerado a partir da fatia da imagem......................... Em sua área cliente está o controle Windows que gera eventos contendo informações sobre os parâmetros da íris e da pupila...................Figura 26 – Comparação entre o centróide (estimativa do centro) e o centro real da pupila...........44 Figura 40 – A Caixa de Diálogo de Cadastro permite que seja tirada uma foto da pessoa......................41 Figura 36 – Princípio de funcionamento do sistema de obtenção do foco....................... o primeiro bloco representa o hardware de captura de imagens.. (b) Situação de uma região de intresse que está em foco...................... As bordas da pupila são facilmente perceptíveis........................40 Figura 35 – Resultado da detecção da íris................ e que sejam capturadas as imagens de íris....................... pois a busca pela íris inicia com um raio maior que o da pupila........... onde o nível de cinza do primeiro pico indica a média estimada da pupila.............42 Figura 37 ........................ assim como o valor estimado do foco....... ..... centróide................... Direita: Histograma da imagem da esquerda.................. Direita: Resultado da detecção de bordas através do operador de Sobel (módulo do gradiente). não existe dúvida quanto à localização da íris.....43 Figura 39 – Tela principal do aplicativo de exemplo de captura automática de imagens.............................. ..

................52 Figura 45 – Histograma de uma imagem com pupila pequena. até que a imagem ficasse completamente fora de foco.....................50 Figura 44 – Protótipo do sistema de aquisição de imagens ... próximo da câmera........................................................................................................Figura 43 – Gráfico que relaciona a freqüência de erros com o número de imagens..........54 xi ............ O experimento mostra que existem máximos nos quatro eventos realizados......................................... foi se afastando lentamente...................................53 Figura 46 – Resultado de quatro experimentos em que o candidato....... ........ Nesse histograma o primeiro máximo local que representa a pupila é tão pequeno que eventualmente é eliminado com o ruído....... .................

.4 Tabela 2 – Parcela inicial dos dados obtidos após a classificação manual das 4018 imagens da base de imagens BDIRIS............................................................................LISTA DE TABELAS Tabela 1 – Formato do CCD e suas dimensões correspondentes....................................................38 xii ....36 Tabela 3 – Desempenho da detecção da íris para limiarizações do gradiente entre 20 e 60% na base de dados CASIA..........................................

sistemas de reconhecimento de íris. que foi determinado através do estudo de 4018 imagens da base de dados BDIRIS. O outro critério é a estimativa de foco. e capturada se determinados critérios de qualidade forem satisfatórios. xiii . Para o desenvolvimento do algoritmo. sistema de iluminação. Um desses critérios é um parâmetro estatístico chamado de ‘diferença das médias’. Essas estimativas permitem que a imagem seja processada de forma rápida. como por exemplo. O método proposto baseia-se na redução do espaço de busca para que o processamento de uma imagem possa ser avaliado em tempo real (30 quadros por segundo). e uma placa de captura ligada ao computador.RESUMO Nesta dissertação propõe-se um algoritmo para capturar imagens do olho e localizar de forma automática a pupila e a íris. O algoritmo proposto tem aplicações em sistemas que utilizam as informações geométricas do olho (raio e coordenadas do centro da pupila e da íris). Por isso. O algoritmo desenvolvido foi implementado e testes revelam que o sistema captura imagens de íris em tempo real. Esses critérios permitem aceitar ou rejeitar uma imagem. realizou-se um estudo em 756 imagens da base de dados CASIA para utilizar o centróide da imagem como uma estimativa para o centro da pupila e um estudo baseado no histograma da imagem para estimar do raio da pupila. montou-se um protótipo para aquisição das imagens composto por uma câmera de vídeo. o que é essencial em um sistema de aquisição automática de imagens. que é uma medida da nitidez da borda da pupila. monitor. objetiva de 100 mm. filtro infravermelho. bastando que para isso a pessoa posicione-se corretamente diante da câmera de vídeo.

which is essential in a automatic image acquisition system. a study in 756 images of the database CASIA was done to use the centroid of the image as an estimate for the center of the pupil and a study based on the histogram of the image to estimate the radius of the pupil.ABSTRACT In this dissertation a new algorithm is considered to capture images of the eye and to locate automatically the pupil and the iris. and captured if some quality criteria become satisfactory. These criteria allow to accept or to reject an image. being enough that for this the person remains correctly positioned ahead of the video camera. xiv . One of these criteria is a statistical parameter called `difference of the averages'. monitor. infrared filter. The other criterion is the focus assessment. Therefore. and a frame grabber linked to the computer. a prototype for acquisition of the images was built. as for example iris based recognition systems. The developed algorithm was implemented and tests disclose that the system captures images of iris in real time. The considered method is based on the reduction of the search space so that the processing of an image can be evaluated in real time (30 pictures for second). 100 mm objective. lighting system. For the development of the algorithm. consisting of a video camera. The considered algorithm has applications in systems that use the geometric data of the eye (radius and coordinates of the center of the pupil and the iris). These estimates allow the images be fast processed. which is a measure of the clearness of the edge of the pupil. that was determined through the study of 4018 images of the database BDIRIS.

a facilidade de manuseio é a que mais influencia a tecnologia de reconhecimento de íris. tempo de processamento. . pois assim é possível manter o banco de dados com imagens do mesmo padrão de foco e de posicionamento. É importante também evitar que o operador do sistema decida o instante em que a imagem deve ser capturada. o assunto desta dissertação trata da forma com que a captura automática dessas imagens de íris deve ser realizada. é preciso que ela colabore. preço. Para que seja possível capturar imagens do olho de uma pessoa. Além disso.1. MOTIVAÇÃO A difusão de uma tecnologia biométrica depende de várias características: segurança. Assim. caso contrário pode elevar as taxas de falsa aceitação e falsa rejeição. A captura de imagens de boa qualidade é essencial em qualquer sistema biométrico. pode reduzir o desempenho do sistema.CAPÍTULO 1 1 INTRODUÇÃO 1. o sistema deve selecionar uma ou mais imagens do seu olho para posterior análise e comparação. No instante em que a pessoa está olhando para a câmera. 2001). E por fim. pois bastam alguns quadros com a imagem em foco e centralizada para que o mesmo seja dispensado. a taxa de falsos positivos (probabilidade da comparação de duas imagens de olhos distintos resultar em uma coincidência) é de 10 −6 . ou seja. podendo chegar a um milhão de pessoas por segundo nos processadores modernos de 3GHz. o que faz a tecnologia de comparação de íris mais confiável do que a comparação de faces ou impressões digitais (DAUGMAN. a captura automática diminui o tempo que o usuário tem que olhar fixamente para a câmera. Dessas. A comparação de imagens de íris é realizada a uma taxa de 100 mil confrontos por segundo em um computador com processador de 300 MHz. posicionando-se em frente a uma câmera de vídeo e aguardando durante alguns segundos o resultado do seu cadastro ou identificação. facilidade de manuseio.

a construção de um protótipo para aquisição de imagens. e como foi desenvolvido o algoritmo de localização automática de íris e de estimativa de foco. O processamento em tempo real permite que todas as imagens do fluxo de vídeo sejam avaliadas Como objetivos secundários têm-se o desenvolvimento de um programa auxiliar para a determinação manual de parâmetros de imagens de íris. ESTRUTURA DA DISSERTAÇÃO Esta dissertação está organizada em seis capítulos. e a geração de um vídeo simulador de imagens de íris. O Capítulo 5 descreve os resultados obtidos e o Capítulo 6 finaliza com a conclusão do trabalho. O Capítulo 2 apresenta a fundamentação teórica necessária para compreender itens específicos do trabalho. e trabalhos futuros. OBJETIVO DO TRABALHO O objetivo desse trabalho é desenvolver um sistema para captura automática de imagens de íris. 1. A captura das imagens (sob iluminação infravermelha) deve ser realizada automaticamente e em tempo real quando uma pessoa posicionar-se corretamente em frente à câmera de vídeo. O Capítulo 4 descreve como foi construído o protótipo para aquisição de imagens.3.2.2 1. discussão. O Capítulo 3 apresenta os métodos de localização de íris e de estimativa de foco existentes. . Entende-se por um posicionamento correto aquele que gera uma imagem centralizada e em foco. O Capítulo 1 apresenta a introdução ao trabalho destacando-se as motivações para o desenvolvimento e os objetivos.

Figura 1 – Estrutura do olho humano. que regula a quantidade de luz que atinge a retina. INTRODUÇÃO Este item aborda alguns conceitos preliminares que são considerados importantes para a leitura dessa dissertação. ESTRUTURA DO OLHO HUMANO A Figura 1 apresenta as três partes do olho humano relevantes para esse trabalho. 2.2.3. e o tamanho do CCD que será utilizado.1. PARÂMETROS DE UMA LENTE A distância focal é o parâmetro mais importante de uma lente. Para determinar o seu valor é necessário conhecer outras três variáveis: tamanho do objeto a ser observado. A esclera é a parte branca que envolve o olho e dá forma ao globo ocular. A íris é a parte colorida do olho. A pupila é uma abertura no centro da íris que permite a passagem da luz. O tamanho nominal do CCD é especificado em polegadas em função de sua diagonal. distância em que o objeto será observado. .CAPÍTULO 2 2 FUNDAMENTAÇÃO TEÓRICA 2. A Tabela 1 apresenta as dimensões do CCD em milímetros e o seu tamanho nominal em polegadas. 2.

Assim. a distância focal da lente será o menor valor entre os dois valores calculados (THE IMAGING SOUCE EUROPE GMBH. caso contrário o objeto encontrase fora de foco.6 9.6 4. A profundidade de campo de uma lente é a região do eixo óptico em que a imagem aparece com nitidez (Figura 2). oa é a altura do objeto.8 12. .6 3.8 6. onde ol é a largura do objeto e ccdl é a largura do CCD. Quando o objeto se encontra dentro da faixa de profundidade de campo. Quanto maior a distância focal de uma lente. 2003).2 4.4 Tabela 1 – Formato do CCD e suas dimensões correspondentes. diz-se que ele se encontra em foco.4 8.8 A equação dfa = do ⋅ ccda permite determinar a distância focal da altura dfa .4 3. oa + ccda onde do é a distância do objeto à lente. Figura 2 – Definição da profundidade de campo de uma lente A abertura é um parâmetro que define a quantidade de luz que atravessa a lente. Diagonal (polegadas) Altura (mm) Largura (mm) 1/4” 1/3” 1/2” 2/3” 1” 2. ou seja. menor a profundidade de campo. menor será a sua profundidade de campo. A profundidade de campo varia com o inverso da abertura.8 6. De forma semelhante à equação dfl = do ⋅ ccdl permite determinar a distância focal da largura ol + ccdl dfl . quanto maior a abertura. e ccda é a altura do CCD.

além de reduzirem as dimensões da imagem para valores eventualmente inadmissíveis (redução causada pelo efeito de borda). também chamado de espaço de Hough. FILTRAGEM ESPACIAL Os filtros utilizados no processamento de imagens têm a função de eliminar ruídos. A filtragem espacial é assim denominada porque a operação de filtragem é realizada no domínio do espaço (opondo-se à filtragem no domínio da freqüência. Da mesma forma um círculo pode ser representado por três parâmetros: suas coordenadas do centro e o seu raio. até que todos os pixels da imagem filtrada sejam calculados. fica estabelecida uma dualidade entre o espaço original (cartesiano) e o espaço de parâmetros. o que faz com que o espaço de Hough para uma reta tenha duas dimensões. utilizado para encontrar formas geométricas em uma imagem.5 2. o pixel em que está posicionada a máscara receberá o resultado da soma. suavizar ou enfatizar detalhes. uma matriz de coeficientes que serão utilizados para efetuar uma multiplicação ponderada com os pixels da imagem (essa multiplicação ponderada é conhecida como ‘convolução’). e a máscara será deslocada para o pixel seguinte. (GONZALEZ & WOODS.5. 5×5. TRANSFORMADA DE HOUGH A transformada de Hough é um método invariante à rotação e à translação. A filtragem consiste em posicionar a máscara sobre o primeiro pixel da imagem e efetuar a soma das multiplicações dos coeficientes da máscara pelos pixels correspondentes da imagem. que é explorado para encontrar construções geométricas como linhas ou círculos. Geralmente as máscaras são de tamanho 3×3. um segmento de reta pode ser representado por dois parâmetros: o ângulo de sua normal em relação à abscissa e a sua distância da origem. 2000) 2. Assim. Assim. Para que se possa filtrar uma imagem no domínio do espaço é necessária uma máscara. ou seja. A idéia desse método é transformar a imagem de entrada (após uma detecção de bordas) em um espaço de parâmetros. ou 7×7. mas exigem grande esforço computacional. realizada após uma transformada de Fourier). Por exemplo. A dimensão do espaço de parâmetros é proporcional ao número de parâmetros da forma geométrica que se deseja encontrar.4. Valores maiores também são possíveis. o que faz com que .

A transformada de Hough da família de curvas que passa através dos três pontos . (PRATT. Agora.6 o seu espaço de Hough tenha três dimensões. como exibido na Figura 3c mapeia ao conjunto de pontos conectados da Figura 3d. (PRATT. 2001) Como apresentado na Figura 3a. A transformada de Hough da reta é simplesmente um ponto no espaço de parâmetros. considere os três pontos colineares da Figura 3e. 2001) Figura 3 – Transformada de Hough. onde θ é ângulo da reta normal em relação à horizontal e ρ é a distância da reta à origem. A Figura 3 explica o princípio de funcionamento da transformada de Hough. Uma família de linhas passando através de um ponto em comum. como mostrado na Figura 3b. um segmento de reta pode ser descrito parametricamente como ρ = x ⋅ cosθ + y ⋅ senθ .

2. o espaço de parâmetros dos círculos possui formato de um cone tridimensional. nk é o número de pixels cujo nível de cinza corresponde a k.. Denota-se a probabilidade de ocorrência de x dada a ocorrência de y por P( x | y ) . Por definição. Cada reta mapeada para o espaço de parâmetros é considerada como um voto. onde cada ponto do cone corresponde a um círculo na imagem original. P( x. TEOREMA DE BAYES Sejam x e y dois eventos e suas respectivas probabilidades de ocorrência P( x) e P( y ) . P( x. Este é o Teorema de Bayes.6. onde n p r (rk ) é a probabilidade do k-ésimo nível de cinza. No entanto. O histograma de uma imagem pode ser calculado através da equação pr (rk ) = nk . A mesma idéia é aplicada para a detecção de círculos. k = 0. esta é a probabilidade de x condicionada a y . 1999): 2.. O número de bits utilizados para representar um pixel influencia no número de cores que a imagem pode possuir.7.7 resulta no conjunto de três curvas paramétricas no espaço polar da Figura 3f. HISTOGRAMA O histograma de uma imagem é um gráfico que mostra a probabilidade de ocorrência de uma cor. Então. e consequentemente no comprimento do histograma. y ) = P( x | y ) ⋅ P( y ) = P( y | x) ⋅ ( x) .. L-1. Uma imagem monocromática possuirá apenas um histograma. definem-se três histogramas. No caso de uma imagem colorida com três canais de cores.. ou seja. Ao mapear todos os pontos da imagem de entrada para o espaço de parâmetros. são obtidos pontos com maior número de votos. y ) é a probabilidade conjunta de x e y . n é o número total de pixels da imagem. um para cada cor. e uma imagem com 8 bits possui histograma com 256 níveis. e 0 ≤ rk ≤ 1 . Essas três curvas se cruzam em um único ponto correspondente à linha tracejada que passa através dos três pontos colineares. Todas as imagens estudadas neste trabalho possuem 256 níveis de cinza. onde L é o número de níveis de cinza da imagem digitalizada. Uma imagem de 4 bits possui o histograma com 16 níveis. também conhecidas como probabilidades a priori. que são exatamente aqueles que representam as retas na imagem de entrada. uma ferramenta . (MARQUES FILHO & VIEIRA NETO. 1.

Dada uma fita de entrada e um sinal de sincronização. O limiar de decisão obtido possui valor ótimo. que relaciona um estado e um caractere de entrada a um estado. 1} (também chamado de vetor de entrada ou seqüência de entrada. • Σ é um conjunto de caracteres permitidos no alfabeto de entrada. Organizando a igualdade tem-se o Teorema de Bayes em sua forma mais conhecida P ( x | y) = P( y | x) ⋅ P ( x) .) . δ . Existem diversas variações desse conceito. MÁQUINAS DE ESTADO FINITO Uma máquina de estados finita é uma estrutura matemática definida formalmente como uma quíntupla M = (Q. onde: • Q é um conjunto finito de estados. a máquina terá preenchido uma lista com todos os extremos detectados durante a execução. Neste trabalho foi utilizada uma máquina de estados para reconhecer extremos locais em uma seqüência de números. q0 . diz-se que a entrada é uma produção da gramática reconhecida pela máquina (BARRET & COUCH. Máquinas de estado finito são utilizadas para interpretar (ou reconhecer) gramáticas. entre eles o que permite executar uma ação durante a transição de estados. a máquina percorre os seus estados de acordo com o caractere de entrada. F ) . Neste exemplo: • O conjunto finito de estados Q é {q0. • F é um conjunto de estados finais. Ao término da seqüência. Se ao término da fita. 1979). o estado atual pertencer ao conjunto de estados finais. • δ : Q × Σ → Q é uma função de transição de estados. Σ.8. o valor que causa a menor probabilidade de erro na rejeição. 2.8 matemática usada para calcular a probabilidade a posteriori dado que se conhece a probabilidade a priori. • q0 é o estado inicial. P( y ) O Teorema de Bayes é utilizado neste trabalho para calcular o limiar de decisão para a rejeição da localização da pupila. A Figura 4 apresenta um exemplo de máquina de estado finito capaz de reconhecer seqüências ímpares de número 1. q1} • O conjunto de caracteres permitidos no alfabeto de entrada Σ é {0. ou seja.

indicando que a seqüência de entrada não contém um número ímpar de caracteres 1. a máquina poderá voltar ao estado q0. No entanto.0) = q1 . a máquina encontra-se em um estado final. 1965). δ (q0. a primeira idéia que surge é utilizar a equação da circunferência: r = ± x 2 + y 2 . Quando se trata de desenhar uma circunferência. 1) = q0 • O estado inicial é q0 • O conjunto de estados finais é {q1} 0 q0 1 1 q1 0 Figura 4 – Exemplo de máquina de estado finito para reconhecer seqüências ímpares de números 1. essa equação envolve . A mudança de estado só ocorre quando encontrar o caractere 1. 2. δ (q1.9. e foi elaborado por Bresenham em 1963 para controlar um plotter digital através do computador.9 • A função de transição de estados δ é definida por δ (q0. que é o estado final. Ao iniciar. Se o vetor de entrada terminar nesse instante. No entanto. a máquina permanece no estado q0. e enquanto os caracteres do vetor de entrada forem iguais a 0. Este algoritmo é conhecido como Algoritmo de Bresenham para Círculos (BRESENHAM. ALGORITMO DE BRESENHAM PARA CÍRCULOS Este item aborda um algoritmo que é usado em computação gráfica para determinar os pontos que formam uma circunferência.0) = q0 . o autômato encontra-se em q0. δ (q1. quando muda para o estado q1. o que significa que a seqüência de entrada é uma seqüência de números ímpares de caracteres 1. e que é usado nesse trabalho para detectar os círculos que contornam a pupila e a íris.1) = q1 . se a seqüência não terminar.

e noventa graus. aproveitando-se da simetria da circunferência em relação aos eixos de zero. estes passos devem ser executados apenas enquanto o ponto estiver localizado acima da diagonal de 45°. deixa espaços ou pixels não preenchidos ao longo do traçado da circunferência em y. Se o erro for negativo. Como o cálculo deve ser realizado apenas para o primeiro octante. Figura 5 – Esboço traçado pela equação da circunferência. Bresenham apresenta uma forma elegante e eficiente para o cálculo dos pontos que formam o traçado de uma circunferência. . Uma das características desse algoritmo é que ele determina o próximo ponto baseado na posição do ponto anterior. Para determinar a alternativa correta. o segundo ponto que melhor representa a circunferência é determinado entre três alternativas: direita. por exemplo. quando esse cálculo é realizado em função de uma coordenada.10 trigonometria e o cálculo de uma raiz quadrada. que é indesejável por envolver instruções de ponto flutuante. Além disso. como apresentado na Figura 5. enquanto y ≥ x . Se o erro for igual a zero o ponto está localizado sobre a circunferência e implica um avanço na diagonal inferior direita. basta calcular os pontos de um octante e rebatê-los para os outros sete. o ponto está dentro da circunferência e implica um avanço vertical para baixo. A Figura 6 apresenta o pseudocódigo do algoritmo de Bresenham para círculos. quarenta e cinco. calcula-se o erro de cada uma ao longo do raio. abaixo. Supondo que o primeiro ponto seja conhecido e localizado no início do segundo octante (em noventa graus). Assim. ou diagonal inferior direita. ou seja. x. para obter todos os pontos da circunferência. Se o erro for positivo a alternativa indica um ponto fora da circunferência e implica um movimento horizontal à direita.

.11 Figura 6 – Algoritmo de Bresenham para círculos.

.

1975). exceto que a detecção de . y ) ds descreve 2π ⋅ r o operador proposto. 1981.2. MÉTODOS DE LOCALIZAÇÃO DE ÍRIS Um dos métodos mais populares para localização da íris foi proposto por Daugman (2001). 3. Para determinar as fronteiras entre a esclera e a íris. para que então seja localizada a íris. * é símbolo da convolução. A motivação é que mesmo quando as pálpebras estiverem um pouco fechadas. ∫ ∂ ∂r é a notação de derivada é o símbolo da integral de linha sobre a circunferência de raio r e centro ( x0 . x . A equação max ( r . A imagem resultante é afinada (ou esqueletizada). parcial. x0 . as fronteiras laterais continuarão visíveis.1. y 0 ) e I ( x. A transformada de Hough para círculos é então aplicada à imagem e o ponto com o maior número de votos é considerado o representante dos parâmetros procurados. Outra forma de detectar os parâmetros da íris foi proposta por Wildes et al. aplica-se um detector de bordas que favorece as direções próximas da vertical. Este método é dividido em duas partes: detecção de bordas e Transformada de Hough (BALLARD. e a partir dela gera-se um espaço de três dimensões segundo os valores permitidos para o raio e as coordenadas do centro. (1994). Gσ (r ) é uma função gaussiana de suavização com desvio padrão σ . A determinação dos parâmetros da pupila é análoga. nos quais este trabalho foi baseado. no qual se utiliza um operador integral-diferencial em uma imagem suavizada por um filtro gaussiano. Este operador funciona como um detector de bordas circulares. Daugman propõe que a pupila seja localizada por primeiro. y ) = Gσ (r ) ∗ ∂∂r 0 0 ∫ r . DUDA & HART. y 0 I ( x. pois sob iluminação infravermelha (entre 700 e 900nm) as bordas da pupila são mais salientes que as bordas da íris.CAPÍTULO 3 3 REVISÃO DA LITERATURA 3. y ) é uma imagem de íris em tons de cinza. em que r é o raio do círculo procurado. INTRODUÇÃO Este item apresenta os principais estudos publicados sobre a captura de imagens de íris.

Este algoritmo é utilizado para detectar círculos escuros em fundos homogêneos mais claros. e o terceiro calcula a razão entre os componentes de borda verticais e horizontais obtidos através do algoritmo de Sobel para formar um escore. o detector de bordas de Canny (1986) é aplicado à imagem e seus componentes conectados . Assim os círculos podem ser encontrados através do centro dos grupos. (2001) apresentaram um método para a captura da íris em um vídeo em que cada quadro (ou imagem) passa por uma avaliação de qualidade antes de ser processado. Para localizar as bordas da pupila Kee et al. como na Figura 7. A quarta etapa extrai os círculos desejados da lista de candidatos gerada na etapa anterior. Considera-se que a imagem possui qualidade suficiente para ser processada se ela atingir um valor mínimo de escore. em que o centro é o ponto médio do segmento de reta que liga os vetores. Figura 7 – Círculo escuro sobre um fundo claro e seus vetores de gradiente. Quando existirem círculos escuros na imagem. e é composto por quatro etapas. Para isso os círculos candidatos são organizados na forma de triplas (centro x. (2003). Kee et al. Um algoritmo computacionalmente mais simples e que exige menos memória que a transformada de Hough foi proposto por Rad et al. os seus vetores de gradiente apontarão para fora do círculo. A avaliação da qualidade da imagem consiste em três critérios: o primeiro detecta se as pálpebras estão fechadas. centro y. o segundo verifica se a íris está centralizada. chamado de Detecção Rápida de Círculos (DRC). (2001) descrevem um algoritmo de três etapas: na primeira etapa. Na terceira etapa. A segunda etapa consiste em encontrar todos os pares de vetores de gradiente que satisfazem as seguintes condições: (i) o ângulo entre os dois vetores é igual a 180° e (ii) a reta que passa entre os dois vetores está na mesma direção dos vetores. e restrita à região composta pela parte interna da íris. raio) e agrupados segundo a distância euclidiana entre eles. e o raio é igual à metade da distância entre os vetores. um círculo candidato é considerado para cada par de vetores.14 bordas é realizada sem o favorecimento da direção vertical. A primeira etapa consiste em calcular o gradiente da imagem.

Para encontrar o centro aproximado da pupila. em que o limiar de segmentação da pupila é o valor do mínimo local entre o primeiro e o segundo máximo local. algumas linhas próximas do centro são amostradas e o vetor obtido é diferenciado (ou derivado) para que possam ser obtidos os picos que representam as bordas da íris e da pupila. a seqüência de operadores é: limiarização. é aplicada uma morfologia matemática de erosão e dilatação para fechar os espaços provenientes do reflexo da iluminação.15 são rotulados. Para detectar a íris. o algoritmo de Canny (1986) foi aplicado novamente favorecendo as bordas verticalmente direcionadas. onde s é a área da pupila e r é a maior distância entre o centróide da pupila e um r2 ponto qualquer pertencente à mesma. Na segunda etapa aplica-se a transformada de Hough para encontrar o centro da pupila. (2004) descrevem um método baseado em uma Máquina de Vetor de Suporte (THEODORIDIS & KOUTROUMBAS. e na terceira etapa os raios obtidos são agrupados e o valor médio do grupo com a maior freqüência de ocorrência é considerado o raio da pupila. Para isso. O método utilizado por Pan & Xie (2005) para detectar a pupila baseia-se na análise do histograma da imagem. detectam a pupila extraindo duas características da imagem: a área. Zhang & Li (2005) utilizaram pares de vetores de gradientes resultantes de uma detecção de bordas de Canny (1986) para a detecção da pupila. não infravermelha) determinam as bordas da pupila aplicando a seguinte seqüência de operadores morfológicos: limiarização. Após a segmentação. Dada a existência da pupila. 2003) para determinar os parâmetros da íris. dada pelo número de pixels pretos da imagem binarizada. De forma análoga são determinados os parâmetros da íris. descrito por Chen & Chung (2001). Mira Júnior & Mayer (2003) apresentaram um método essencialmente morfológico para a detecção e extração de características da íris. Para determinar os raios da íris e da pupila. dada pela equação Ic = s . Para determinar as bordas da íris. posteriormente refinada através do operador integral-diferencial de Daugman (2001). Através desses picos os respectivos raios são determinados. Detectando horizontalmente as bordas da região na imagem binária obtém-se o centro da pupila. resultando em um conjunto de pixels que formam o vetor de entrada para o algoritmo de Detecção Aleatória de Círculos. a imagem é dividida em pequenas regiões e aquela que possuir a menor soma de intensidade de pixels é considerada a região que contém a pupila. e a excentricidade. é realizada a busca pela . fechamento e abertura. Cui et al. Utilizando iluminação visível (ou seja. abertura e fechamento.

(2005) e implementado em um telefone celular com processador ARM de 300MHz. onde r é o raio e s é a área da região. que consiste em transformar a imagem do espaço de coordenadas retangulares para o espaço polar. Assim. O método de Mäenpää (2005) para detectar a pupila utiliza a limiarização global da imagem. Neste caso. o contraste e o brilho da imagem foram ajustados no conversor analógicodigital da câmera para que houvesse a maior nitidez dos pixels escuros. Da mesma forma o conversor analógico-digital é ajustado para a detecção das bordas da íris. Um algoritmo para reconhecimento de íris em tempo real foi apresentado por Cho et al. Figura 8 – Imagem de íris transformada de coordenadas retangulares para coordenadas polares. Depois de obtida a imagem binarizada. A modificação consiste em pré-calcular a disposição de alguns pontos de todos os possíveis círculos em que a íris pode estar contida. o que facilita a limiarização. que não fazem parte da pupila. o centro da pupila é determinado calculando-se o centróide da região resultante. pois esse cálculo não precisa ser efetuado em tempo de execução. Ao aplicar uma Análise Discriminante (MCLACHLAN. . Tendo os pontos calculados. a velocidade do processamento aumenta. a imagem resultante é classificada como sendo ou não uma imagem de íris. 2004). os máximos locais do histograma da imagem referentes à pupila e a esclera apresentam-se mais separados. Assim. Para detectar a pupila. utiliza-se uma limiarização global da imagem. Assim. tendo o centro da pupila posicionado na origem (Figura 8). Assim. e o raio é obtido através da equação da área do círculo r = s π .16 íris. a nitidez deve ser maior nos pixels com tons de cinza elevados. a detecção da íris é realizada aplicando-se uma versão modificada do operador integral-diferencial de Daugman (2001). aplica-se o operador morfológico de abertura para remover cílios e partes da sobrancelha. Para minimizar o erro de localização. as diferenças entre os pixels (que possivelmente estão em torno da borda da íris) são obtidas e o raio que apresentar a maior soma das diferenças é considerado como sendo o raio da íris (Figura 9).

Park & Kim (2005) utilizam um método do segundo grupo (Figura 10). o olho ficará completamente fora de foco. MÉTODOS DE ESTIMATIVA DE FOCO Os métodos de estimativa de foco podem ser classificados em dois grupos: os que utilizam toda a imagem e os que utilizam apenas uma região da imagem para obter o resultado. 3. está na região de profundidade de campo (faixa PC) do sistema óptico. Quando a pessoa está situada na faixa II. a reflexão especular apresenta-se como um pequeno ponto branco na imagem. e a reflexão especular apresenta-se como um disco branco. Quando está em frente à câmera. a pessoa pode estar situada em três faixas de distância importantes. uma imagem (ou uma região) encontra-se em foco quando as suas bordas são nítidas. As outras duas faixas são aquelas situadas à frente (faixa II) e atrás (faixa III) da região de profundidade de campo. Como a profundidade de campo dos sistemas ópticos de captura de íris é pequena (as objetivas normalmente usadas são de 50-300 mm) se o foco estiver ajustado na lente dos óculos. Intuitivamente. Uma dessas faixas é aquela em que a imagem da íris está nítida. que quando presentes na imagem geram resultado distorcido. O foco estimado da imagem é proporcional a essa relação. a imagem está fora de foco. Esta é a principal desvantagem de métodos que avaliam toda a imagem para determinar o foco. que está a uma distância aproximada de um centímetro do olho. Pessoas que usam óculos também causam problemas.17 Figura 9 – Posição dos pontos pré-calculados de cada círculo com raio entre 10 e 107 pixels. em que a região da imagem avaliada para obter o foco é a reflexão especular (causada pela retina) do sistema de iluminação da íris. Daugman (2001) estima o foco de uma imagem calculando o seu espectro de Fourier e então relacionando a quantidade de altas freqüências com as baixas. esse método é afetado por cílios e sobrancelhas. nitidamente maior que o ponto na . pois contribuem para a quantidade de altas freqüências.3. pois existe a tendência de ajustar o foco na lente dos óculos. No entanto. ou seja. Nesta região.

Princípio de funcionamento do cálculo do foco proposto por Park & Kim (2005). em que é utilizada uma lente varifocal motorizada. e a reflexão especular também se apresenta como um disco branco. .18 faixa PC. Este é o princípio de funcionamento do sistema de foco automático proposto por Park & Kim (2005). nesse caso ela possui um pequeno ponto preto central. Figura 10 . mesmo com a imagem fora de foco. Da mesma forma a imagem está fora de foco se a pessoa se encontrar na faixa III. que permite identificar. se a pessoa está muito próxima ou muito distante da faixa de profundidade de campo. Porém. que é movimentada segundo a distância da pessoa em relação à lente.

um monitor. Figura 12 – Câmera de vídeo utilizada no trabalho.com). A objetiva (Figura 13) é fabricada pela empresa Leading Optics (http://www. A câmera de vídeo (Figura 12) é fabricada pela empresa ADLER CCTV (http://www. SISTEMA DE AQUISIÇÃO DE IMAGENS O sistema de aquisição de imagens utilizado nesse trabalho é composto por uma câmera de vídeo. Possui CCD com 1/3 de polegada e 600 linhas de resolução horizontal.5’’ Figura 11 – Componentes do sistema de aquisição de imagens.CAPÍTULO 4 4 MATERIAIS E MÉTODOS 4.adlercctv. e o foco regulado para a visualização de imagens com nitidez a uma .com). A Figura 11 apresenta um diagrama de blocos com os componentes utilizados.1. modelo AYC-577F. Neste trabalho a objetiva foi ajustada para a maior abertura de íris e maior distância focal permitidas. um filtro infravermelho. Câmera AYC-577F CDD 1/3’’ Objetiva 100 mm Filtro Infravermelho RM90 Iluminação Computador Placa de Captura Monitor 2. e pela placa de iluminação. uma objetiva. Esta câmera possui um CCD fabricado pela Sony com tamanho de 1/3 de polegada e alta resolução (600 linhas horizontais). com distância focal variável entre 5 e 100 mm.leadingoptics. modelo CNE05100V.

5 polegadas (Figura 14) fixado logo abaixo da objetiva. A realimentação é realizada quando o usuário corrige a sua posição ao perceber que a sua imagem não está centralizada no monitor. Figura 14 – Monitor de vídeo de 2. que consiste em uma terceira alternativa para realimentar o posicionamento para o usuário. A profundidade de campo do sistema óptico nessa configuração fica com aproximadamente um centímetro. Para impedir a passagem de iluminação visível pela lente e permitir a passagem da luz infravermelha foi utilizado um filtro infravermelho (Figura 15). Figura 13 – Objetiva com distância focal de 100 mm utilizada para obter as imagens de íris. espelhos para orientar o usuário sobre o seu posicionamento. Alguns sistemas de aquisição utilizam avisos sonoros.20 distancia de 30 cm. . modelo RM90. outros. O filtro é fabricado pela empresa HOYA OPTICS. Nesse sistema é utilizado um monitor da marca Pustom de 2.5’’ usado para a realimentação do posicionamento para o usuário.

como mostra a Figura 16. Este filtro é um passa-baixas (ou passa-longas). Assim. modelo LD271. dispostos na forma de linha. . apenas a radiação infravermelha com comprimento de onda acima de 900 nm atinge o CCD. A placa de iluminação é composta por 4 leds infravermelhos de 5 mm. com tolerância de 50 nm para mais ou para menos. que possui freqüência de corte em 900 nanômetros. Esses leds emitem radiação infravermelha com comprimento de onda de 950 nm. Figura 16 – Curva de transmissão de radiação de dois modelos de filtro Hoya. A câmera foi ligada a um computador portátil através de uma placa de captura de vídeo PCMCIA capaz de processar imagens de tamanho 320×240 pixels em até 30 quadros por segundo no padrão NTSC. com 2 cm de separação.21 Figura 15 – Filtro infravermelho Hoya RM90 utilizado para impedir a entrada de luz com comprimento de onda inferior a 900 nm. À esquerda a curva do RM90. e à direta a curva do modelo RM100.

Por isso. A Figura 17 apresenta a tela principal desse programa auxiliar. A base de dados privada. Os parâmetros armazenados são os raios e os centros da pupila e da íris.22 4.org/casia iris. com cada pessoa contribuindo com sete imagens de ambos os olhos (três imagens de um olho e quatro de outro). larguras de janelas. . Esta base possui imagens originadas de vários modelos de câmeras. Assim. As imagens também estão em formato bitmap com 256 tons de cinza e tamanho de 320×280 pixels. é constituída por 4018 imagens provenientes de 22 pessoas. Nesses casos é interessante possuir um mecanismo para auxílio na determinação desses valores. A grande maioria dessas imagens é de orientais. níveis de iluminação.sinobiometrics. foi desenvolvido um programa que permite determinar manualmente e armazenar em um banco de dados os parâmetros das 756 imagens da base de dados CASIA. os valores para uma constante do software de detecção são determinados estatisticamente utilizando-se esses parâmetros como referência. entre outras. esse mecanismo é uma base de imagens de íris com todos os parâmetros importantes da íris pré-determinados. tamanho de máscaras de filtro. BDIRIS.2. Estão armazenadas no formato bitmap com 256 tons de cinza e com tamanho de 320×240 pixels.htm) e é constituída por 756 imagens provenientes de 108 pessoas. Neste trabalho. BASES DE DADOS UTILIZADAS No decorrer desse trabalho foram utilizadas duas bases de dados de íris: uma de domínio público e outra privada. A principal dificuldade com o processamento de imagens é definir os valores ótimos de limiarização. assim como a distância do indivíduo à lente. explicando assim a obstrução causada por cílios em algumas delas. em alguns casos. A base de dados de domínio público é conhecida como CASIA (http://www.

Então os gradientes horizontais e verticais são calculados através do método de Sobel (GONZALEZ & WOODS. limitando a busca pelo centro da pupila a uma região reduzida da imagem. No primeiro bloco a imagem é convoluída com máscaras gaussianas (RUSS. Calcula-se uma estimativa do raio através do histograma.3. a limiarização dos gradientes. o que significa que não será necessário iterar por todos os raios possíveis para que ele seja encontrado.23 Figura 17 – Programa auxiliar desenvolvido para determinar manualmente os parâmetros das imagens da base de dados CASIA. No terceiro bloco calcula-se o histograma da imagem. Nos próximos itens cada um desses blocos será explicado com detalhes. o raio da pupila é estimado e o centróide da imagem calculado. Na seqüência é realizada a procura pela pupila. que será utilizado posteriormente para diversas considerações. a busca pela íris. 1998) de tamanho 5×5. . Neste ponto é possível reduzir o espaço tridimensional de busca pela pupila. Calcula-se uma estimativa do centro da pupila através do centróide (ou centro de massa) da imagem binarizada. 4. Através do histograma. e no último bloco o foco da imagem é estimado. ESTRUTURA DO ALGORITMO DE LOCALIZAÇÃO O algoritmo de localização é composto pelos blocos da Figura 18. 2000).

através de uma convolução de uma máscara com a imagem. FILTRO GAUSSIANO O filtro gaussiano é aplicado no domínio do espaço. causados pelo ruído.24 Figura 18 – Diagrama de blocos do algoritmo de detecção. A máscara utilizada possui os valores apresentados na Figura 19. O tratamento de bordas realizado na imagem resultante é feito com o preenchimento dos valores da imagem original. . Figura 19 – Máscara do filtro gaussiano utilizado na filtragem. O objetivo da aplicação desse filtro é suavizar a imagem para evitar a presença de picos nos valores de gradiente. 4.3. conforme sugerido por Russ (1998).1.

Apesar dos resultados apresentados por esse método serem superiores (pois ele detecta os componentes conectados das bordas) aos do operador de Sobel.25 O tamanho dessa máscara assim como a variância da função gaussiana foi selecionado empiricamente. HISTOGRAMA DA IMAGEM Neste bloco é gerado o histograma da imagem. CÁLCULO DO GRADIENTE SOBEL O operador de Sobel (GONZALEZ & WOODS.3. Pelo histograma de uma imagem de íris é possível inferir algumas características.3. Na implementação desse operador foi feita uma simplificação em que ao invés de calcular a distância euclidiana para obter o valor do módulo em um determinado ponto da imagem. No entanto. O primeiro máximo. de forma a não comprometer o tempo de processamento e o tamanho resultante da imagem. Como apresentado na Figura 21. pois é de rápido processamento. 2000) é composto pelas máscaras de convolução apresentadas na Figura 20. nem sempre as imagens são de boa qualidade e com freqüência encontra-se imagens de baixo contraste como aquela ilustrada na Figura 22. O segundo máximo apresenta uma variância maior que o primeiro e é constituído em sua maioria pelos pixels que formam a íris. 1986).3. Uma alternativa para detectar as bordas da pupila seria a utilização do operador de Canny (CANNY. o contraste e a média dos níveis de cinza da pupila. Esse operador é utilizado para detectar os gradientes horizontais e verticais da imagem de íris. com um nível de cinza menor e nitidamente mais isolado dos outros é formado essencialmente pelos pixels pertencentes à pupila. o histograma de uma imagem de íris de boa qualidade apresenta dois máximos locais com um mínimo local bem característico entre eles. a escolha pelo último foi mantida. considerou-se o módulo como sendo apenas a soma dos valores do gradiente na horizontal e vertical. 4. como por exemplo. O histograma .2. Figura 20 – Máscaras do operador de Sobel 4.

26 dessa imagem continua apresentando os dois máximos locais referidos anteriormente. Ainda. Além disso. quando a imagem é binarizada e utilizando-se como limiar o menor valor entre os dois picos. observa-se que o nível de cinza do primeiro máximo local é. aproximadamente. Sendo assim. porém eles não têm a evidência que os máximos da Figura 21 apresentam. o resultado é uma imagem que contém apenas a pupila. Fonte: BDIRIS. Dimensões: 320×240 pixels. ou seja. Figura 22 – Imagem de baixa qualidade e seu respectivo histograma. não existe o mínimo local citado anteriormente. Fonte: BDIRIS. Dimensões: 320×240 pixels. a média do conjunto de pixels que constituem a pupila. 256 tons de cinza. seus valores máximos são baixos em relação aos outros picos da imagem e não apresentam uma fronteira nítida de separação. . 256 tons de cinza. Figura 21 – Imagem de boa qualidade e seu respectivo histograma.

pois a busca deixa de ser feita por todo o intervalo possível em que se pode encontrar o raio da pupila.27 4. ESTIMAÇÃO DO RAIO DA PUPILA Utilizando o valor de limiar sugerido no item 4.3. Para demonstrar a importância do contraste da imagem e da separação entre os máximos locais. (a) limiar mínimo 43. para ser feita no raio estimado com uma pequena tolerância pré-definida.3 é possível obter uma estimativa da área da pupila. Na Figura 23. o que indica uma tolerância de 32 níveis de cinza para a escolha do limiar sem que a área estimada da imagem tenha uma variação significativa. Essa estimativa permite reduzir o espaço de busca por círculos candidatos a pupila. a Figura 23 e a Figura 24 fazem uma comparação entre os valores máximos e mínimos permitidos para o limiar de binarização. (b) limiar máximo 75.3. distorcida apenas pela região de reflexo e por alguns cílios um pouco mais escuros. e o máximo 75.4. o limiar mínimo de binarização é 43. Figura 23 – Resultado da binarização da Figura 21. Abaixo de cada pupila é apresentado o histograma da imagem original e o ponto onde foi aplicado o limiar de binarização. .

fica evidente que um dos parâmetros que define a qualidade de uma imagem de íris é um histograma que apresenta um mínimo local bem definido entre os máximos locais que correspondem à pupila e a íris. Além disso. sendo que a partir do nono nível a área de preto começa a aumentar significativamente. É nítida a existência de falhas periódicas em sua seqüência de valores que são causadas pelo hardware de captura de imagens. Essa análise sintática é feita pela máquina de estados apresentada na Figura 25.28 Figura 24 – Resultado da binarização da Figura 22. Considere agora o histograma de uma imagem de íris. Ao detectar extremos locais em um histograma (ou em um vetor qualquer). Assim. como aquele apresentado na Figura 21. O tamanho da janela de cinco pixels foi determinado experimentalmente. Neste momento o histograma está pronto para ser submetido a uma análise sintática para a determinação de seus extremos locais. constituindo uma faixa de 11 níveis de cinza. não existe um mínimo local bem definido para que se possa atribuir o limiar de binarização. Abaixo de cada pupila é apresentado o histograma da imagem original e o ponto onde foi aplicado o limiar de binarização. Para corrigir essas falhas aplica-se um filtro de média com uma janela de cinco pixels de lado. de forma a preencher as falhas e ao mesmo tempo não comprometer os detalhes do histograma. (b) limiar máximo 46. nota-se a existência de cinco estados (Figura 25): . que também elimina pequenos ruídos e suaviza a curva. Na Figura 24 o limiar mínimo é de 35 e o máximo 46. (a) limiar mínimo 35.

incrementado a cada transição de estado. existirão duas listas de extremos locais. h[n+1] é o valor do próximo elemento do vetor. uma de máximos e outra de mínimos. e listamax e listamin são listas que armazenam os máximos e os mínimos. que são preenchidas conforme esses extremos são detectados.adicionar(n) h[n+1]<h[n] Máximo Local Detectado listamax. Início h[n+1]=h[n] Plano início h[n+1]=h[n] h[n+1]<h[n] Plano subindo h[n+1]>h[n] h[n+1]<h[n] Máximo Local Detectado listamax. .adicionar(n) h[n+1]=h[n] Início de Plano ip = n Subindo h[n+1]>h[n] Mínimo Local Detectado listamin. Por isso existe o estado Plano Início. não se pode considerar um dos estados anteriores como o estado inicial. Após o término da execução.29 • Subindo: Ocorre quando o valor do próximo elemento do vetor de entrada é maior que o valor atual. • Plano Início: Ao iniciar o autômato. respectivamente.adicionar( (n+ip)/2 ) h[n+1]<h[n] Plano descendo h[n+1]=h[n] Figura 25 – Máquina de estados para detecção de máximos e mínimos locais. h é o vetor de entrada. n é o índice do elemento atual do vetor. h[n] é o valor atual do vetor. • Plano Descendo: Ocorre quando o valor do próximo elemento do vetor de entrada é igual ao valor atual e o estado anterior era Descendo. • Descendo: Ocorre quando o valor do próximo elemento do vetor de entrada é menor que o valor atual.adicionar( (n+ip)/2 ) h[n+1]<h[n] Descendo h[n+1]>h[n] h[n+1]=h[n] Início de Plano ip = n h[n+1]>h[n] h[n+1]>h[n] Mínimo Local Detectado listamin. que é o estado inicial e faz com que o vetor seja considerado plano até que o valor do próximo elemento do vetor cause uma mudança de estado para subindo ou descendo. Na figura. • Plano Subindo: Ocorre quando o valor do próximo elemento do vetor de entrada é igual ao valor atual e o estado anterior era Subindo.

este nível de cinza é chamado de média estimada da pupila. k ) (1) j =1 k =1 J K ∑∑ k ⋅ I ( j. Dessa forma.30 No histograma de uma imagem de íris. e ela tende a se aproximar da média real quando diminuem os reflexos na região da pupila. respectivamente. é a intersecção de todos os hiperplanos que dividem R em quantidades iguais de movimento com relação ao hiperplano. k ) j =1 k =1 J K ∑∑ I ( j. c y ) do centróide da imagem limiarizada da íris nas direções horizontal e vertical. CÁLCULO DO CENTRÓIDE DA IMAGEM Tendo determinado o limiar de binarização. Em geometria. Neste trabalho. J cx = K ∑∑ j ⋅ I ( j. o primeiro máximo local encontrado é aquele associado à pupila. os pixels que formam a pupila possuem níveis de cinza próximos ao nível de cinza em que este máximo se encontra. Dividindo-se esse valor por π e extraindo-se a raiz quadrada obtém-se o raio estimado da pupila. pode-se fazer uma analogia do nível de cinza preto de cada pixel com a densidade de massa uniforme.5. k ) (2) j =1 k =1 Nas equações (1) e (2). No caso da imagem limiarizada da pupila. Ou seja. I é a imagem limiarizada (binarizada). O número de pixels que possuem níveis de cinza abaixo desse limiar é considerado a área estimada da pupila (em pixels). k ) cy = j =1 k =1 J K ∑∑ I ( j. Quando o objeto possui densidade uniforme. pertencente a um espaço ndimensional.3. . j é a coordenada do eixo horizontal. Ao primeiro mínimo local encontrado após o máximo associado à pupila é atribuído o limiar de binarização da pupila. dada a sua geometria circular. o próximo passo é o cálculo do centróide da imagem. k é a coordenada do eixo vertical. o centróide de um objeto R. o centróide da imagem tende a se aproximar do centro da circunferência que circunscreve a pupila. o centro de massa coincide com o centróide do objeto. 4. J é a largura da imagem. As equações (1) e (2) fornecem as coordenadas (c x . e K é a altura da imagem.

conforme explicado no item 4. o eixo vertical conta o número de imagens e o horizontal indica a distância euclidiana que o centróide está do centro da pupila (em pixels). é plausível considerar o raio de busca igual a dez pixels. O número de imagens com o erro maior que dez nesse gráfico é desprezível. Nota-se que na grande maioria das imagens o centróide está a uma distância de quatro ou cinco pixels do centro da pupila. Ao observar as barras do gráfico da Figura 26. que foram limiarizadas e as coordenadas do centro da imagem determinadas manualmente. Por exemplo. Essa constante determina o raio de busca nas redondezas do centro estimado da pupila. Este gráfico é importante porque fornece uma constante para o algoritmo de localização. além do que esse erro é causado por sobrancelhas e cílios.2. mas o centro da imagem precisa ser informado a priori para que o estudo seja realizado. Os centróides foram obtidos matematicamente através da imagem binarizada. Figura 26 – Comparação entre o centróide (estimativa do centro) e o centro real da pupila. Neste gráfico. muitas vezes com o centro da pupila posicionado na parte inferior da imagem. mas nesse caso o tempo de localização aumentaria proporcionalmente ao número de pixels. Se não existisse uma estimativa para o centro. a terceira barra indica que existem 248 (de um total de 756) imagens em que a distância do centróide ao centro é de cinco pixels. a alternativa seria utilizar toda a imagem como área de busca.31 Dessa forma. . Por isso foram utilizadas as 756 imagens da base de dados CASIA. fez-se um estudo para avaliar qual a variação média entre as coordenadas do centróide e do centro da pupila. A Figura 26 apresenta o gráfico da distância do centróide ao centro da pupila versus o número de imagens.

e as coordenadas do centro da pupila são estimadas pela posição do centróide da imagem binarizada (item 4. e por Rad (2003).32 A Figura 27 apresenta uma imagem de íris em que seus parâmetros foram determinados (bordas da íris e da pupila). centralizado na posição do centróide (Figura 27). o tamanho do espaço de busca fica reduzido para 41 ⋅ 41 ⋅ 9 = 15. onde re é o raio estimado da pupila (item 4.4). para localização de círculos (item 3.3. O quadrado branco com 41 pixels de lado revela na imagem a região de busca pela pupila. ou seja.129 . o espaço de busca por esses parâmetros fica reduzido às suas estimativas.9). Para determinar o centro e o raio da pupila adaptaram-se as técnicas propostas por Bresenham (1965). Percebe-se assim que o espaço de busca diminui consideravelmente em relação à busca na imagem toda. Os limites do raio são re − 4 ≤ r ≤ re + 4 . mais de um milhão e meio de triplas possíveis. ou seja. Os limites das coordenadas do centro são os pixels que se encontram dentro de um quadrado de 41 pixels de lado.5).3. DETERMINAÇÃO DOS PARÂMETROS DA PUPILA O raio da pupila é estimado através de uma técnica baseada no histograma (item 4. a tolerância de procura pelo raio da pupila é igual a quatro pixels. O tamanho do espaço sem as estimativas para uma imagem de 320×240 pixels.4). para determinar os pontos de uma circunferência (item 2. Figura 27 – Imagem de íris com seus parâmetros determinados e o quadrado delimitando a região de busca pela pupila.3. Dessa forma. existem limites para cada uma dessas variáveis. Neste trabalho. Esta tolerância foi obtida empiricamente com o compromisso de não excluir o raio verdadeiro do intervalo e ao mesmo tempo não comprometer o desempenho do sistema.2) através de pares de vetores de gradientes. .000 . para mais ou para menos.540.6. com o raio máximo da pupila igual é 50 é de (320 − 2 ⋅ 50 ) ⋅ (240 − 2 ⋅ 50 ) ⋅ 50 = 1. Considerando-se as estimativas do centro e do raio.3. 4. uma redução de 100 vezes que se reflete no tempo de processamento da imagem.

y. 180 Cada uma das 15. e p 2 um ponto no quinto octante (ou qualquer combinação de octantes simétricos). r ) é avaliada e associada a um escore. ao contrário.33 Seja uma tripla t = ( x. ou seja. ou então rejeitar todas as candidatas no caso em que a imagem não possua simetria suficiente para a existência de . para que dois vetores sejam considerados um par é necessário que eles estejam na mesma direção e possuam sentidos opostos. O próximo passo é localizar a pupila determinando qual dessas triplas candidatas corresponde aos parâmetros da pupila presente na imagem. r ) pertencente ao espaço de busca da pupila. Então as triplas são ordenadas por ordem de maior escore e apenas as primeiras 20 triplas são armazenadas. optou-se por estabelecer uma tolerância para que a direção dos vetores seja considerada a mesma. o que impediria o sistema de executar em tempo real a 30 quadros por segundo. com valor proporcional ao número de pares de vetores encontrados. Figura 28 – Direção dos vetores de gradiente em uma circunferência.129 triplas no pior caso. y . Experimentalmente detectou-se que é comum a existência de pupilas que não formam um círculo perfeito (como por exemplo. a pupila da Figura 29). Assim. pois considerando-se um valor muito baixo pode-se descartar a tripla procurada e. pode-se afirmar que eles formam um par de vetores se d ≥ 180 o − φ ou d ≤ φ .129 triplas existentes no espaço (cada combinação possível para x. O valor 20 foi determinado empiricamente de forma a não comprometer a eficiência da localização. Conforme ilustra a Figura 28. Por isso. onde d é resto da divisão entre a diferença do ângulo de p1 e o ângulo de p 2 por 180 (resto de ∠p1 − ∠p 2 ). considerando-se um valor muito alto pode-se avaliar todas as 15. em que x e y são as coordenadas do centro e r é o raio da pupila. Através do algoritmo de Bresenham (1965) são obtidos os pontos da circunferência definida por essa tripla. definiu-se um ângulo máximo de desvio (φ) que os vetores podem ter em relação à direção radial para que sejam considerados um par. se p1 for um ponto no primeiro octante. A seguir procura-se por pares de vetores de gradiente.

Para determinar estatisticamente o valor ótimo de decisão para a DM foi desenvolvido um programa auxiliar que permitisse localizar automaticamente a pupila. para então classificar o resultado e a DM como um acerto ou um erro. está muito próxima da média dos níveis de cinza da pupila. onde o nível de cinza do primeiro pico indica a média estimada da pupila. Direita: Histograma da imagem da esquerda. significa que a média estimada. obtido através do primeiro máximo local do histograma da imagem (item 4. causada apenas por reflexos especulares (gerados pela iluminação do sistema de captura) e pelas imperfeições nas bordas da pupila. a diferença entre as duas médias será pequena.34 uma pupila. totalizando 4018 imagens.4). Neste gráfico. O resultado está apresentado no gráfico da Figura 30. efetivamente contados na imagem. a DM é representada no eixo das abscissas (em níveis de cinza) e as probabilidades de ocorrência de acertos e de erros estão indicadas na ordenada. O processamento das imagens da base BDIRIS resultou em 3575 acertos e 443 erros. . por isso definiu-se um novo parâmetro chamado de DM – módulo da diferença entre as médias. levando em consideração apenas o escore das triplas. observada no histograma da imagem (Figura 29). Se a circunferência da tripla candidata envolver corretamente a pupila. Figura 29 – Esquerda: Imagem de uma íris onde as linhas contornam a pupila e a íris. Apenas o escore da tripla não é suficiente para rejeitar uma imagem. se esse parâmetro possuir um valor baixo.3. Assim. A DM consiste no valor absoluto da subtração do valor médio dos pixels que formam a pupila do valor médio estimado da pupila.

o limiar ótimo de decisão situa-se no ponto de cruzamento das curvas. Deste modo. A Tabela 2 apresenta os dados utilizados na construção do gráfico. a probabilidade de ocorrência de um acerto é de quase 100%. O mesmo ocorre para a probabilidade de ocorrência de um erro quando a DM encontra-se acima de 15. Percebe-se que quando a DM encontra-se entre 0 e 5. O intervalo de incerteza entre 5 e 15 é onde ficará ajustado o limiar de decisão. Para não aumentar a complexidade do estudo.35 Figura 30 – Gráfico que apresenta a probabilidade de ocorrência de um acerto e de um erro em função da DM. em que o valor da DM é igual a 14. . optou-se por considerar que o custo de um falso erro é igual ao custo de um falso acerto.

032 0.995 0.000 0.000 0. Dessa forma têm-se todas as informações necessárias para obter a probabilidade a posteriori através do Teorema de Bayes (DUDA et al.987 0.005 0.000 0.000 0.000 1.000 1.625 1.000 1. igual a 89%.017 0. seu escore.000 0.999 1.005 0. 2003).967 0.000 1. e sua DM.762 0. é possível decidir .000 0.995 1.033 0.013 0. DM Probabilidade de acerto dada uma DM p( A | DM ) Probabilidade de erro dada uma DM p(E | DM ) 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 0.900 0.000 0.563 0.000 1.000 0.100 0. A probabilidade a posteriori era o que faltava para completar a decisão a favor de uma das triplas.36 Tabela 2 – Parcela inicial dos dados obtidos após a classificação manual das 4018 imagens da base de imagens BDIRIS.400 0.000 0.001 0. dado que tenha ocorrido um acerto (e também para que tenha ocorrido um erro).000 0. De forma complementar. O resultado dessa classificação manual permite obter a probabilidade de uma DM ocorrer.000 Ao dividir o número de acertos pelo total de imagens obtém-se a probabilidade de acerto a priori.438 0.000 0. A probabilidade de ocorrência de uma DM qualquer é determinada dividindo-se o número de imagens que obtiveram tal diferença pelo total de imagens. a probabilidade de erro a priori é de 11%.375 0.154 0. 2001.000 0.983 0.000 1.238 0.846 0. pois dada uma tripla candidata.968 0.000 1.600 0. THEODORIDIS & KOUTROUMBAS.

O mesmo não ocorre para a borda entre a íris e a esclera. e das probabilidades condicionais p(DM | E ) e p(E | DM ) . obtida através da classificação manual.7) tem-se que p( A | DM ) = p(DM | A) ⋅ p ( A) onde p(DM ) p( A | DM ) é a probabilidade de ocorrer um acerto dada uma diferença de médias DM. decide-se por um acerto caso p( A | DM ) ≥ p( E | DM ) ou por um erro caso p( A | DM ) < p( E | DM ) . Assim sendo. ou se nenhuma delas a representa. Na Tabela 2 percebe-se que p( A | DM ) < p( E | DM ) para DM ≥ 15 . a probabilidade de ocorrência a posteriori de um acerto é calculada a partir de sua probabilidade de ocorrência a priori. e p( DM ) é a probabilidade de ocorrência da diferença das médias DM. Os gradientes referentes aos pixels que contornam a pupila são geralmente os mais elevados da imagem. p( A) é a probabilidade de ocorrência de um acerto. A probabilidade de ocorrência a posteriori de um erro é obtida da mesma forma que para um acerto. . o que facilita a localização da pupila. Pelo Teorema de Bayes (2.37 com a menor probabilidade de erro (em que a amostra da população foi baseada na BDIRIS) qual delas representa mais corretamente a pupila. que antecede a localização da íris.3. 4. LIMIARIZAÇÃO DO GRADIENTE Esta etapa está representada pelo sétimo bloco do diagrama da Figura 18. e p(DM | A) é a probabilidade de ocorrência de uma DM dada a ocorrência de um acerto. exceto pela substituição das probabilidades p(DM ) de acerto p( A) pelas probabilidades de erro p( E ) . Assim. pode-se rejeitar imagens com a menor probabilidade erro se o valor de DM for maior ou igual a 15. p(E | DM ) = p( DM | E ) ⋅ p (E ) .7. Isto posto. pois sob iluminação infravermelha essa borda não se apresenta tão nítida quanto sob a iluminação do espectro de luz visível (Figura 31).

Esquerda: Imagem de íris 019_2_2. Para determinar esse valor. Direita: Resultado da detecção de bordas através do operador de Sobel (módulo do gradiente). valores muito baixos de gradiente devem ser evitados para que não sejam confundidos com as bordas da íris. gera-se o histograma da imagem do módulo do gradiente considerando-se o valor de corte aquele que trunca 40% desses valores. que nesse caso são considerados como sendo ruído. Nesta proposta de algoritmo o valor de corte é determinado de forma dinâmica. para facilitar a detecção da íris.bmp da base de dados CASIA. é necessário determinar um valor de corte para limiarizar os gradientes. Este procedimento elimina 40% dos menores valores de gradiente. Assim. Portanto. Tabela 3 – Desempenho da detecção da íris para limiarizações do gradiente entre 20 e 60% na base de dados CASIA.38 Figura 31 . Limiar (%) Rejeição (%) 20 25 30 35 40 45 50 55 60 3 4 4 4 3 3 3 3 3 Acertos (%) Centro Raio 90 90 91 91 91 90 91 91 90 81 81 81 81 82 81 81 81 80 . baseando-se nos parâmetros da imagem. A Tabela 3 apresenta os dados do desempenho do algoritmo para valores de corte entre 20 e 60%. Esta porcentagem é a que apresentou o maior número de íris localizadas na base de dados CASIA.

39 4. pois quanto maior a altura da ‘fatia’. no entanto as fronteiras da íris não apresentam bordas nítidas. pois parte-se do princípio de que a íris e a pupila são dois círculos concêntricos ou quase concêntricos.3. ela será suavizada e se tornará menos nítida. O primeiro passo para a detecção da íris é a seleção de uma ‘fatia’ horizontal de vinte e uma linhas da imagem na altura do centro da pupila. o que dificulta a definição de um valor de limiar.8. como apresentada na Figura 32. Para uma íris com diâmetro aproximado de 200 pixels. porém. . O próximo passo é transformar essa ‘fatia’ em um vetor (Figura 33). conhecendo-se o centro da pupila. Figura 32 – Fatia da imagem usada para fazer a detecção. experimentalmente detectou-se que uma fatia com altura de 21 pixels não compromete a nitidez da borda e é pouco sensível a ruídos. como a borda da íris é circular. A determinação desses parâmetros só é possível se a localização da pupila for bem sucedida. que será o valor do vetor naquela posição. Nota-se que as bordas entre a íris e a esclera são bastante suaves. Assim. DETERMINAÇÃO DOS PARÂMETROS DA ÍRIS A detecção da íris consiste em encontrar o raio e as coordenadas do centro da íris. Para isso. mais imune a ruídos será o resultado. calcula-se a média de cada coluna dessa fatia. As bordas da pupila são facilmente perceptíveis. principalmente na presença de reflexos de iluminação nessa região. Nessa etapa existe um compromisso entre o número de linhas que compõem a ‘fatia’ e a nitidez da borda da íris. qualquer tipo de busca pelos parâmetros da íris resume-se ao espaço delimitado pelas redondezas do centro da pupila.

pois a busca pela íris inicia com um raio maior que o da pupila. que resulta em um novo vetor. posicionadas inicialmente na coordenada x do centro da pupila. principalmente em regiões próximas das extremidades da imagem. O terceiro passo é a aplicação de um operador de derivada (ou de diferenças) nesse vetor. Figura 34 – Derivada do vetor gerado a partir da fatia da imagem. A cada iteração. No entanto ele não interfere na localização. e também que estes dados apresentam ruídos que dificultam a localização exata da íris. Notam-se pequenos aglomerados que podem representar as bordas da íris.40 Figura 33 – Vetor gerado a partir da fatia da imagem. O pico estreito entre 180 e 210 é causado pelo reflexo do sistema de iluminação. a partir do centro da pupila em direção aos extremos. Para reduzir o ruído aplica-se um filtro de média simétrico. apresentado na Figura 34. Nesta figura nota-se que as bordas da íris estão representadas por dois aglomerados próximos das posições 81 e 301. as janelas deslocam-se uma posição em sentidos . Esse filtro caracteriza-se por possuir duas janelas de média.

2001). um novo vetor é gerado. não existe dúvida quanto a posição das bordas. seleciona-se no vetor da Figura 34 (que possui ruído. Nota-se que esse gráfico é simétrico. . No entanto essa concentricidade não pode ser assumida. calcula-se os pares de vetores de gradiente para os candidatos (como explicado no item 4. portanto. Com isso.6) e atribui-se a borda da íris para o par de picos que possuir o maior escore. porém é menos distorcido pelo filtro de média simétrico) os dois máximos locais nas vizinhanças das bordas encontradas. pois na maioria das pessoas a pupila tem a tendência de deslocamento nasal e inferior em relação à íris (DAUGMAN. pois um deles representa a borda direita e o outro a esquerda. o raio da íris é calculado como a metade da distância entre as duas bordas. Figura 35 – Resultado da detecção da íris. A aplicação do filtro de média no vetor apresentado na Figura 34 gera o vetor representado pelo gráfico da Figura 35. No refinamento. Quando existem apenas dois candidatos. não existe dúvida quanto à localização da íris. quando existirem quatro. No caso em que existe mais de dois picos. se eventualmente existirem. observadas em seu diâmetro horizontal. em direção das extremidades do vetor. Os picos representam as bordas da íris. a busca deve ser realizada através do cálculo dos pares de gradientes. e a coordenada horizontal do centro como a metade da soma das posições dessas bordas. No entanto. onde o valor de cada ponto é igual à média dos valores das duas janelas. O último passo da localização da íris é o refinamento.41 opostos. Neste caso em que aparecem apenas dois picos.3. seis ou mais picos. e que apresenta picos candidatos a representarem as borda da íris. O refinamento é necessário porque o filtro de média simétrico aplicado no vetor de derivadas resulta em uma detecção em que a pupila e a íris são concêntricas. tem-se a informação aproximada de onde estão localizadas as bordas da íris. Enfim.

optou-se por desenvolver uma rotina para detectar se uma imagem do vídeo que está sendo capturado está em foco. pode-se citar aquele desenvolvido por Park & Kim (2005). Quando em foco. a profundidade de campo (região em que a imagem aparece com nitidez) do sistema óptico para captura de íris é de aproximadamente 1 cm. ESTIMATIVA DE FOCO Conforme mencionado no item 4. O foco é calculado após a localização da íris. Por isso. É difícil para uma pessoa se posicionar sem suporte exatamente a essa distância e permanecer em foco e centralizada por alguns segundos para que a sua íris seja registrada. A Figura 36 apresenta o princípio de funcionamento do sistema de obtenção de foco.9. O objetivo desse método é atribuir um valor de foco para cada imagem. (a) Modelo da íris e as regiões de interesse. (b) Situação de uma região de intresse que está em foco. e quando fora de foco esse reflexo apresenta-se com um pequeno disco. para imagens capturadas a 30 cm da lente. Nota-se que se a imagem estiver em foco. O método desenvolvido nesse trabalho baseia-se em características locais da imagem para determinar o foco.3.42 4. e nos casos em que a imagem estiver fora de foco as bordas da pupila apresentarão uma transição suave do nível de cinza da pupila para o nível da íris. e seu valor é obtido avaliando-se a nitidez das bordas verticais da pupila. Entre os métodos de estimativa de foco existentes. de forma que uma entre as diversas imagens fornecidas pela câmera possa ser selecionada. (c) Situação de uma região de interesse que está fora de foco. as bordas da pupila serão bem definidas. em que se determina o foco de uma imagem através da potência espectral obtida pela transformada de Fourier da imagem. .1. o reflexo apresenta-se como um ponto branco na imagem. Pode-se citar também o método utilizado por Daugman (2001). Figura 36 – Princípio de funcionamento do sistema de obtenção do foco. em que utilizaram o reflexo da iluminação na retina para determinar se a imagem encontra-se em foco.

INTERFACE DE CONTROLE DA CAPTURA DE IMAGENS O algoritmo de detecção foi implementado com linguagem de programação C++. Uma das grandes vantagens dessa tecnologia é a possibilidade de criação de grafos em que os seus nodos são independentes entre si. fica a cargo de um software aplicativo (escrito em qualquer linguagem de programação que suporte DirectX) montar o grafo de captura. e o monitor do microcomputador são nodos desse grafo. A interface de controle da captura de imagens desenvolvido nesse trabalho foi escrita em linguagem de programação C#.4. De fato. Da mesma forma calcula-se o foco da borda oposta. o controle desenha a imagem em sua área cliente. A mensagem enviada pelo filtro contém os valores dos parâmetros da íris e da pupila. desenha os círculos correspondentes às bordas da pupila e da íris.43 Toma-se a média de cinco (valor obtido empiricamente) pixels à esquerda da borda. os filtros de transformação. pois nos casos em que a pupila for localizada incorretamente e uma das bordas ficarem posicionada sobre uma região homogênea da imagem. e lança um evento para sinalizar a disponibilidade de uma imagem.NET. na forma de um controle Windows. comparando-se com a média de cinco pixels à direita. O menor deles é considerado o foco da imagem. o primeiro bloco representa o hardware de captura de imagens.Grafo DirectX do software de captura de imagens de íris. A interface utiliza o grafo DirectX apresentado na Figura 37 e recebe mensagens do filtro de detecção a cada instante em que uma imagem é localizada. e encapsulado na forma de um Filtro de Transformação DirectX. o dispositivo de captura. Assim. O valor absoluto da diferença dessas médias constitui o foco dessa borda. DirectX é uma tecnologia do sistema operacional Windows que permite a manipulação de vídeos e sons na forma de um grafo. Ao receber uma mensagem. o resultado será um baixo valor para o foco. inserir os filtros desejados e implementar a interface com o usuário. Figura 37 . assim como o valor estimado do foco. 4. Da esquerda para a direita. o segundo é o filtro de .

O software permite o cadastro de pessoas e também a pesquisa de indivíduos através da íris. . seleciona-se a opção de menu ‘Arquivo’ e depois ‘Cadastrar Pessoa. Assim.. foi desenvolvido um aplicativo de exemplo para demonstrar o funcionamento do sistema e realizar testes de captura. A tela principal da interface é exibida na Figura 38. cabe ao aplicativo que contém o controle capturar esse evento decidir o que fazer com os dados fornecidos. e o último representa o monitor de vídeo. exibida na Figura 39. abre-se então a caixa de diálogo de cadastro. Para realizar o cadastro.. o terceiro transforma imagens de 8 para 32 bits. Tendo assim um controle Windows.44 detecção da íris. ’. A interface possui dois casos de uso: cadastro e pesquisa. Figura 38 – Tela principal do aplicativo de exemplo de captura automática de imagens.

foto. seleciona-se a placa de captura como o dispositivo de origem. Para capturar uma imagem de íris. e que sejam capturadas as imagens de íris. Ao cadastrar uma pessoa é possível armazenar o seu nome. e capturar as imagens da íris. Clicando em um desses botões surge a caixa de diálogo de captura de íris (Figura 40). . Tanto a foto como as imagens de íris podem ser obtidas de arquivo ou capturadas a partir da câmera.45 Figura 39 – A Caixa de Diálogo de Cadastro permite que seja tirada uma foto da pessoa. e clica-se no botão “+D” para capturar imagens do olho direito e o botão “+E” para imagens do olho esquerdo.

Recebendo ou não outras imagens. Como o controle fornece diversos eventos de captura. antes de tudo é preciso que ela tenha um foco mínimo de 30 níveis de cinza (com o conjunto de lentes. Então. Os tempos utilizados nesse procedimento são configuráveis por software. assim como o valor estimado do foco. Ao obter uma imagem com essas características. e foram obtidos de forma experimental durante o desenvolvimento levando-se em consideração duas pessoas sem prática na aquisição de imagens. câmera. quadros por segundo. . quando o tempo de um segundo se esgotar a caixa de diálogo fecha-se automaticamente disponibilizando a imagem de íris capturada. e iluminação utilizado não é possível obter imagem com uma diferença de cinza maior que 45 níveis. Por isso. a caixa de diálogo é fechada automaticamente e a captura falha. é possível capturar mais imagens ou efetuar a inserção das informações no banco de dados. para obter uma imagem. aguarda-se mais um segundo por uma imagem com foco melhor ou cujo centro da pupila esteja mais próximo do centro da imagem.46 Figura 40 – Caixa de diálogo de captura de íris. Em sua área cliente está o controle Windows que gera eventos contendo informações sobre os parâmetros da íris e da pupila. é preciso selecionar aquele que contém uma imagem com parâmetros satisfatórios. por isso o valor mínimo de foco igual a 30 é uma limitação de hardware) e que o centro da pupila esteja a uma distância euclidiana máxima de 20 pixels do centro da imagem. e região de busca pelo centro da pupila. distância do centro da pupila ao centro da imagem. Se dentro de vinte segundos não for possível obter pelo menos uma imagem com parâmetros satisfatórios. centróide.

. e depois de obtida uma imagem efetua-se a busca selecionando-se a opção ‘Procurar’.47 Também é possível pesquisar uma pessoa na base de dados. clica-se no botão capturar da tela principal. Os registros encontrados são então apresentados no quadro ‘Resultado da Busca’. Para isso.

.

5. O centro da pupila coincide com o centro da íris em todos os quadros. escrito em linguagem C++. As imagens geradas são semelhantes ao modelo apresentado na Figura 41.1.CAPÍTULO 5 5 RESULTADOS 5. . VALIDAÇÃO DA LOCALIZAÇÃO DA ÍRIS A validação do algoritmo de localização está dividida em duas partes: geração do vídeo com imagens artificiais de íris e o processamento do vídeo utilizando o algoritmo de localização.1. Utilizou-se essa abordagem para criar um vídeo composto por 500 quadros de tamanho 320×240. Figura 41 – Imagem artificial de íris que compõe o vídeo usado para a validação do algoritmo de detecção. mas o raio da pupila varia a cada quadro dentro do intervalo de 20 a 62 pixels (aproximadamente entre 20 e 70% do tamanho da íris). GERAÇÃO DO VÍDEO COM IMAGENS ARTIFICIAIS DE ÍRIS Para gerar o vídeo com imagens artificiais criou-se um componente DirectX. O raio da íris permanece fixo com 90 pixels. a imagem desloca-se linearmente dentro do quadro até “colidir” com uma das paredes. Para simular movimento. quando muda de direção e continua seu movimento. que fornece imagens simulando aquelas de uma câmera.1.

1.50 5. PROCESSAMENTO DO VÍDEO O GraphEdit é um programa distribuído junto com o DirectX e tem a finalidade de simular fluxos de áudio e vídeo. Ao executar o grafo. Observa-se que existe um grande número de acertos nos raios da pupila e da íris. Com o GraphEdit criou-se um grafo (semelhante ao apresentado na Figura 37) em que o vídeo gerado encontra-se na entrada do componente que implementa o algoritmo de localização. Entre as 500 imagens. Observando-se as imagens constatou-se que esse é um erro de tendência em que o centro da íris é localizado pouco à esquerda (três pixels) de sua posição exata. e uma freqüência elevada de erros por três pixels da coordenada x da íris. assim como os erros das coordenadas de seus centros. . Figura 42 – Gráfico que relaciona a freqüência de erros com o número de imagens. em uma delas não foi possível localizar a pupila. e em outra não foi detectada a íris. Este gráfico apresenta os erros obtidos para os raios da pupila e da íris. fez-se uma comparação entre os valores reais e os obtidos através do algoritmo de localização. O resultado da comparação está apresentado na Figura 42. Como os parâmetros da pupila e da íris do vídeo artificial são conhecidos. o componente de localização processa cada quadro do vídeo e armazena as informações de localização em um arquivo. assim como em duas imagens houve o mesmo erro no raio da íris. Em duas imagens houve um erro de quatro pixels no cálculo da coordenada x.2.

51 5. as pessoas levaram em torno de 20 segundos para ter cada uma de suas íris capturadas. reduzindo o tempo de captura. Aparentemente um sistema de aquisição de imagens com teleobjetivas de zoom automático poderia corrigir essa deficiência de captura. Além disso. pois não conseguiu posicionar-se corretamente diante da câmera. tirar uma foto. o que causa grande dificuldade (principalmente quando a pessoa é portadora de astigmatismo) para fazer a sua íris entrar na região de foco da lente. capturar o olho direito e depois o olho esquerdo. Isso faz com que a captura ocorra em tempo real a uma taxa de 29 quadros por segundo. a sua imagem desloca-se para a direita. VALIDAÇÃO DO MÉTODO DE CAPTURA DE IMAGENS Foram realizados testes de captura de imagens em ambiente fechado. Durante o teste.2. Isto é plausível. pessoas habituadas a realizar este procedimento têm suas íris capturadas com mais facilidade. em que participaram 6 pessoas. . A principal dificuldade para a captura de imagens é fazer com que a pessoa centralize o seu olho na imagem e então entre em foco. sendo que três delas possuíam íris de cor clara e o restante de cor escura. ou seja. O processamento de cada quadro de 320×240 pixels levou em torno de 11 ms em um Notebook Sony Vaio SZ160P. Depois de posicionadas em frente à câmera. quando a pessoa desloca-se para a esquerda. pois a captura é realizada com o usuário sem óculos ou lentes de contato. e vice-versa. projetando-se para frente ou para trás até que uma imagem de boa qualidade possa ser gerada. contudo isso não foi avaliado nesse trabalho. Isso gera grande desconforto e uma sensação de que a correção no posicionamento não surte efeito na imagem. O teste constituiu em posicionar a pessoa em frente à câmera (sem óculos e sem lentes de contato).86 GHz. com processador Intel Centrino Duo Core 1. Portanto. uma pessoa não pôde ser cadastrada no sistema. o monitor de vídeo em que a pessoa recebe a realimentação de sua posição (Figura 43) gera imagens “espelhadas”.

o espaço de busca não contém o centro da pupila. o que impede que os parâmetros da íris sejam detectados. quando a área dessa região escura é muito grande. causando um deslocamento no centro de gravidade da imagem. A luz do sol também prejudica a captura de imagens. Consequentemente. e a radiação encontrada na luz natural. mesmo quando projetada de forma indireta. possui muitos componentes de freqüência com comprimentos de onda maiores que 900 nanômetros. No entanto. essa região escura permanece na imagem após a binarização. O motivo . O filtro infravermelho utilizado na lente possui freqüência de corte em 900 nanômetros. Produtos utilizados para pintar as pálpebras e os cílios possuem coloração muito escura sob iluminação infravermelha. ou seja. algumas pupilas tornam-se tão pequenas (com raios da ordem de 10 pixels) que não são detectadas pelo algoritmo.52 Figura 43 – Protótipo do sistema de aquisição de imagens Outro problema encontrado está relacionado com a maquiagem na região dos olhos. Ao analisar o histograma de uma imagem capturada com reflexos de luz solar percebe-se que o valor médio dos níveis de cinza da imagem aumenta e o contraste também aumenta. Ao contrário. pois são de baixa potência ou possuem poucos componentes de baixa freqüência. Quando esse deslocamento é exagerado. lâmpadas incandescentes e fluorescentes interferem pouco na aquisição.

0. O funcionamento dessa abordagem foi avaliado em um experimento com duas pessoas em que o foco da imagem foi estimado em todos os quadros com localização bem sucedida. O motivo é que os pares de vetores de gradiente não coincidem. 5. Nesse trabalho programou-se uma rotina que avalia o foco da imagem em tempo real para que seja possível armazenar a imagem automaticamente. a detecção falha. Figura 44 – Histograma de uma imagem com pupila pequena. formado pelos pixels que constituem a pupila. garantese a aquisição de uma imagem bem definida e a medida exata dos parâmetros da pupila.53 é que a área da pupila torna-se pequena e assim o pico do histograma.3.3. mas está posicionada de forma oblíqua à lente. Outro problema está relacionado com a forma geométrica da pupila. É uma premissa do algoritmo de detecção que a pupila e a íris sejam circulares (mas não necessariamente concêntricas).9. Nesse histograma o primeiro máximo local que representa a pupila é tão pequeno que eventualmente é eliminado com o ruído. fazendo que a tripla candidata à pupila seja descartada. Quando o valor da excentricidade da pupila é muito diferente de 1. torna-se também pequeno. sendo confundido com o ruído e eliminado pela suavização do histograma (Figura 44). A detecção também falha quando a pupila é circular. passando pelo valor máximo de . gerando uma projeção ortogonal elíptica da pupila em relação à lente. AVALIAÇÃO DO ALGORITMO DE DETECÇÃO DE FOCO Conforme mencionado no item 4. O experimento consiste em a pessoa posicionar o olho muito próximo da lente de captura e afastar-se lentamente na direção axial dessa lente. e o escore resultante do círculo é baixo. e sim elípticas (Figura 29). Existem pupilas que não são circulares. para que o programa de detecção da íris e da pupila tenha sucesso é fundamental que durante o processo de captura da imagem o olho esteja dentro do intervalo de profundidade de campo do sistema óptico. Dessa forma.

O gráfico gerado a partir dos dados obtidos nesse experimento está apresentado na Figura 45. Figura 45 – Resultado de quatro experimentos em que o candidato. O experimento mostra que existem máximos nos quatro eventos realizados. próximo da câmera. até que a imagem ficasse completamente fora de foco. foi se afastando lentamente. .54 foco e finalizando quando a imagem ficar completamente fora de foco.

Com o sistema de aquisição utilizado no trabalho. que não foi abordada nesse trabalho. Testes de captura em ambiente fechado foram realizados (sem a interferência da iluminação solar) com dez pessoas. Quando o teste é realizado em ambiente fechado. para então decrescer novamente. o valor mínimo de foco exigido para a captura foi ajustado para 35 níveis de cinza. significa dizer que a íris será iluminada apenas pelo sistema de iluminação infravermelha construído. e no mínimo 50 níveis entre a íris e a pupila. a imagem deve ter no mínimo 90 níveis de cinza de separação entre a esclera e a íris. condicionada a esta restrição.4 do padrão INCITS M1/030590. o que comprova a eficiência desse método. o valor do foco (em níveis de cinza) é dado pela ordenada e o número da imagem na abscissa. todas as imagens capturadas apresentaram-se em foco. Segundo as recomendações do item anexo A. que aumenta progressivamente até atingir o ponto de máximo. Para obter imagens conforme as recomendações do INCITS é necessário que a lente e a câmera sejam adequadas para operar na faixa de infravermelho. . e que a iluminação seja uniforme e com potência suficiente para causar tal contraste na imagem. Nesses termos. o maior valor de foco obtido foi de 45 níveis (como pode ser visto no gráfico da Figura 45). Empiricamente.55 Neste gráfico. Quando o olho está muito próximo da lente o foco tem um valor baixo. Uma alternativa. é realizar a captura das imagens na faixa de iluminação visível. o método de cálculo retorna um valor máximo. portanto não foi possível obter imagens como aquelas recomendadas pelo INCITS. Essas curvas mostram que quando a imagem da íris passa por um valor máximo de níveis de cinza o qual corresponde ao foco.

CAPÍTULO 6

6 CONCLUSÃO
6.1. DISCUSSÕES
Neste trabalho foi desenvolvido um sistema para a captura automática de
imagens de íris para fins biométricos. O tempo para determinar a existência de uma íris em
uma imagem e calcular os seus parâmetros assim como o seu foco ficou em torno de 11 ms
em um computador Intel Centrino Duo Core 1,86 GHz. Assim, é suficiente que uma pessoa
permaneça poucos instantes com o seu olho centralizado e no ponto focal diante da câmera
para ter a sua íris capturada. Para a detecção dos círculos referentes à pupila e à íris foi
utilizado o método de Pares de Vetores de Gradiente (RAD et. al, 1998) auxiliado pelo
algoritmo de Bresenham (1965) para círculos, como uma alternativa à Transformada de
Hough Circular (BALLARD, 1981).
Determinar a qualidade das imagens é a etapa mais difícil de ser realizada em
um sistema biométrico. Por isso foram determinadas algumas características que afetam
diretamente a qualidade assim como formas de mensurá-las, tais como a estimativa de foco e
a forma do histograma. Mesmo assim, essas características são válidas apenas para imagens
em que o olho preenche grande parte da área da imagem.
A estimativa de foco é realizada somente nos casos em que a pupila for
localizada corretamente, pois depende diretamente desses parâmetros. Por isso, esse método
não é adequado para tentar avaliar o foco antes da detecção dos parâmetros. No entanto, este
método ajuda a rejeitar algumas imagens localizadas incorretamente, naqueles casos em que o
raio da pupila é erroneamente estimado. Assim, considerando que o raio da pupila real é
maior que o da pupila estimada, pelo menos um dos estimadores de foco apresenta resultado
muito baixo, o que permite que a imagem seja rejeitada.
Também foi observado nos testes que eventualmente são capturadas imagens
no instante em que a pessoa está olhando para o lado. Isso ocorre quando o raio da pupila
torna-se muito pequeno, e é uma conseqüência do algoritmo de detecção de círculos através
de pares de vetores de gradiente. De fato, quanto menor o círculo, menos pares de gradiente
ele possui para ser avaliado. Como poucos pares de vetores são suficientes para produzir uma

58
tripla com escore alto, isso gera um falso candidato. Uma solução para esse problema é
capturar imagens de tamanho maior, como por exemplo, 640×480 pixels. Assim, o raio
mínimo admitido para a pupila seria de 30, e não 15 pixels, o que se espera que elimine o
problema, além de melhorar a qualidade das imagens.
O padrão INCITS M1/03-0590 para imagens de íris sugere que imagens de alta
qualidade devem ter 200 pixels ou mais como diâmetro da íris, o que indica uma resolução de
aproximadamente 20 pixels por milímetro. Observa-se que essa resolução é a mesma utilizada
para capturar imagens em grandes sistemas de reconhecimento de impressões digitais.
No algoritmo de detecção percebe-se um erro de tendência. A causa desse erro
é o empate do escore das triplas em todos os critérios utilizados. Assim, fica claro que seria
interessante utilizar mais um critério, dessa vez com capacidade de discriminar as triplas pela
sua posição. Atualmente, se nove triplas vizinhas possuírem o mesmo escore, a primeira delas
seria a escolhida. Um aperfeiçoamento poderia selecionar aquela que possuísse a menor
distância em relação às outras. Uma forma mais simples poderia apenas deslocar os centros
uma unidade para baixo e para a direita, considerando que este não é um erro aleatório e sim
de tendência.
6.2. CONCLUSÃO
O software para a captura automática de imagens de íris foi desenvolvido e
testado no protótipo construído e permite a captura de imagens sem a intervenção do
operador. O algoritmo de localização foi validado no simulador de íris proposto e determinou
os parâmetros de 99% das imagens avaliadas.
6.3. TRABALHOS FUTUROS
Realizar a detecção em imagens de tamanho 640×480 (tamanho VGA) permite
que o usuário tenha uma mobilidade maior, ou seja, ele não precisaria centralizar exatamente
o seu olho para realizar a captura. Além disso, a captura de imagens maiores aumenta a
qualidade da imagem e do sistema como um todo, pois tende a reduzir as taxas de falsa
aceitação e de falsa rejeição do software. Sugere-se que para processar uma imagem VGA, a
mesma seja reduzida para 320×240 e, depois de determinados, os parâmetros passem por um
refinamento na imagem de tamanho original. Infelizmente não é comum atualmente encontrar

59
placas de vídeo que capturem imagens VGA de boa qualidade a uma taxa de 30 quadros por
segundo e ainda assim disponibilizando tempo hábil para o processamento dos quadros.
Detectar pálpebras rapidamente é importante para alertar o usuário (através de
um sinal sonoro ou luminoso) para abrir ao máximo o seu olho no instante da captura. Assim
evita-se também que os cílios interfiram na detecção dos parâmetros.
Estimar o foco com diferentes níveis de iluminação e com diferentes cores de
íris é interessante por apresentar a variação do resultado em função de fatores encontrados no
dia a dia. O primeiro por influência da luz solar, e o segundo porque de fato as íris de olhos
azuis são mais escuras (do ponto de vista infravermelho) do que as de cor marrom.
Outra sugestão de trabalho futuro é aperfeiçoar o simulador de íris para que as
imagens geradas sejam mais próximas da realidade. Por exemplo, pode-se aplicar efeitos de
iluminação não uniforme, distorção por ruído, suavização de bordas, e variação de foco.

.

IBM Systems Journal. Compiler Construction: Theory and Practice. (1965). J. 1091-1096. (1981). MA. CUI. Sixth International Conference on Software Engineering. D. p. Networking and Parallel/Distributed Computing and First ACIS International Workshop on Self-Assembling Wireless Networks (SNPD/SAWN'05). 25-30. (1979). 1ª Edição. Jeju Korea. Real-Time Iris Localization for Iris Recognition in Cellular Phone.org/casia iris. WANG.sinobiometrics. University of Cambridge. Pattern Recognition. CANNY. William A. p. CASIA IRIS DATABASE. Tehchuan. 111-112.. An Efficient Randomized Algorithm for Detecting Circles. Zhenan (2004). p. p. An AppearanceBased Method for Iris Detection. p. DAUGMAN. Dal Ho. J. Volume 2. RHEE. Nº 1. Li. High Confidence Recognition of Persons by Iris Patterns. Jiali. Dae Woong (2005). Volume 13. (1986). SUN. A computational approach to edge detection. John D. Kang Ryoung. TAN. H. 69. Algorithm for computer control of a digital plotter. The Computer Laboratory. BRESENHAM. IEEE Transactions on Pattern Analysis and Machine Intelligence.htm CHEN. (2001). p. Computer Vision and Image Understanding. Tieniu. 172-191. The 6th Asian Conference on Computer Vision. John (2001). 679-698.CAPÍTULO 6 REFERÊNCIAS BIBLIOGRÁFICAS BALLARD. COUCH. Volume 8. . PARK.. 254-259. BARRET. IEEE. p. CHO. Generalizing the Hough Transform to Detect Arbitrary Shapes. E. http://www. Yunhong. Volume 4. Artificial Intelligence. Kuoliang. CHUNG. Science Research Associates Inc.

p. Editora Edgard Blücher Ltda. XVI Simpósio Brasileiro de Computação Gráfica e Processamento de Imagens. Richar O. GONZALEZ. LEE. Anexo A. John Wiley & Sons Inc. Peter E. VIEIRA NETO. MARQUES FILHO. Pattern Classification. Iris Image Interchange Format. DUDA. Joaquim de.. Geoffrey J. Processamento Digital de Imagens. (2004). Rio de Janeiro. Beijing. 11-15. Richard E. Joceli (2003). São Paulo. David G. WOODS.. Hugo (1999).. Image Feature Extraction for application of Biometric Identification of Iris: A Morphological Approach. InterNational Committee for Information Technology Standards. MAYER. STORK. ISBN: 354029431-7. MÄENPÄÄ. An Iterative Algorithm for Fast Iris Detection. p. (1975). John Wiley & Sons Inc. 177-188. Discriminant Analisys and Statistical Pattern Recognition. São Paulo. Fourth IEEE Workshop on Automatic Identification Advanced Technologies. p. (2000). Use of the Hough Transform to Detect Lines and Curves in Pictures. China.. Topi (2005). Springer Berlin.. Editora Brasport Livros. Lili.62 DUDA. p. Yillbyung (2001). Hoboken. São Carlos. BYUN. Rafael C. LEE. Volume 2256... 2ª Edição. Proceedings of the 14th Australian Joint Conference on Artificial Intelligence: Advances in Artificial Intelligence. Mei (2005). (2001). Processamento de Imagens Digitais. 127. 134-138. HART. Ogê. Richar O. XIE. KEE. MCLACHLAN. Gyundo. New Jersey. HART. IWBRS 2005. . p. MIRA JÚNIOR. Brasil. Communications of the ACM 15. Peter E. Yungcheol. The algorithm of iris image preprocessing. Kwanyong. Advances in Biometric Person Authentication: International Wokshop on Biometric Recognition Systems. INCITS M1/03-0590 (2003). 13. Improved Techniques for an Iris recognition System with High Performance. PAN.

Sydney. VII Digital Image Computing. Resarch on Iris Image Preprocessing Algorithm. 441- 444. Proceedings of the IEEE. (1997). ISBN: 084932532-3. J. Volume 35. QARAGOZLOU. Digital Image Processing: PIKS Inside. A real-time focusing algorithm for iris recognition camera. Academic Press. Lenses: Selection and Setup. Pattern Recognition. GREEN. nº 9. A System for Automated Iris Recognition. ISBN: 047137407-5. THE IMAGING SOURCE EUROPE GMBH (2003). Proceedings of the Fourth International Conference on Machine Learning and Cybernetics. Pengfei. (1994). William K. p. Proc. John Wiley & Sons. C. Navid (2003). IEEE. CRC Press LLC. KOUTROUMBAS. . KIM. Jaihie (2005). (2001). p. Kang Ryoung. Qiuming (2005). John C.. RUSS. G. 5220-5224. WILDES. (1998).1394imaging. Volume 85. David Sarnoff Research Center Inc. HSU. p. The Image Processing Handbook. PRATT. Fast Circle Detection Using Gradient Pair Vectors. 879- 887. Sergios. Princeton. L.. Iris Recognition: An Emerging Biometric Tecnology. 3ª Edição. Richard P. FAEZ. WILDES. Guangzhou-China. NJ. Richard P. IEEE Transactions on Systems.. C. S. LI.63 PARK. ZHANG. Inc. Man and Cybernetics. RAD. 2ª Edição.. ASMUTH. http://www. 3ª Edição. Konstantinos (2003). Ali Ajdari.. Karim.com THEODORIDIS.

.

ÁREAS DE CONHECIMENTO 10301038 . monitor. O algoritmo proposto tem aplicações em sistemas que utilizam as informações geométricas do olho (raio e coordenadas do centro da pupila e da íris). filtro infravermelho. Por isso. que foi determinado através do estudo de 4018 imagens da base de dados BDIRIS. O outro critério é a estimativa de foco. bastando que para isso a pessoa posicione-se corretamente diante da câmera de vídeo. tempo real. 419 . objetiva de 100 mm.RESUMO Nesta dissertação propõe-se um algoritmo para capturar imagens do olho e localizar de forma automática a pupila e a íris. sistema de iluminação. Para o desenvolvimento do algoritmo.Processamento Gráfico (Graphics) 10303006 . e capturada se determinados critérios de qualidade forem satisfatórios. Essas estimativas permitem que a imagem seja processada de forma rápida. reconhecimento de íris.Análise de Algoritmos e Complexidade de Computação 10303057 . PALAVRAS-CHAVE Biometria. Um desses critérios é um parâmetro estatístico chamado de ‘diferença das médias’. captura da íris. e uma placa de captura ligada ao computador. como por exemplo. sistemas de reconhecimento de íris. estimativa de foco. Esses critérios permitem aceitar ou rejeitar uma imagem.Metodologia e Técnicas da Computação 2006 Nº. o que é essencial em um sistema de aquisição automática de imagens. O algoritmo desenvolvido foi implementado e testes revelam que o sistema captura imagens de íris em tempo real. O método proposto baseia-se na redução do espaço de busca para que o processamento de uma imagem possa ser avaliado em tempo real (30 quadros por segundo). realizou-se um estudo em 756 imagens da base de dados CASIA para utilizar o centróide da imagem como uma estimativa para o centro da pupila e um estudo baseado no histograma da imagem para estimar do raio da pupila. que é uma medida da nitidez da borda da pupila. montou-se um protótipo para aquisição das imagens composto por uma câmera de vídeo.