Entrada de senhas com Realidade Aumentada

June 8, 2017 | Autor: Regina Coelho | Categoria: Information Security, Augmented Reality, Passwords
Share Embed


Descrição do Produto

Entrada de Senhas com Realidade Aumentada Ricardo Armengol Silva, Luís Augusto Consularo, Regina Célia Coelho Faculdade de Ciências Matemáticas, da Natureza e da Terra UNIMEP - Universidade Metodista de Piracicaba Programa de Pós Graduação em Ciência da Computação Caixa Postal 68 – 13.400-901 – Piracicaba – SP – Brasil [email protected], {laconsul, rccoelho}@unimep.br

Abstract The password authentication has become an ordinary task for all personal computer users. Banks, intranets or service providers has required mouse point-and-click password entry to avoid spywares or snoopy intruders eavesdropping on keyboard typing. This work proposes an alternative solution to password entry with augmented reality. A PC-connected webcam picture frames are segmented to identify a finger tip whose position tracking translates a virtual finger on a virtual numerical keyboard.

1. Introdução A entrada de senhas em computadores pessoais ainda permanece um problema de segurança, especialmente quando o usuário, para usar um serviço em seu computador deve utilizar o teclado para fazê-lo. Já se tornou prática comum o uso do mouse para apontar caracteres que componham uma senha, principalmente em páginas cujas entradas devam ser autenticadas. Este tipo de artifício evita que programas invasores monitorem as entradas do usuário ou cliente pelo teclado. Um dispositivo que vem se tornando bastante popular, a webcam, pode ser aplicada em soluções de entrada de senhas. Este trabalho propõe o uso de webcams como dispositivos de entrada de senhas a partir do rastreamento da posição do dedo indicador em uma superfície planar. Desta maneira, no momento da entrada da senha, uma imagem rastreada do dedo do usuário deverá tocar um teclado virtual sobre a imagem real.

2. Dispositivos e componentes As webcams têm se tornado um dispositivo de baixo custo e bastante comum em computadores pessoais ou mesmo em aplicações corporativas. Contudo, seu uso geral em computadores pessoais restringe-se a videoconferências, captura de instantâneos ou pequenos vídeos ou ainda em vigilância. Componentes ou funções de aquisição de imagens em movimento, permitindo o seu processamento em tempo-real, já são abundantes e variam entre os disponíveis em caráter gratuito e comercial. Neste trabalho utiliza-se um componente gratuito para o ambiente RAID Delphi 5.0, o VideoCap [1]. Este componente permite selecionar o dispositivo de aquisição de vídeo e também, a partir de um ponteiro para a região de memória na qual são colocados os pixels da imagem de cada quadro, processá-la e rastrear um objeto na cena. A idéia, neste caso, é rastrear o dedo indicador do usuário para que sua posição na imagem adquirida seja mapeada sobre um objeto virtual que será mostrado ao usuário na tela. Na verdade, as imagens em movimento são mapeadas como o fundo da cena virtual na qual está inserido o teclado (veja Figura 1). Este teclado ou teclas virtuais compõem uma cena virtual elaborada com uma suíte de componentes que encapsula a API gráfica OpenGL no Delphi, a GLScene [2]. Embora pouco documentada esta suíte de componentes permite que se edite ambientes virtuais hierarquicamente estruturados com elementos de iluminação, objetos, câmeras e efeitos.

53

Figura 1. Um teclado virtual mapeado sobre uma cena real, adquirida por uma webcam (modelo Webcam 3, Creative Labs).

3. Indicando onde está o indicador Os experimentos iniciais consideraram um dispositivo de interação bastante simples, uma vareta com uma pequena esfera vermelha acoplada a sua extremidade. Foi necessário utilizar um filtro de cor de pele [3] para eliminar os ruídos gerados pela limiarização da cor vermelha. Este mesmo filtro deverá ser aplicado na segmentação do dedo indicador, que servirá então como referência do espaço de interação. Para identificar qual dedo é o indicador serão reconhecidos os tamanhos e as posições relativas da mão e de seus dedos [4]. Uma vez identificada a região da imagem que contém o dedo indicador, a parte do contorno do dedo com maior curvatura deverá ser localizada e então mapeada sobre o objeto virtual [5]. Uma alternativa a este processo é a esqueletonização da mão segmentada com algoritmos rápidos de distância, tais como as distâncias Chamfer (veja Figura 2) [6]. A vantagem desta alternativa é que as extremidades podem ser mais facilmente localizadas nos esqueletos. Além disso, as distâncias Chamfer podem ser calculadas com apenas duas convoluções de pequenas máscaras sobre a imagem.

Figura 2. Esqueleto de uma mão utilizando algoritmo de distâncias Chamfer d∞.

4. O espaço de interação

54

O local onde a mão poderá ser capturada pela câmera é o espaço de interação. Por ser planar, este espaço de interação pode ser mapeado por uma homografia, restringindo espaços da imagem adquirida como teclas. Uma outra solução é utilizar a matriz de projeção da câmera obtida por um processo de calibração. Este processo requer um padrão de pontos distribuídos no espaço 3D real cujas coordenadas sejam previamente conhecidas. A matriz de projeção conhecida resolve a posição do pixel na imagem correspondente a uma coordenada 3D real. Deste modo, restringindo a posição do teclado à mesma inclinação do objeto usado na calibração é possível inferir a tecla que o usuário quer pressionar e assim, entrar com esta escolha. Esta solução permite que o teclado simulado não seja resultado de uma projeção ortográfica, mas com uma opção de projeção em perspectiva.

5. O objeto tecla ou teclado O teclado é um modelo 3D hierárquico, isto é, um grafo de cena que representa um teclado numérico de 14 teclas (10 numéricas, um ponto decimal, retrocesso, remoção e confirmação). Este modelo é implementado no GLScene como uma árvore com nodos de suporte, teclado, câmera e iluminação. Após invocada, a aplicação lança uma tela para que o usuário acione alguma de suas teclas apenas posicionando os dedos na mesa. O usuário tem como referência uma imagem real com o teclado virtual sobreposto e um toróide envolvendo alguma tecla. A cada movimento do dedo na tela, este toróide virtual se movimenta na cena virtual sobreposta ao quadro da imagem adquirida. A escolha da tecla, isto é, o evento de pressionamento ocorre quando o usuário pressiona a tecla de espaço no teclado real. Deve ser estudada a possibilidade de se usar o movimento do dedo para gerar este evento.

6. Comentários Finais Este trabalho apresentou uma experiência inicial para a solução de entrada de senhas baseada em realidade aumentada. Embora simples, pois a aplicação depende apenas de mapeamentos homográficos, foi mostrado que é possível construir um rastreamento do dedo do usuário para tomar uma ação sobre um objeto virtual, um teclado. Aplicações em segurança vêm tendo crescente interesse e a realidade virtual e aumentada, por se basear em tecnologias de interação com usuário, mostra-se uma importante fonte de soluções.

Referências [1] HUEBLER, J. TVideoCap Version 2.2 Help File. email: [email protected], Weingarten, Alemanha. 17 de maio de 2000. [2] GRANGE, E. GLSCene - OpenGL solution for Delphi. http://www.glscene.org, 1º de abril de 2004. Desde 13 de abril de 2000. [3] CHIANG, C-C.; TAI, W-K.; YANG, M-T.; HUANG, Y-T.; HUANG, C-J. A novel method for detecting lips, eyes and faces in real time. Real-Time Imaging, 9(4), p277-287, 2003. [4] LI, W.; HSU, W.; PUNG, H.K. Twins: A Practical Vision-based 3D Mouse. Real-Time Imaging, 4, p389-401, 1998. [5] OKA, K.; SATO, Y.; KOIKE, H. Real-Time Fingertip Tracking and Gesture Recognition. IEEE Computer Graphics and Applications, 6, p64-71, 2002. [6] BORGEFORS, G. Distance Transformations in Digital Images. CVGIP, 34, p344-371, 1986.

55

Lihat lebih banyak...

Comentários

Copyright © 2017 DADOSPDF Inc.