Redes Neurais Artificiais Aplicadas ao Reconhecimento de Padrão

June 3, 2017 | Autor: Vanderlei Silva | Categoria: Artificial Intelligence, Artificial Neural Networks
Share Embed


Descrição do Produto

IEEE TRANSACTIONS LATEX TEMPLATE, VOL. XX, NO. Y, NOVEMBRO 2015

100

Redes Neurais Artificiais Aplicadas ao Reconhecimento de Padr˜ao Vanderlei A. Silva, Aluno TE830

Resumo—Este trabalho apresenta uma an´alise de desempenho ´ de redes neurais artificiais do tipo perceptron de multiplas camadas, projetadas com o objetivo de reconhecimento de padr˜oes, com treinamento supervisionado do tipo backpropagation para faixas estreitas de ru´ıdo e testadas para faixas amplas de ru´ıdo. Apresenta ainda uma an´alise comparativa de desempenho entre a rede de melhor desempenho, obtida no caso anterior, e uma rede treinada para uma faixa ampla de ru´ıdo. Os resultados mostram que treinar a rede neural para faixas de ru´ıdo de intensidade mediana faz com que a rede responda bem a uma faixa ampla de ru´ıdo. Al´em disso, foi observado que n˜ao h´a melhora no desempenho da rede quando treinada para uma faixa ampla de n´ıvel de ru´ıdo, em comparac¸a˜ o com o treinamento para uma faixa estreita de ru´ıdo de m´edia intensidade. Index Terms—Redes neurais artificiais, reconhecimento de padr˜ao, inteligˆencia artificial.

˜ I. I NTRODUC¸ AO CAMPO de reconhecimento de padr˜ao est´a preocupado com a descoberta autom´atica de regularidades em dados por meio do uso de algoritmos de computador e com o uso dessas regularidades tomar ac¸o˜ es tal como classificar os dados em diferentes categorias [1]. O c´erebro humano e´ muito bom em realizar reconhecimento de padr˜ao e essa qualidade tamb´em e´ apresentada por uma rede neural artificial RNA. Para que uma RNA realize o reconhecimento de padr˜ao, ela deve ser submetida a uma sess˜ao de treinamento, em que um conjunto de padr˜oes e´ apresentado a` rede juntamente com a classe a que cada padr˜ao pertence. Depois, novos padr˜oes nunca antes vistos, mas pertencentes a mesma populac¸a˜ o utilizada para o treinamento, s˜ao apresentados a` rede. Caber´a ent˜ao a` rede identificar a classe de cada padr˜ao utilizando o conhecimento extra´ıdo dos dados de treinamento. Trata-se basicamente um problema de mapeamento. A RNA deve mapear um ponto no hiperespac¸o m-dimensional de observac¸a˜ o (dados de entrada) em um ponto no hiperespac¸o n-dimensional de decis˜ao (dados de sa´ıda). Os padr˜oes s˜ao representados por pontos no hiperespac¸o de decis˜ao. Nesse caso, o espac¸o de decis˜ao e´ dividido em regi˜oes, cada qual associada a uma classe. Os limites de decis˜ao s˜ao determinados pelo processo de treinamento. A construc¸a˜ o desses limites e´ feita estatisticamente pela variabilidade inerente que existe dentro das e entre as classes [2]. Este trabalho tem como objetivo o projeto e avaliac¸a˜ o de desempenho de RNA’s do tipo perceptron multi-camadas (do

O

Artigo elaborado como trabalho na disciplina TE830 - Inteligˆencia Artificial Aplicada, ministrada pelo Prof. Dr. Alexandre Rasi Aoki. Vanderlei A. Silva est´a com o Departamento de Engenharia El´etrica, Universidade Federal do Paran´a (UFPR), Curitiba, Paran´a, Brasil. E-mail: vander [email protected] .

inglˆes multilayer perceptron - MLP), com aprendizado supervisionado, para reconhecimento de padr˜ao a partir de n´ıveis vari´aveis de ru´ıdo no sinal de entrada. Cada rede projetada para um n´ıvel espec´ıfico de ru´ıdo ser´a ent˜ao avaliada para outros n´ıveis de ru´ıdo, para que seja ilustrado o comportamento de uma rede frente a um n´ıvel de ru´ıdo para o qual n˜ao foi projetada. ´ II. F UNDAMENTOS T E ORICOS A. M´edia Temporal e Coeficiente de Correlac¸a˜ o Para fins de aplicac [¸ a˜ o neste trabalho, considere o ]vetor T func¸a˜ o amostra x = x1 x2 . . . xm . . . xM de um processo aleat´orio. O operador m´edia temporal T {·} para esse vetor pode ser definido como: M 1 ∑ xm M →∞ M m=1

T {x} := lim

(1)

A partir da definic¸a˜ o do operador m´edia temporal, pode-se definir a func¸a˜ o de covariˆancia entre duas func¸o˜ es amostras x e z de forma equivalente a` covariˆancia para processos aleat´orios ilustrada em [3]: Cxz = T {x.z} − T {x} T {z}, em que x.z denota multiplicac¸a˜ o termo a termo entre dois vetores. Observe que a variˆancia σ2x do vetor func¸a˜ o amostra pode ser calculada por Cxx = T {x.x} − T 2 {x}. Quando Cxz = 0, as duas func¸o˜ es amostras podem ser consideradas n˜ao correlacionadas, isto e´ T {x.z} = T {x} T {z}. Por outro lado, se T {x.z} = 0 elas podem ser consideradas ortogonais [3]. Pode ser conveniente em algumas aplicac¸o˜ es ter uma func¸a˜ o de covariˆancia normalizada, isto e´ : rxz =

Cxz σ2x σ2z

(2)

Nesse caso, rxz e´ conhecido como coeficiente de correlac¸a˜ o [3]. Seu valor pode variar no intervalo cont´ınuo [+1; −1]. O valor |rxz | = 1 indica o m´aximo grau de semelhanc¸a entre as duas func¸o˜ es amostras, e o valor 0 indica duas func¸o˜ es amostras n˜ao correlacionadas. Em aplicac¸o˜ es pr´aticas, ao adotar-se um valor finito para M em (1) o c´alculo da m´edia passa ser uma estimativa do valor real. Neste trabalho o coeficiente de correlac¸a˜ o ser´a utilizado para determinar o grau de corrompimento de uma imagem no reconhecimento de padr˜ao, determinando assim o n´ıvel de ru´ıdo a ser aplicado na matriz de entrada da rede neural. Nesse contexto, grau de corrompimento e coeficiente de correlac¸a˜ o s˜ao grandezas inversamente proporcionais.

IEEE TRANSACTIONS LATEX TEMPLATE, VOL. XX, NO. Y, NOVEMBRO 2015

101

B. Representac¸a˜ o de matrizes como vetores encadeados Seja para o c´alculo do coeficiente de correlac¸a˜ o ou para aplicac¸a˜ o na entrada de uma rede neural artificial, pode ser de menor complexidade trabalhar com vetores a matrizes. Aplicar uma matriz na entrada de uma rede neural pode exigir que se tenha um n´umero de camadas paralelas de entrada igual ao n´umero de colunas (ou linhas) da matriz em quest˜ao. Al´em disso, calcular o coeficiente de correlac¸a˜ o entre duas matrizes deve exigir a aplicac¸a˜ o de (2) em pelo menos duas dimens˜oes. Por outro lado, nessas duas aplicac¸o˜ es uma matriz pode ser precisamente representada por um vetor contendo linhas encadeadas dessa matriz. Por exemplo, para uma matriz X2×3 com elementos xij , tem-se o seguinte vetor encadeado x=

[

x11

x12

x13

x21

x22

x23

Fig. 1.

Matrizes de origem, sem adic¸a˜ o de ru´ıdo.

Fig. 2.

Matriz de origem classe 3 corrompida com ru´ıdo do n´ıvel 1 ao 9.

]T

eliminando a necessidade de trabalhar com mais que uma dimens˜ao.

C. Adic¸a˜ o Controlada de Ru´ıdo em Matrizes Considere o conjunto matrizes de origem representado na Fig. 1 como imagens dos dez d´ıgitos de algarismos ar´abicos, sem adic¸a˜ o de ru´ıdo. Numericamente, cada matriz tem dimens˜ao 20 × 20 e seus elementos s´o podem assumir dois valores: 0 ou 1. Somente aqueles que identificam o algarismo (cor preta na imagem) tˆem valores iguais a 1. Uma forma de corromper essas matrizes com ru´ıdo e´ inverter aleatoriamente o valor de alguns elementos. Nesse caso, o grau de corrompimento da informac¸a˜ o contida na matriz n˜ao deve necessariamente ser medido pelo n´umero de elementos invertidos. Para um mesmo n´umero de elementos invertidos, pode-se preservar a informac¸a˜ o ou degrad´a-la completamente dependendo da posic¸a˜ o desses elementos. Para evitar esse tipo de problema, o uso coeficiente de correlac¸a˜ o para esse fim pode ser mais adequado. Seja z(k) um vetor encadeado que representa uma das matrizes de origem no instante k e x(k) um vetor encadeado que representa a mesma matriz de origem, por´em com ru´ıdo adicionado. O coeficiente de correlac¸a˜ o rxz entre os dois vetores pode ser calculado utilizando (2). Quanto mais pr´oximo de zero |rxz | estiver, mais corrompida estar´a a matriz em relac¸a˜ o a sua matriz de origem. Isso permite que um ru´ıdo seja adicionado a esse tipo de matriz at´e que o coeficiente de correlac¸a˜ o desejado seja atingido, isto e´ , uma adic¸a˜ o controlada de ru´ıdo. Al´em disso, pode-se definir o n´ıvel de ru´ıdo (grau de corrompimento) como uma grandeza inversamente proporcional ao coeficiente de correlac¸a˜ o, variando de 0 a 10, da seguinte forma: gxz := 10 − 10 |rxz |

(3)

A Fig. 2 ilustra um exemplo de adic¸a˜ o controlada de ru´ıdo, para gxz variando de 1 a 9 e rzx de 0,9 a 0,1. Ressalta-se que no contexto deste trabalho, o ´ındice dos elementos da matriz afetados por ru´ıdo e´ uma vari´avel aleat´oria v com distribuic¸a˜ o de probabilidade uniforme {v ∈ N | 1 ≤ v ≤ 400}.

D. Etapas de Projeto de uma RNA MLP O projeto de rede neural artificial perceptron de m´ultiplas camadas pode ser dividido nas seguintes etapas: • pr´ e-processamento dos dados: envolve o tratamento dos dados originais de forma a deix´a-los adequados para a entrada da rede neural. • escolha da arquitetura: um percentual pequeno do banco de dados pode ser utilizado para escolher a arquitetura (n´umero de camdas ocultas e n´umero de neurˆonios em cada uma). • treinamento: uma vez escolhida a arquitetura realiza-se o treinamento supervisionado da mesma. • validac ¸ a˜ o do treinamento: a validac¸a˜ o ocorre de forma paralela ao treinamento e pode servir como um dos crit´erios de parada do treinamento. • p´ os-processamento: etapa em que os dados de sa´ıda da rede s˜ao mapeados para valores intelig´ıveis ao processo f´ısico. ´ verificado se o desempenho da • testes: etapa em que e rede est´a de acordo com o esperado. Para as etapas de treinamento, validac¸a˜ o do treinamento e testes, existe a necessidade de sub-dividir o banco de dados total, de forma que os dados utilizados em uma etapa n˜ao sejam utilizados em outra. N˜ao h´a uma frac¸a˜ o o´ tima pr´edefinida para cada banco, mas tipicamente tem-se para o banco de dados de treinamento, validac¸a˜ o e testes um tamanho que pode variar de 50% a 70%, 10% a 25% e 15% a 35% do banco de dados total, respectivamente.

IEEE TRANSACTIONS LATEX TEMPLATE, VOL. XX, NO. Y, NOVEMBRO 2015

102

Considere o diagrama de blocos da etapa de treinamento ilustrada na Fig. 3.a, em que x(k) e´ o vetor de entrada da rede, y(k) o de sa´ıda, d(k) o vetor desejado ou vetor alvo e c(k) a classe de d(k). Nessa etapa, e´ pocas de duplas {x(k), d(k)} pertencentes ao banco de dados de treinamento s˜ao apresentadas a` rede em cada iterac¸a˜ o. O algoritmo de treinamento supervisionado procura ent˜ao ajustar os parˆametros livres da rede, isto e´ , a matriz de pesos sin´apticos W e de bias B, de acordo com o sinal de erro apresentado, com o objetivo de aproximar y(k) a d(k). Espera-se que nessa etapa a rede adquira conhecimento suficiente para reconhecer padr˜oes da mesma fam´ılia do banco de dados de treinamento, por´em nunca antes visto pela rede [2]. Na pr´atica, os algoritmos de treinamento n˜ao utilizam o sinal de erro na forma e(k) = d(k) − y(k), pois no c´alculo do erro m´edio um valor negativo pode anular um positivo, gerando um baixo valor de erro para sinais discrepantes. Na realidade, utiliza-se o erro m´edio quadr´atico (do inglˆes mean squared error - MSE), que para os prop´ositos deste trabalho pode ser definido como: 1 ∑∑ 2 mse = (yp (k) − dp (k)) N ×n p=1 N

n

(4)

k=1

em que yp e´ o p-´esimo elemento do vetor y(k) e dp o p-´esimo elemento do vetor d(k), no instante k, n = 10 o n´umero de classes e N o n´umero de amostras de banco de dados utilizada na etapa em quest˜ao. A etapa de validac¸a˜ o do treinamento ocorre concomitantemente com a de treinamento. Uma e´ poca de duplas {x(k), d(k)} pertencentes ao banco de dados de validac¸a˜ o e´ apresentada a` rede, ap´os o fim de cada e´ poca de treinamento, para verificar se o mse est´a diminuindo ou aumentando com as iterac¸o˜ es (´epocas). Serve como um dos crit´erios de parada do treinamento, caso seja verificado um mse crescente durante e´ pocas seguidas. O bloco decisor, ilustrado na Fig. 3.b, realiza o p´osprocessamento da rede. Tem como entrada y(k) e como sa´ıda a classe estimada b c(k). A decis˜ao pela classe estimada pode ser tomada de diversas maneiras, dependendo do contexto do problema. Uma simples e eficaz e´ decidir pelo ´ındice do elemento de maior valor positivo no vetor de sa´ıda, isto e´ , b c(k) = ´ındice{max{y(k)}}

(5)

A etapa de testes, ilustrada pela Fig. 3.b, tem a finalidade de verificar o desempenho da rede quanto aos erros de classificac¸a˜ o apresentados. Nessa etapa, os valores de W e de B j´a n˜ao sofrem mais alterac¸o˜ es. Nesse caso, e´ pocas de trios {x(k), d(k), c(k)} s˜ao apresentadas a` rede para que se possa calcular dois ´ındices de m´erito, o mse de teste e os erros de classe, conforme pode ser verificado na figura. O erro de classe e´ obtido a partir da comparac¸a˜ o do valor estimado de classe b c(k) com o valor real de classe c(k). O bloco mse calcula o mse a partir de (4). Caso sejam considerados satisfat´orios os resultados nessa etapa, o projeto da rede e´ finalizado e a mesma poder´a ser colocada em operac¸a˜ o. Na etapa de operac¸a˜ o, ilustrada pela Fig. 3.c, a rede poder´a em tempo de operac¸a˜ o classificar o sinal presente na

Fig. 3. Diagrama esquem´atico das etapas de projeto e operac¸a˜ o da rede neural: (a) treinamento supervisionado e validac¸a˜ o; (b) testes e (c) operac¸a˜ o.

entrada em uma das 10 classes pr´e-definidas, utilizando os conhecimentos adquiridos e armazenados em W e B na fase de projeto. III. M ETODOLOGIA A. Modelagem do Problema Considere o conjunto de matrizes de origem apresentado na Fig. 1. Para cada matriz ilustrada na figura foi definida uma classe c correspondente, num total de 10 classes: {1, 2, . . . , 9, 0}. A partir dessa definic¸a˜ o foi gerado o banco de dados de matrizes corrompidas x(k), vetores alvo d(k) e classes c(k), conforme ilustra o diagrama da Fig. 4. Para cada classe c(k) gerada pelo gerador de classes, a matriz de origem correspondente foi corrompida por ru´ıdo e em seguida transformada no vetor encadeado x(k) de dimens˜ao 400×1. Aqui k denota iterac¸a˜ o ou tempo. Foram considerados 9 n´ıveis de ru´ıdo {1 2 3 . . . 9} . Para cada n´ıvel de ru´ıdo foram geradas 100 matrizes corrompidas de cada classe, totalizando 1000 matrizes por n´ıvel de ru´ıdo. No diagrama da Fig. 4, a classe gerada passa por pelo bloco codificador para dar origem ao vetor desejado, tamb´em chamado de vetor alvo, d(k). Tal vetor, de dimens˜ao 10 × 1, cont´em seus elementos iguais a 0, exceto o elemento cuja posic¸a˜ o representa a classe codificada, o qual cont´em valor igual a 1. O banco de dados gerado a partir do diagrama

IEEE TRANSACTIONS LATEX TEMPLATE, VOL. XX, NO. Y, NOVEMBRO 2015

esquem´atico da Fig. 4 foi ent˜ao composto por 1000 duplas {x(k), d(k)} ou de forma equivalente por 1000 duplas {x(k), c(k)}. Nesse contexto, k representa uma posic¸a˜ o no banco de dados. O banco de dados, em cada n´ıvel de ru´ıdo,

103

n´umero de parˆametros livres. Foi observado um tempo de processamento de cerca de 48 horas nessa fase. Como pode ser observado na tabela, o n´umero de parˆametros livres nas redes variou 2065 a 7819. Esse fato, associado ao algoritmo de treinamento escolhido pode justificar tal carga de processamento. Tabela I ´ N UMERO

Fig. 4. Diagrama esquem´atico de gerac¸a˜ o do banco de dados {x(k), d(k), c(k)}, sendo k uma posic¸a˜ o no banco de dados.

foi subdivido conforme ilustra a Fig. 5 em banco de dados de treinamento, validac¸a˜ o e testes. Foi utilizado um percentual de 22, 5% das amostras iniciais do banco (faixa pertencente ao banco de treinamento) para a escolha da arquitetura de rede. Nove redes neurais foram projetadas, isto e´ , uma para cada n´ıvel de ru´ıdo.

Fig. 5.

Divis˜ao do banco de dados para cada etapa do projeto.

B. Crit´erios de Projeto Em cada uma das 9 redes projetadas foram adotados os seguintes crit´erios: ´ nica camada oculta; • Rede MLP com uma u • mse ≤ 0, 02 e erro de classe ≤ 6 em 300 classes; • N´ umero de neurˆonios da camada oculta ≤ 20; • Func ¸ a˜ o de transferˆencia tangente hiperb´olica em todas as camadas. Houve pr´e-processamento dos dados para adequac¸a˜ o a esse tipo de func¸a˜ o, com as seguintes operac¸o˜ es: 2x(k) − 1 e 2d(k) − 1; • Utilizac ¸ a˜ o de 30% do banco de dados total pertencente ao banco de dados de treinamento para realizar uma varredura de 1 at´e 20 neurˆonios na camada oculta tentando atingir os ´ındices de mse e erros de classe pr´e-definidos. • Utilizac ¸ a˜ o do algoritmo de treinamento de LevenbergMarquardt com gradiente m´ınimo de 1e-7 e passo vari´avel de acordo com o gradiente. IV. R ESULTADOS O BTIDOS A Tabela I ilustra a quantidade de neurˆonios obtida para a camada oculta de cada uma das redes, assim como o

ˆ ˆ DE NEUR ONIOS NA CAMADA OCULTA E PAR AMETROS LIVRES DAS 9 REDES PROJETADAS .

Rede

Neurˆonios camada oculta

Parˆametros livres

1 2 3 4 5 6 7 8 9

5 8 7 18 16 19 15 19 18

2065 3298 2887 7408 6586 7819 6175 7819 7418

O desempenho apresentado por cada uma das redes est´a ilustrado na Fig. 6. Nota-se que a rede 4 foi a que obteve melhor desempenho. Apesar de ter sido treinada para ru´ıdo n´ıvel 4 somente, a rede apresentou um bom desempenho para ru´ıdos de n´ıvel menor tamb´em. Se levarmos em considerac¸a˜ o que essa rede n˜ao conhecida entradas de baixo n´ıvel de ru´ıdo (de 1 a 3) e que para a RNA o ru´ıdo e´ uma informac¸a˜ o v´alida e n˜ao necessariamente algo ruim (a RNA n˜ao e´ um filtro), esse resultado n˜ao era esperado. As redes 5 e 6 (treinadas para ru´ıdos n´ıvel 5 e 6 respectivamente) apresentam desempenho pr´oximo da rede 4. Assim, parece ser mais indicado treinar a rede para n´ıveis m´edios de ru´ıdo (4, 5 e 6), pois tais redes respondem melhor a toda a faixa de ru´ıdo. Como era de se esperar o desempenho piora com o aumento do n´ıvel de ru´ıdo em todas as redes. Al´em disso, o pior desempenho pode ser observado nas redes 8 e 9, o que significa que n˜ao adianta treinar a rede para n´ıveis elevados de ru´ıdo (7, 8 e 9) pois elas n˜ao respondem bem em qualquer faixa de ru´ıdo. Al´em disso, se as amostras de treinamento s˜ao compostas por imagens de ru´ıdo elevado e quando em operac¸a˜ o a qualidade das imagens melhora, ent˜ao a rede dever´a passar por um reaprendizado, isto e´ , treinada para essa nova fam´ılia de imagens, fato esse que n˜ao acontece com a rede 4. Para possibilitar a comparac¸a˜ o entre uma rede treinada para uma faixa estreita de ru´ıdo e outra para uma faixa ampla, uma rede neural com arquitetura idˆentica a` melhor rede (rede 4) foi treinada para n´ıveis de ru´ıdo do 1 ao 5 (sendo chamada de rede 1a5), sendo utilizado para tal um banco de dados de 5000 matrizes de entrada com divis˜ao de dados feita com os mesmos percentuais das outras redes. Os resultados est˜ao ilustrados na Fig. 7, a qual cont´em os erros de classe normalizados e na Fig. 8, a qual cont´em o mse. Nota-se em ambas as figuras que a rede 4 tamb´em obteve melhor desempenho sobre a rede 1a5. Considerando que a rede 1a5 foi treinada com uma quantidade maior de informac¸o˜ es, ampla faixa de ru´ıdo, era de se esperar que essa rede obtivesse melhor desempenho,

IEEE TRANSACTIONS LATEX TEMPLATE, VOL. XX, NO. Y, NOVEMBRO 2015

104

Fig. 8.

Erro m´edio quadratico: comparativo entre as Redes 4 e 1a5.

distribu´ıdos de maneira aproximadamente uniforme entre as classes, sendo que a classe que mais apresentou erros foi a 6 e a que menos apresentou foi a 1. Fig. 6.

Desempenho das redes de acordo com o n´ıvel de ru´ıdo.

pois teoricamente, possui maior conhecimento sobre a fam´ılia de sinais de entrada, o que n˜ao ocorreu. Por outro lado, os desempenhos s˜ao muito pr´oximos para os n´ıveis de ru´ıdo do 1 ao 5, podendo ser afirmado que s˜ao estatisticamente equivalentes. A diferenc¸a portanto est´a na faixa de ru´ıdo de maior n´ıvel (de 6 ao 9), para a qual ambas n˜ao foram treinadas. Pode-se concluir que, o fato de treinar a rede com matrizes de n´ıvel baixo de ru´ıdo fez piorar seu desempenho para n´ıveis elevados de ru´ıdo numa rede de mesma arquitetura da rede 4. Pode-se concluir ainda que, pode n˜ao ser necess´ario treinar a rede para uma ampla faixa de ru´ıdo, caso o banco de dados dispon´ıvel contenha n´ıveis m´edios de ru´ıdo. Certamente que todas essas afirmac¸o˜ es s˜ao v´alidas para o contexto ilustrado neste trabalho, mas podem n˜ao ser para outros.

Fig. 7.

Erros de classe normalizados: comparativo entre as Redes 4 e 1a5.

A Tabela II ilustra a matriz de confus˜ao para a rede 1a5, considerando somente dados de entrada com n´ıveis de ru´ıdo para a qual a rede foi treinada, isto e´ , banco de dados de testes com ru´ıdo do n´ıvel 1 ao 5 (1600 matrizes). Houve um total de 93, 56% de acertos. A diagonal principal cont´em os percentuais de acerto em cada classe. Os erros est˜ao

Tabela II ˜ DE CLASSE ; c: VALORES PERCENTUAIS DE IDENTIFICAC¸ AO DESEJADAS ; b c: CLASSES IDENTIFICADAS

CLASSES

c\b c

1

2

3

4

5

6

7

8

9

0

1

10,13

0,06

0,00

0,00

0,00

0,00

0,00

0,00

0,06

0,00

2

0,06

9,63

0,00

0,00

0,00

0,06

0,00

0,13

0,00

0,00

3

0,00

0,06

9,38

0,00

0,19

0,06

0,13

0,19

0,25

0,00

4

0,00

0,06

0,00

9,75

0,00

0,00

0,13

0,06

0,00

0,00

5

0,00

0,06

0,00

0,00

9,31

0,06

0,06

0,00

0,13

0,00

6

0,00

0,13

0,06

0,06

0,19

8,00

0,06

0,69

0,19

0,19

7

0,00

0,00

0,06

0,06

0,00

0,00

10,25

0,06

0,00

0,00

8

0,06

0,19

0,13

0,06

0,06

0,25

0,00

8,50

0,19

0,31

9

0,06

0,06

0,38

0,00

0,06

0,13

0,00

0,25

9,50

0,06

0

0,00

0,06

0,13

0,00

0,13

0,06

0,00

0,25

0,00

9,13

˜ E T RABALHOS F UTUROS V. C ONCLUS OES Neste artigo foi apresentado uma an´alise de desempenho de redes neurais treinadas para uma faixa estreita de ru´ıdo e testadas para uma ampla faixa de ru´ıdo. Ficou demonstrado que as redes que foram treinadas para intensidades medianas de ru´ıdo apresentam melhor desempenho frente as demais. Al´em disso, a arquitetura apresentada pela rede de melhor desempenho foi utilizada para treinar uma nova rede para uma ampla faixa de ru´ıdos. Ainda assim, foi verificado um melhor desempenho da rede treinada para uma faixa estreita de ru´ıdo, por´em, considerando a faixa de ru´ıdo para a qual a segunda rede foi treinada, os desempenhos foram equivalentes. Conclui-se que, no contexto de identificac¸a˜ o de padr˜ao apresentado neste trabalho, com entradas sujeitas a ru´ıdo, treinar a rede para n´ıveis medianos de intensidade de ru´ıdo parece ser a melhor opc¸a˜ o. Para trabalhos futuros sugere-se utilizar algoritmos gen´eticos para encontrar a melhor arquitetura de rede devido a carga de processamento elevada que esta fase exige. R EFER Eˆ NCIAS [1] C. M. Bishop, Pattern Recognition and Machine Learning, Singapure: Springer. 2006. [2] S. Haykin, Neural Networks and Learning Machines, New Jersey: Pearson Education, Inc. 3rd ed, 2009. [3] A. Papoulis, Probability, Random Variables, and Stochastic Process, New York: McGraw-Hill, Inc. 1991.

Lihat lebih banyak...

Comentários

Copyright © 2017 DADOSPDF Inc.