Célula Neural Artificial Paraconsistente de Aprendizagem por Extração do Efeito da Contradição

Share Embed


Descrição do Produto

N.33 Ano 9

Ed. Paralogike - Santos - SP Brasil ATC1 03/ 2014

Célula Neural Artificial Paraconsistente de Aprendizagem por Extração do Efeito da Contradição Márcio de Freitas Minicz1 ,

Gustavo Ravanhani Matuck1 ,

Paulo M. Tasinaffo1 e

Minicz, M. F. [email protected]

Matuck, G. R. [email protected]

Tasinaffo, P. M. [email protected]

João Inácio Da Silva Filho2 Da Silva Filho, J.I. [email protected]

1 ITA - Instituto Tecnológico de Aeronáutica - Divisão de Ciência da Computação Praça Marechal Eduardo Gomes-nº 50, São José dos Campos - SP, CEP: 12.228-900 - Brasil 2

UNISANTA - Universidade Santa Cecília - Grupo de Lógica Paraconsistente Aplicada - GLPA Rua Oswaldo Cruz, 288 - CEP: 11045-000- Santos-SP - Brasil

Resumo - Uma Rede Neural Artificial Paraconsistente (RNAP) é composta por Células Neurais Artificiais Paraconsistentes (CNAP). Entre os vários tipos de células destaca-se uma fundamental que é a Célula Neural Artificial Paraconsistente de Aprendizagem (CNAPap). Neste artigo é apresentada uma nova equação e um novo algoritmo de funcionamento para essa célula CNAPap com base na extração do efeito da contradição entre o Padrão de Entrada e o Grau de Evidencia de saída. Os resultados demonstram que a célula proposta, denominada de CNAPap extract ctr, funciona como o esperado integrando valores assintoticamente e que pode ter várias aplicações práticas na análise de sinais. Palavras chave: lógica paraconsistente, Célula Neural Artificial, aprendizagem, comparação de padrões. Abstract - A Paraconsistent Artificial Neural network (PANnet) is composed of artificial neural Paraconsistentes Cells (PANcel). Among the several types of cells, one of the most important is Paraconsistent Artificial Neural Cell of learning (PANCaplea). In this paper is presented a new equation and a new algorithm of operation for this cell based on extraction of effect of contradiction between the input pattern and the degree of evidence of output. The results demonstrate that the proposed cell works as expected integrating asymptotic mode values, and that can have several practical applications in signal analysis. Keywords: paraconsistent logic, Artificial Neural Cell, learning, comparison of patterns. I. INTRODUÇÃO (RNA) clássicas, que tipicamente são baseadas em um único tipo de célula neural, nas RNAP existem vários tipos de células que podem ser utilizadas [1][2][14]. Nestas configurações uma RNAP é construída a partir da ligação de várias Células Neurais Artificiais Paraconsistentes (CNAP). A partir das primeiras publicações em [1][2][6] foram desenvolvidos vários trabalhos aplicando RNAP em diversos campo do conhecimento. Como exemplo podemos citar aplicações na área médica [1] [2] [4] [9] [10] [12] [13], na computação [3] [6] [11], para previsão climática [5] e fraudes bancárias [8]. Entre as diversas CNAPs, uma que se destaca é a Célula Neural Artificial Paraconsistente de Aprendizagem (CNAPap) [7]. Esta célula tem por objetivo ser treinada para aprender qualquer Padrão de Entrada na velocidade, isto é no número de iterações, definida por um Fator que varia no intervalo fechado entre 0 e 1 e pertencente ao conjunto dos números Reais, denominado de Fator de Aprendizagem (FA). A representação da CNAPap é mostrado na Figura 1. Neste artigo é feito um estudo no qual se mostra as equações propostas na literatura para modelar a CNAPap,

As Redes Neurais Artificiais Paraconsistentes (RNAP) são definidas a partir dos Nós de Análise Paraconsistentes (NAP) [1][2] de forma a aproveitar toda a capacidade de análise através dos fundamentos da Lógica Paraconsistente (LP). Conforme visto em [3] e [4] a LP é uma lógica não clássica e tem como principal fundamento a propriedade de tratar sinais contraditórios sem que os conflitos levem a não formação das conclusões. Através de transformações lineares e interpretações de valores estabelecidos em um Reticulado de quatro vértices (diagrama de Hasse) associado a uma lógica paraconsistente anotada [LPA], pode-se elaborar equações de aprendizagem em nós de análises paraconsistentes com resultados que simulam o comportamento de um neurônio biológico [2]. Algoritmos formados com esta técnica foram interligados formando Redes Neurais Artificiais Paraconsistentes (RNAPs) capazes de analisar sinais em Sistemas Inteligentes. Estes estudos que inicialmente foram apresentados em [1][2] e [1] mostram que em oposição às Redes Neurais Artificiais

ISSN 1809-0648

3

Janeiro/Fevereiro/Março 2014

N.33 Ano 9

Neste último caso era esperado que nessa situação a saída fosse uma função degrau, saltando diretamente para o padrão a ser aprendido. Para adequar os sinais de saída estas situações especiais em que as equações (1) e (2) não respondem ao comportamento esperados é necessário um aprimoramento das equações da CNAPap. Esta necessidade gerou a criação da CNAPapetract ctr que será apresentada a seguir.

incluindo quando essas equações funcionam de modo a simular o neurônio biológico ou não. Com base nos resultados é definida uma nova equação para a CNAPap que apresenta resultados por Extração do Efeito da Contradição. São feitos ensaios numéricos e discutidos os resultados de simulações com esta nova Célula de Aprendizagem que denominamos de Célula Neural Artificial Paraconsistente de aprendizagem por extração do efeito da contradição CNAPapetract ctr. Em seguida é definido o algoritmo completo que permite que a CNAPapetract ctr aprenda e desaprenda com velocidades controladas e por fim os resultados de simulações mostrando o seu pleno funcionamento.

II. A CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE DE APRENDIZAGEM POR EXTRAÇÃO DO EFEITO DA CONTRADIÇÃO – CNAPAP EXTRACT CTR

As CNAPap propostas na literatura [1][2][6], partem da análise do Grau de Certeza ( GC ) que é calculado por:

μ1 C

GC = µ − λ

CNAPap

FA

E o Grau de Contradição é calculado por: Gcr = µ + λ − 1

onde µ é o Grau de evidência Favorável e λ é o Grau de evidência Desfavorável ambos extraídos das fontes de informação e com valores entre 0 e 1. Quando somente Graus de evidência favoráveis são originários das fontes, um dos graus pode ser transformado em desfavorável. Para isto faz-se o seu completo, tal que sendo; µ1 extraído da fonte de informação 1 e µ2 extraído da fonte de informação 2, então λ = 1 − µ2 será o Grau de Evidência desfavorável da analise. O Grau de Evidência resultante [3] [4] é definido como o Grau de Certeza Normalizado, calculado por: 1 + GC µ ER = 2 ou 1+ (µ − λ) µ ER = 2 A célula proposta neste artigo parte do Grau de Contradição integrado as iterações k ( GCt : Equação (4)) e utiliza a

FDA

μE Figura 1.Simbolo da Célula Neural Artificial Paraconsistente de aprendizagem (CNAPap). I.1 CNAPAP – CÉLULA NEURAL ARTIFICIAL PARACONSISTENTE DE APRENDIZAGEM Na literatura são propostas duas equações para a CNAPap. Em [1][2][7] é proposta a Equação (1) e em [14] é proposta a Equação (2).

μE ( k ) =

μE ( k ) =

{μ − μ (

{(

Ed. Paralogike - Santos - SP Brasil ATC1 03/ 2014

1

E k −1) C

}

⋅ FA + 1

2

) }

μ1 − μE ( k −1)C ⋅ FA + 1 2

(1)

Equação (3) para o Grau de Evidência

(2)

As duas Equações respondem bem ao comportamento de um neurônio biológico sempre que o Fator de Aprendizagem é, independentemente do valor do Padrão de Entrada μ1 . No entanto, verifica-se que quando for necessário variar ao mesmo tempo o Fator de Aprendizagem FA e o Padrão de

ISSN 1809-0648

μE ( k ) = μE ( k −1) + GCt ⋅ FA

(3)

GCt = μ1 + μE ( k −1)C − 1

(4)

O Fator de Aprendizagem deve estar no intervalo 0 ≤ F A ≤ 1 , sendo que:

Entrada μ1 , a Equação (1) converge para um valor diferente do Padrão de Entrada. Já na Equação (2), quando o Fator de Aprendizagem F A = 0 , independentemente do Padrão de Entrada μ1 , o Grau de Evidência sempre 0,5.

μE .



FA = 0



FA = 0,5 – aprendizado natural.



FA = 1

– não há aprendizado.

– função degrau

Como a célula proposta reduz o Grau de Contradição a cada iteração, ela foi nomeada de Célula Neural Artificial

μ E na saída da célula é

4

Janeiro/Fevereiro/Março 2014

N.33 Ano 9

Paraconsistente de Aprendizagem por Extração do Efeito da Contradição – CNAPap extract ctr.

Ed. Paralogike - Santos - SP Brasil ATC1 03/ 2014

Aprendizagem é variado ( FA = {1, 0,75 ,0,5, 0,25}). Nesses resultados pode-se notar que quanto menor o valor atribuído ao Fator de Aprendizagem FA , maior será o numero de iterações necessário para a aprendizagem do Padrão de Entrada. Quando o Fator de Aprendizagem é zerado F A = 0 , não haverá aprendizagem, permanecendo a saída em 0,5 que é reconhecido pelos fundamentos da LPA como um estado lógico Indefinido.

III. SIMULAÇÃO DA CNAPAP EXTRACT CTR III.1 Padrão de Entrada igual a 1, variando Fator de Aprendizagem Para demonstrar o funcionamento da CNAPap extract ctr, na Figura 2 e na Tabela 1 estão os resultados quando o Padrão Fator de de Entrada é mantido em 1 ( μ1 = 1 ) e o

Tabela 1: Resultados do ensaio com Padrão de Entrada constante e variando o Fator de Aprendizagem.

Figura 2. Gráfico dos resultados do ensaio com Padrão de Entrada constante e variando o Fator de Aprendizagem.

ISSN 1809-0648

5

Janeiro/Fevereiro/Março 2014

N.33 Ano 9

Ed. Paralogike - Santos - SP Brasil ATC1 03/ 2014

Aprendizagem é F A = 0,40 , para os mesmos valores de Padrão de Entrada. Pode ser observado, nos resultados obtidos, que para todos os ensaios o Grau de Evidência μ E sempre convergiu para o

III.2 Fator de Aprendizagem constante, variando Padrão de Entrada Quando o Fator de Aprendizagem é mantido constante em FA = 0,75 e o Padrão de Entrada é variado com os valores em μ1 = {1, 0,8 ,0,6 ,0,4 ,0,2 ,0} obtêm-se os resultados da simulação na Tabela 2 e Figura 3. Já na Tabela 3 e Figura 4 são apresentados os resultados quando o Fator de

Padrão de Entrada μ1 mostrando que a célula “aprendeu” o padrão aplicado na entrada. No que diz respeito à velocidade, número de iterações, a convergência é influenciada pelo Fator de Aprendizagem F A .

Tabela 2. Resultados do ensaio com Fator de Aprendizado igual a 0,75 e variando o Padrão de Entrada.

Figura 3. Gráfico de resultados do ensaio com Fator de Aprendizado igual a 0,75 e variando o Padrão de Entrada.

ISSN 1809-0648

6

Janeiro/Fevereiro/Março 2014

N.33 Ano 9

Ed. Paralogike - Santos - SP Brasil ATC1 03/ 2014

Tabela 3. Resultados do ensaio com Fator de Aprendizado igual a 0,40 e variando o Padrão de Entrada.

Figura 4. Gráfico de resultados do ensaio com Fator de Aprendizado igual a 0,40 e variando o Padrão de Entrada. ISSN 1809-0648

7

Janeiro/Fevereiro/Março 2014

N.33 Ano 9

Ed. Paralogike - Santos - SP Brasil ATC1 03/ 2014

IV. ALGORITMO DE APRENDIZAGEM EM MODO COMPLETO Conforme apresentado em [1][2], para uma análise completa em modelagem de sinais, quando a célula de aprendizagem for inserida em uma RNAP será necessário que ocorra tanto a aprendizagem como a desaprendizagem. Para tanto, é proposto o algoritmo da Figura 5. Nele, além do Fator de Aprendizagem (FA), é aplicado também o Fator de Desaprendizagem (FDA).

Obs: Linha cheia representa a variação do Padrão de Entrada. Linha tracejada o Grau de Evidência Resultante.

Figura 7. Resultados da Simulação do Algoritmo Completo com Fator de Aprendizagem igual a 0,9 e Fator de Desaprendizagem igual 0,3.

Figura 5. Algoritmo completo com Fator de Aprendizagem e Fator de Desaprendizagem.

V. CONCLUSÕES

IV.1 SIMULAÇÃO DO ALGORITMO DE APRENDIZAGEM EM

A Célula Neural Artificial Paraconsistente de Aprendizagem (CNAPap) é uma das células fundamentais de uma Rede Neural Artificial Paraconsistente (RNAP). Neste artigo foi apresentada a CNAPap extract ctr que tem por característica a capacidade de aprender ou desaprender um Padrão de Entrada, conforme a velocidade definida pelo Fator de Aprendizagem e Fator de Desaprendizagem. Foi mostrado que com o algoritmo completo a célula funciona de forma a acompanhar a variação do Padrão de Entrada, que se permanecer tempo suficiente (determinado números de iterações) será completamente aprendido pela célula (Grau de Evidência na saída). Esta nova CNAPap pode ser aplicada em qualquer RNAP que já foi construída, bastando para isso ajustar o Fator de Aprendizagem e o Fator de Desaprendizagem. A Equação básica da CNAPap extract ctr permite, caso seja necessário, que o Padrão de Entrada aprendido seja armazenado dentro da célula. Para isso basta fazer o Fator de Aprendizagem e o Fator de Desaprendizagem iguais a zero. Essa característica pode ser útil quando interessa ensinar certo conhecimento para uma RNAP e, a partir do aprendizado completo, não sofrer mais influência do ambiente.

MODO COMPLETO

As Figuras 6 e 7 mostram duas simulações do Algoritmo Completo proposto. Nestas duas simulações o Padrão de Entrada μ1 variou a cada 10 iterações na seguinte ordem: 1, 0, 0,25, 0,50, 0,75, 1, 0,75, 0,5, 0,25 e 0 (linha cheia nas Figuras). Na Figura 6 o Fator de Aprendizagem é de FA = 0,5 e o Fator de Desaprendizagem é de FDA = 0,5 . Na Figura 7 o Fator de Aprendizagem é de F A = 0,9 e o Fator de Desaprendizagem é de FDA = 0,3 .

VI. BIBLIOGRAFIA

Obs: Linha cheia representa a variação do Padrão de Entrada. Linha tracejada o Grau de Evidência Resultante.

[1] Da Silva filho, J. I., Abe, J. M., Fundamentos das redes neurais artificiais paraconsistentes, São Paulo, Editora VillaPress, 2001. [2] Da Silva Filho, J. I., Abe, J. M., Torres, G. L., Inteligência artificial com redes de análise paraconsistentes – Teoria e aplicações, Rio de Janeiro, LTC, 2008. [3] Da Silva Filho, J. I. Métodos de aplicações da Lógica Paraconsistente Anotada de anotação com dois valores LPA2v com construção de Algoritmo e Implementação de Circuitos Eletrônicos, Tese de Doutorado-EPUSP, São Paulo, 1999.

Figura 6. Resultados da Simulação do Algoritmo Completo com Fator de Aprendizagem e Fator de Desaprendizagem igual 0,5. Com isso é possível um melhor controle do comportamento da célula. O Fator de Aprendizagem (FA) atua quando o Padrão de Entrada μ1 é maior que o Grau de Evidência

μ E e o Fator de Desaprendizagem (FDA) na situação inversa, isto é, quando o Grau de Evidência μ E é maior que o Padrão de Entrada

μ1 .

ISSN 1809-0648

8

Janeiro/Fevereiro/Março 2014

N.33 Ano 9

Ed. Paralogike - Santos - SP Brasil ATC1 03/ 2014

[10] Abe, J. M., Lopes, H. F. S., Nakamatsu, K., Paraconsistent artificial neural networks and AD analysis – Improvements, ICCCI 2012, Part I, LNAI 7653, pp. 259-267, 2012, Springer-Verlag Berlin Heidelberg 2012. [11] Silva, A. A., Casamento de mapas utilizando redes neurais artificiais paraconsistentes, Tese de Doutorado, Instituto Tecnológico de Aeronáutica, São José dos Campos, 2011. [12] Abe, J. M., Lopes, H. F. S., Nakamatsu, K., Akama, S., Applications of paraconsistent artificial neural networks in EEG, ICCCI 2011, Part I, LNCS 6922, pp. 82-92, 2011, Springer-Verlag Berlin Heidelberg, 2011. [13] Abe, J. M., Nakamatsu, K., Paraconsistent artificial neural networks and pattern recognition - Speech production recognition and cephalometric analysis, Advances in Reasoning-Based Image Processing, ISRL 29, pp. 365-382, Springer-Verlag Berlin Heidelberg 2012. [14] Da Silva Filho, J. I., Introdução às células neurais artificiais paraconsistentes, Revista Seleção Documental, ISSN 1809-0648, Nº8, Ano 2, SantosSP, 2007.

[4] Mário, M. C., Modelo de análise de variáveis craniométricas através das redes neurais artificiais paraconsistentes, Tese de Doutorado-EPUSP, São Paulo, 2006. [5] Souza, V. S., Da Silva, J. D. S., Redes neurais artificiais paraconsistentes aplicadas no reconhecimento de padrões dos ciclos sazonais para a previsão climática, WORCAP, Instituto Nacional de Pesquisas Espaciais (INPE) – São José dos Campos, SP, 2008. [6] Mário, M. C., Sistema classificador de sinais projetado com redes neurais artificiais paraconsistentes, Revista Seleção Documental, Nº7, Ano 2, 2007. [7] Mário, M.C., Ferrara, L. F. P., Da Silva Filho, J.I. , Treinamento de uma célula neural artificial paraconsistente de aprendizagem, Revista Seleção Documental, Nº6, Ano 2, 2007. [8] Souza, V. S., Abe, J. M., Da Silva, J. D. S., Redes neurais artificiais paraconsistentes aplicadas no estudo de fraudes à conta de clientes acessadas via internet, CNMAC, 2005. [9] Lopes, H. F. S., Aplicação de redes neurais artificiais paraconsistentes como método de auxílio no diagnóstico da doença de Alzheimer, Dissertação de Mestrado, USP/FM/SBD, São Paulo, 2008.

Márcio de Freitas Minicz É graduado em Engenharia Elétrica pela UNIVAP – Universidade do Vale do Paraíba/SP. Em 2005 concluiu seu mestrado em Ciências no Programa de Pós-Graduação em Engenharia Eletrônica e Computação, Área de Telecomunicações pelo ITA – Instituto Tecnológico da Aeronáutica em São José dos Campos/SP. Atualmente é Engenheiro de Telecomunicações na Petrobras e doutorando no ITA.

Gustavo Ravanhani Matuck É graduado em Ciência da Computação pela UNIVAP – Universidade do Vale do Paraíba/SP. Em 2009 concluiu seu mestrado em Ciências no Programa de Pós-Graduação em Engenharia Aeronáutica e Mecânica, Área de Aerodinâmica, Propulsão e Energia pelo ITA – Instituto Tecnológico da Aeronáutica em São José dos Campos/SP com ênfase em Inteligência Artificial aplicado a diagnóstico e prognóstico. Atualmente pertence ao Grupo de Pesquisa em Engenharia de Software (GPES) e doutorando pelo ITA. Também possui uma Empresa incubada dentro da Incubaero do ITA, prestando serviço de consultoria empresarial em Tecnologia da Informação (TI).

Paulo Marcelo Tasinaffo Atualmente é professor titular do Instituto Tecnológico de Aeronáutica (ITA) em São José dos CamposSP, com experiência na área de Engenharia Aeroespacial e da Computação e com ênfase em redes neurais artificiais aplicadas à modelagem de sistemas dinâmicos não-lineares e controle. O Prof. Tasinaffo atua também nos seguintes temas: autômatos e linguagens formais, matemática computacional, inteligência artificial, sistemas especialistas, lógica matemática, computação evolutiva e processos estocásticos.

João Inácio da Silva Filho É graduado em Engenharia Elétrica pela UNISANTA – Universidade Santa Cecília em Santos-SP. Em 1999 concluiu o doutoramento em Engenharia Elétrica na Escola Politécnica da Universidade de São Paulo POLI/USP com ênfase na área de Sistemas Digitais, e o mestrado em Microeletrônica na mesma Instituição. Atualmente é professor da Universidade Santa Cecília UNISANTA–SP e Coordenador do Grupo de pesquisa em Lógica Paraconsistente Aplicada – GLPA. Também é membro do Grupo de Lógica e Teoria da Ciência do IEA - Instituto de Estudos Avançados da Universidade de São Paulo.

ISSN 1809-0648

9

Janeiro/Fevereiro/Março 2014

Lihat lebih banyak...

Comentários

Copyright © 2017 DADOSPDF Inc.