Identificando Características Centrais de Folhas de Algodão em Imagens Digitais com Fundos Difíceis

June 15, 2017 | Autor: Jayme Barbedo | Categoria: Image Processing, Phytopathology, Digital Image Processing, Plant Pathology
Share Embed


Descrição do Produto

3072

IEEE LATIN AMERICA TRANSACTIONS, VOL. 13, NO. 9, SEPTEMBER 2015

Identifying Central Features of Cotton Leaves in Digital Images with Difficult Backgrounds J. G. A. Barbedo Abstract— Many digital image processing techniques applied to agricultural problems have as main target the leaves of certain species of plants. The most basic task in such a context is to segment the leaf of interest from the rest of the scene, which is relatively straightforward when the leaf is isolated and the image is captured under controlled conditions. However, real field conditions will often imply in little control over lighting and, more importantly, if the background is not prepared for the picture, that is, no other leaves and other objects are removed from the scene, the segmentation task may be considerably challenging (hence the term "difficult background"). This is especially true if there are other leaves with similar shape, texture and color in the scene, which is often the case. This paper presents a method to identify the main node of cotton leaves (where the petiole meets the veins) and the main primary vein, giving valuable information about the position and orientation of those leaves. The only constraint to which the method is subject is that the leaf of interest be located in a central position in the image. Keywords— cotton leaves, digital images, segmentation.

O

I. INTRODUÇÃO

PROCESSAMENTO digital de imagens (PDI) tem sido cada vez mais aplicado a problemas encontrados na agricultura, e a maior parte das ferramentas desse tipo focam nas folhas, as quais são, na maioria das vezes, a parte mais proeminente das plantas. Dentre as principais aplicações que empregam PDI para a análise de folhas, pode-se citar a detecção e diagnóstico de doenças, detecção de nervuras, detecção de deficiências nutricionais, entre outros. Nessas aplicações, normalmente o primeiro passo é isolar a folha do restante da cena. Se a imagem da folha é capturada sob condições controladas, o que normalmente implica em remover a folha da planta, essa tarefa é relativamente simples, embora a complexidade da estrutura foliar possa influenciar o grau de dificuldade. Condições controladas foram usadas em alguns trabalhos, sob diferentes contextos [1-4]. Outros trabalhos usam informação de profundidade, além dos canais de cor, para separar a folha em primeiro plano dos demais objetos presentes na cena, informação esta que pode ser obtida por técnicas como luz estruturada (structured light) [5], estrutura por movimento (structure-from-motion) [6] e tempo de voo (time-of-flight) [78]. Alguns trabalhos tentam resolver o problema da segmentação de folhas usando imagens capturadas em campo, ou seja, com pouco ou nenhum controle sobre fatores ambientais. Este é um problema difícil de ser resolvido, especialmente se há na cena outras folhas com tonalidades semelhantes àquela de interesse. Por esse motivo, muitos desses métodos exigem que certas condições sejam atendidas para J. G. A. Barbedo, Centro Nacional de Pesquisa Tecnológica em Informática paraAgricultura (CNPTIA), Empresa Brasileira de Pesquisa Agropecuária

funcionarem corretamente. O método proposto por Lu et al. [9] visa identificar ervas daninhas e separá-las de folhas de cebola caso haja superposição, usando informações de cor e forma; as cenas são, em geral, limpas, havendo a presença apenas das ervas daninhas, de solo ao fundo e, em alguns casos, de folhas de cebola, as quais possuem formato diferente das ervas daninhas. Manh et al. [10] também buscam a segmentação de ervas daninhas em campo, usando modelos deformáveis (deformable templates) para identificar as folhas dessas plantas; como no caso do método anterior, a cena é relativamente limpa, e neste caso não há a interferência de folhas de outras espécies de plantas. O método proposto por Camargo et al. [11] usa a clusterização de Gustafson–Kessel e um algoritmo genético para segmentar folhas de plantas; como nos casos anteriores, o restante da cena é relativamente limpo e diferente das regiões de interesse, o que garante um grau de interferência baixo. Noble e Brown [12] usam imagens de banda estreita capturada por um espectrofotômetro, combinadas com a técnica de subtração de bordas, para separar todas as folhas de plantas do restante da cena (normalmente solo); o objetivo deste trabalho não é separar folhas individuais, e sim estimar a cobertura foliar em uma determinada área de interesse. O objetivo final do método proposto por Wang et al. [13] é a classificação das folhas presentes na imagem, porém uma etapa intermediária essencial é a segmentação das folhas usando a técnica de separação de águas (watershed) e operações morfológicas; segundo os autores, todas as imagens possuem interferentes que complicam o processo de segmentação e classificação. Liu e He [14] usam dimensões fractais locais e clusterização nebulosa baseada em cor para segmentar folhas de árvores em imagens reais contendo diferentes elementos interferentes ao fundo. Cerutti et al. [15] usam polígonos que modelam os formatos mais comuns encontrados em folhas, polígonos estes que são deformáveis de modo a casarem da maneira mais próxima possível com as folhas de interesse na imagem; os autores usaram duas bases de dados, uma contendo fundo branco, e outra com imagens naturais, centralizadas e rotacionadas para se encaixar com as condições exigidas pelo algoritmo. Os mesmos autores apresentam uma técnica similar para a segmentação de folhas compostas [16]. Li et al. [17] usam o algoritmo de tesouras inteligentes para segmentar folhas em imagens com fundo complexo; o método proposto pelos autores depende de correções realizadas pelos usuários para funcionar corretamente, sendo portanto semi-automático. Kaiyan et al. [18] usam clusterização c-means, operações morfológicas e análise de blobs para realizar a segmentação de múltiplas folhas em uma imagem contendo uma cena natural. Finalmente, (Embrapa). Campinas, São Paulo, Brasil, [email protected]. Este projeto foi financiado pela Fapesp, proc. 2013/06884-8.

GARCIA ARNAL BARBEDO : IDENTIFYING CENTRAL FEATURES

Grand-Brochier et al. [19] realizam um estudo comparativo entre 14 técnicas de segmentação aplicadas a folhas contidas em imagens com fundos complicados. Como se pode ver, a maioria dos métodos propostos até agora só funciona se certas condições são atendidas, e os resultados obtidos ainda estão longe do ideal. A presente proposta visa diminuir essas restrições e aumentar o grau de automatismo das ferramentas de segmentação, através da identificação da posição do nó central (onde folha e pecíolo se encontram) e da orientação da nervura principal da folha. Essas informações podem servir como ponto de partida para outras técnicas, como modelos deformáveis e clusterização, as quais teriam informações adicionais além daquelas obtidas diretamente da imagem para realizar a segmentação. O método para identificação do nó e nervura principais proposto aqui é inteiramente baseado em informações de cor, operações morfológicas e regras heurísticas, sendo por esse motivo fácil de implementar e relativamente leve em termos computacionais. Devido a cada espécie de planta ter folhas com certas características particulares, dificilmente um método deste tipo poderia ser aplicado a um conjunto amplo de espécies. Por esse motivo, e também devido ao fato do autor ter acesso a uma grande quantidade de imagens de folhas de algodão, esta foi a cultura escolhida no contexto deste trabalho. É importante frisar, contudo, que a extensão do algoritmo aqui proposto a outras espécies de plantas é possível. O grau de dificuldade dessa extensão é inversamente proporcional ao grau de similaridade das folhas das diferentes espécies. A única condição para que o método funcione corretamente é que a folha de interesse ocupe uma posição central na imagem, o que normalmente é o caso.

3073

com a folha) e/ou das nervuras da folha.

II. O MÉTODO A Fig. 1 mostra o diagrama de blocos do algoritmo aqui proposto. Cada uma das caixas da figura será descrita ao longo desta seção. O algoritmo começa com a leitura do arquivo contendo a imagem a ser analisada. Normalmente essa imagem estará armazenada no formato RGB (red, green, blue). O espaço de cores RGB é o mais utilizado para o armazenamento de imagens, porém outros espaços de cor normalmente são mais apropriados em se tratando da aplicação de técnicas de processamento de imagens. Por esse motivo, duas transformações de cores são realizadas separadamente, uma do espaço RGB para o espaço L*a*b* e outra para o espaço CMYK. Mais informações sobre espaços de cores podem ser encontradas em [20]. Apenas alguns canais desses novos espaços de cor são considerados: o canal a do espaço L*a*b*, e os canais C e M, do espaço de cor CMYK. Como se pode ver na Fig. 1, os canais a e C são processados de maneira a aumentar o contraste entre partes claras e escuras. A Fig. 2 mostra um exemplo de imagem de folha de algodão usada neste trabalho (exemplo este utilizado até o fim deste artigo), bem como as imagens em escala de cinza resultantes para cada um dos canais de cor considerados. Como se pode observar, os canais individuais oferecem um bom realce do nó principal (junção do pecíolo

Figura 1. Diagrama de blocos do algoritmo proposto.

3074

IEEE LATIN AMERICA TRANSACTIONS, VOL. 13, NO. 9, SEPTEMBER 2015

Figura 2. a) Exemplo de imagem de uma folha de algodão. b) Imagem em escala de cinza do canal a do espaço de cor L*a*b*. c) Imagem em escala de cinza do canal C do espaço de cor CMYK. d) Imagem em escala de cinza do canal M do espaço de cor CMYK.

Na sequência, o canal a é limiarizado, de modo que todos os pixels com valor acima de 240 são feitos brancos, e todos os demais são feitos pretos, resultando na imagem mostrada na Fig. 3a. Este procedimento normalmente isola todos os nós centrais, mas também algumas partes do fundo (geralmente solo) que possuam características semelhantes quando considerado este canal. A fim de eliminar alguns dos objetos espúrios isolados pela limiarização, algumas regras, criadas a partir dos resultados de alguns testes de otimização, são aplicadas: - Objetos com mais de NP/14000 pixels são eliminados, onde NP é o número total de pixels da imagem. A motivação para esta regra é que o nó central tem um certo tamanho máximo, portanto objetos maiores devem ser devidos a outros tipos de estrutura. - Objetos com menos de NP/140000 pixels são eliminados. Neste caso, o objetivo é eliminar pequenos objetos espúrios devido a detritos, ruído na imagem, e nós de folhas secundárias menores que possam estar presentes na imagem. - Objetos cujo centroide esteja a menos de NP/280000 pixels das bordas são eliminados. Isto é uma resposta ao fato de que, como se espera que a folha esteja relativamente centralizada na imagem, seu nó principal nunca vai estar tão próximo das

bordas. - Por fim, se a excentricidade do objeto é maior que 0,95, este é eliminado. A motivação para isto é que o nó principal normalmente tem um formato que se aproxima de um círculo, tendo portanto baixa excentricidade. A excentricidade é determinada em dois passos: primeiro, o objeto é aproximado por uma elipse, e então a razão entre a distância entre os focos da elipse e o comprimento do eixo principal da elipse é calculada. Quanto mais próximo de zero seu valor, mais o objeto se assemelha a um círculo; por outro lado, quanto mais próximo de 1, mais o objeto de aproxima de uma reta. A Fig. 3b mostra o resultado da aplicação das regras para eliminação de objetos espúrios. Como se pode ver, objetos espúrios ainda podem permanecer após a aplicação das regras. Assim, procedimentos adicionais são necessários. Foi observado que, no canal M do espaço de cor CMYK, os nós normalmente são cercados por pixels muito mais escuros, o que é esperado para tecido saudável das folhas neste canal. Por outro lado, os pixels que cercam os objetos espúrios normalmente têm uma tonalidade muito mais próxima desses objetos. O que se fez então foi definir uma faixa de 30 pixels ao redor de cada objeto (usando o canal M) e, se a média dos valores desses pixels é maior que 60, o objeto é descartado.

GARCIA ARNAL BARBEDO : IDENTIFYING CENTRAL FEATURES

Conforme mostrado na Fig. 3c, o procedimento é suficiente para manter na imagem apenas os nós principais das folhas no exemplo utilizado.

3075

detectados são considerados. O procedimento descrito a seguir baseia-se no fato de que as nervuras são relativamente retas, podendo portanto ser aproximadas por segmentos de reta, ao menos por uma extensão limitada. O que se fez então foi, tendo como centro o centroide de cada objeto, traçar uma reta de NP/280000 pixels, inicialmente alinhada com a abscissa da imagem. Então, calculou-se a média e a variância dos pixels localizados nessa reta, usando o canal C. A reta foi então sucessivamente rotacionada, no sentido anti-horário, por um ângulo de 0,127° (determinado empiricamente), sendo a média e a variância calculadas a cada passo. A Fig. 4 ilustra o procedimento.

Figura 4. Exemplo do procedimento para determinar as posições das nervuras. Iniciando com o passo 1, a reta vai sendo rotacionada em passos de 0,127°, até completar 360°. No exemplo, é mostrada a reta que melhor aproxima a nervura principal, obtida no passo 625 de rotação.

Após todas as rotações terem sido consideradas, tem-se uma série de valores para as médias e as variâncias. A Fig. 5 mostra os gráficos gerados para as médias e variâncias, os quais servem como base para o procedimento de escolha da nervura principal a ser descrito mais adiante.

Figura 3. a) Resultado da aplicação da limiarização ao canal a. b) Objetos resultantes após a aplicação das regras. c) Resultado após o descarte de objetos pelo valor médio dos pixels circundantes.

O próximo passo é a determinação de todos os nós potenciais. Embora ao final deseje-se isolar apenas o nó e nervuras relativos à folha principal, neste ponto todos os objetos

Figura 5. Exemplo de gráfico das médias e variâncias dos pixels.

Foi observado que o valor das médias normalmente cai nas posições das nervuras, porém as médias podem cair também em

3076

outras regiões escuras. Por outro lado, observou-se também que as variância tendem a cair nas posições das nervuras, mas o mesmo muitas vezes não ocorre para outras regiões. Tendo essas observações em mente, as seguintes regras foram aplicadas: - Todos os mínimos locais da sequencia de valores da média são localizados. Para cada um desses mínimos, são identificados os dois maiores máximos locais vizinhos, um considerando 150 pontos à esquerda do mínimo local, e outro considerando 150 pontos à direita. Se o valor do mínimo local é ao menos 20 unidades menor que ambos os máximos vizinhos, a posição é considerada como sendo potencialmente de uma nervura. - O valor da variância na posição da nervura potencial é tomada, bem como os valores dos máximos locais vizinhos, em procedimento idêntico àquele descrito no item anterior. Se o valor da variância na posição potencial é ao menos 700 unidades menor que ambos os máximos locais vizinhos, a posição é considerada como sendo de fato de uma nervura, caso contrário ela é descartada. Esse procedimento de identificação das nervuras potenciais é realizado para todos os objetos remanescentes da seleção de nós, como mostrado na Fig. 3c. Porém, o objetivo aqui é identificar o nó e a nervura central da folha principal da cena. Para isso, as seguintes regras são aplicadas: - Foi observado que a folha principal, por ter uma posição de destaque, tende a ter um maior número de nervuras associadas. Isso ocorre porque folhas em posições menos favoráveis na imagem podem apresentar nervuras cujas características de cor não sejam suficientemente destacadas para que tais nervuras possam ser identificadas pelo algoritmo. Assim, o algoritmo primeiro identifica o nó com o maior número de nervuras associadas, número esse identificado por N. Nós que tenham um número de nervuras identificadas menor ou igual a N-2 são imediatamente descartados. - Para os nós remanescentes, a média do valor dos pixels localizados nas retas que caracterizam todas as nervuras associadas a cada nó é calculada, usando o canal de cor C. O nó que apresenta o menor valor para essa média é escolhido como sendo o nó principal na imagem sob análise. Uma vez determinado o nó principal, resta determinar, dentre as nervuras associadas àquele nó, qual é a que define o eixo central da folha (o que também define sua orientação). O processo para a escolha da nervura principal é o principal responsável pela exigência de que a folha principal ocupe posição central na imagem. Isso ocorre porque, uma vez que essa exigência seja atendida, a nervura central tenderá sempre a apontar para o centro da imagem, partindo do nó principal. Primeiro, considera-se que apenas as duas nervuras com menor média para os valores dos pixels têm potencial para ser a nervura principal, o que é uma suposição razoável dado que a nervura principal normalmente é a mais espessa e destacada na folha. A seguir, determina-se o ângulo da reta ligando o centroide do nó ao centro da imagem, em relação ao eixo das abscissas. As seguintes regras são então aplicadas: - Se os valores das médias para as duas nervuras potenciais têm uma diferença menor que 10 entre eles, aquela que tiver o

IEEE LATIN AMERICA TRANSACTIONS, VOL. 13, NO. 9, SEPTEMBER 2015

menor ângulo em relação à reta ligando o centroide do nó ao centro da imagem é tomada como a nervura principal. Esta regra vem diretamente da observação de que a nervura principal tenderá a ter uma orientação voltada ao centro da imagem. A Fig. 6 ilustra a aplicação desta regra, onde, devido ao ângulo α ser menor que o ângulo β, a nervura caracterizada pela reta b é corretamente tomada como sendo a principal.

Figura 6. Aplicação da regra dos ângulos para seleção da nervura principal. - Caso a diferença entre as médias das duas nervuras potenciais seja maior que 10, a nervura com menor média terá uma grande probabilidade de ser a principal, de modo que uma condição mais forte que a usada no item anterior deve ser imposta para que a nervura com maior média seja tomada como a principal. Na prática, a única situação observada para a qual essa troca deveria ocorrer é quando, devido à sombra da própria folha ou à coloração atípica do pecíolo, este é tomado como uma nervura principal. Como o pecíolo normalmente aparece oposto à nervura principal, a seguinte regra foi criada. Se o ângulo entre as duas nervuras principais é maior que 135°, e o ângulo entre a nervura de maior média com a reta ligando o centroide ao centro da imagem é menor que 90°, considera-se que a nervura com menor média é na verdade o pecíolo, e a segunda nervura é então tomada como sendo a principal. O algoritmo é finalizado neste ponto, uma vez que o nó principal e a nervura central foram determinadas. III. RESULTADOS E DISCUSSÃO As imagens utilizadas para treinar e testar o algoritmo foram capturadas em campo usando duas câmeras diferentes, sendo a primeira uma câmera compacta convencional, e a segunda uma câmera embarcada em um aparelho celular. Quatro imagens (duas de cada câmera) foram usadas no treinamento, e 50 foram usadas nos testes. As imagens capturadas possuem diferentes características em termos de iluminação, cor das folhas, e presença de lesões e sintomas de doenças. Todas as imagens possuem uma folha principal, com o fundo contendo outras folhas e solo, como exemplificado na Fig. 2a. Dois fatores foram analisados nos testes: a) acuidade na identificação do nó principal, o que revela se o algoritmo

GARCIA ARNAL BARBEDO : IDENTIFYING CENTRAL FEATURES

identificou a folha correta, e b) acuidade na identificação da nervura, o que indica se a orientação da folha foi corretamente determinada. A Tabela I mostra os resultados gerais obtidos pelo método com relação à identificação do nó. TABELA I - RESULTADOS GERAIS OBTIDOS PELO MÉTODO NA IDENTIFICAÇÃO DO NÓ PRINCIPAL.

Ocorrência

Nó Certo 96%

Nó outra folha 0%

Lesão 4%

Solo 0%

Como se pode observar, o nó correto foi identificado em 96% dos casos. O que se pode observar é que o algoritmo funciona bem na maioria das condições, mas pode errar quando a folha está severamente afetada por lesões, como é o caso do exemplo mostrado na Fig. 7.

Figura 7. Imagem de folha contendo lesões severas.

A Tabela II mostra os resultados para a identificação da nervura principal. Os resultados reportados nessa tabela assumem que o nó principal foi corretamente identificado. TABELA II. RESULTADOS GERAIS OBTIDOS PELO MÉTODO.

Ocorrência

Nervura Correta 96%

Nervura Secundária 2%

Outro 2%

Como se pode ver, os resultados foram muito parecidos com o caso dos nós. Em certas condições de iluminação, nervuras secundárias podem aparecer com maior destaque no canal C usado neste tipo de detecção, o que pode levar a um erro. Lesões severas também podem causar erro, já que estas causam deformidades que, ao mesmo tempo que modificam as características esperadas para as nervuras, assumem características tonais que podem levar o algoritmo a errar. Esses casos, contudo, são relativamente raros. A fim de analisar o impacto do algoritmo proposto na segmentação das folhas de algodão, este foi incorporado ao método proposto por Manh et al. [10], sendo os resultados mostrados na Tabela III. As colunas de falsos positivos e falsos ⁄ e ⁄ , negativos são dadas, respectivamente, por onde NFP é o número de pixels detectados localizados fora da área ocupada pela folha principal, NFN é o número de pixels que

3077

não foram detectados pelo algoritmo e que fazem parte da folha principal, e N é o número correto de pixels da folha principal. TABELA III. COMPARAÇÃO DE SEGMENTAÇÃO DE FOLHAS DE ALGODÃO COM E SEM O ALGORITMO PROPOSTO.

Algoritmo Manh et al. [10] Manh + proposto

Falsos Positivos 0.70 0.18

Falsos Negativos 0.06 0.09

Pode-se notar que houve uma diminuição significativa do número de falsos positivos com a incorporação do algoritmo proposto, enquanto o número de falsos negativos aumentou levemente. É importante ressaltar que o algoritmo proposto foi incorporado ao método descrito em [10] de maneira direta e sem maiores investigações, de modo que, com algumas otimizações, resultados ainda melhores poderiam ser alcançados. A. Discussão Os resultados obtidos demonstram que o método é bem sucedido no que se propõe a fazer, que é fornecer informações sobre a posição e orientação da folha principal numa imagem, informação esta que pode ser utilizada para melhorar o desempenho de métodos de segmentação de folhas, especialmente quando o fundo é complexo e contém elementos que se confundem com a folha principal. Alguns fatores, contudo, podem influenciar no desempenho do método, fatores esses que foram cuidadosamente investigados, e cujas conclusões são apresentadas nesta seção. Conforme já colocado na apresentação dos resultados, lesões presentes nas folhas podem ser um fator de grande importância. As lesões podem dificultar a tarefa do algoritmo de duas maneiras. Primeiro, as lesões, quando analisadas nos canais de cor adotados neste trabalho, podem ter características tonais e de cor muito similares às dos nós e/ou nervuras. O método é bastante robusto a esse tipo de problema, porém casos mais severos (mais de 20% da folha afetada), como aquele mostrado na Fig. 7, podem causar problemas. Segundo, mesmo que as lesões tenham características de cor distintas dos nós e nervuras, elas podem distorcer e modificar essas estruturas a tal ponto que se torna impossível para o algoritmo identificá-las. Novamente, um alto grau de severidade é necessário para que isso ocorra. Considerando a base de dados utilizada, as lesões foram o único fator capaz de levar a erros de identificação. A iluminação é outro fator que pode potencialmente afetar o desempenho do método. A base de dados contém uma variedade de condições, incluindo folha na sombra (Fig. 2a), folha no sol (Fig. 7), e folhas com parte na sombra e parte no sol. Não foi observada qualquer diferença no desempenho do algoritmo com sol ou sombra. No caso de iluminação heterogênea (sombra e sol ao mesmo tempo), embora não se tenha tido nenhum erro, foi observado que alguns acertos foram marginais, isto é, um pouco mais de contraste entre a parte sombreada e a parte no sol seria suficiente para que o algoritmo errasse. Portanto, deve-se evitar esse tipo de situação, tomandose o cuidado de garantir uma iluminação homogênea. Na base de dados usada nos testes, as imagens foram todas capturadas de maneira aproximadamente ortogonal à superfície das folhas. Embora a influência do ângulo de captura não tenha

3078

IEEE LATIN AMERICA TRANSACTIONS, VOL. 13, NO. 9, SEPTEMBER 2015

sido diretamente testado, pode-se afirmar que, uma vez que muitas das regras usadas no algoritmo são baseadas na geometria das estruturas que se deseja, é provável que o algoritmo tenha problemas com imagens capturadas num ângulo muito distante da posição ortogonal. Quanto às características do fundo da imagem, o método foi projetado para ser capaz de lidar com qualquer situação. Assim, até mesmo sob condições mais difíceis (fundo formado por outras folhas com as mesmas características de cor da folha principal), o método é capaz de funcionar corretamente. A única situação capaz de criar problemas é se a captura da imagem não preenche a única condição exigida pelo algoritmo, que é que a folha principal ocupe uma posição aproximadamente central na imagem. Outro fator importante é a porcentagem de cobertura da folha principal em relação à imagem como um todo. Dentre as imagens usadas nos testes, a folha principal com menor cobertura ocupava cerca de 25% da imagem. O algoritmo não teve problemas em nenhum caso. Contudo, a fim de garantir a confiabilidade dos resultados, é recomendável que não haja folhas que ocupem mais espaço na imagem que a folha principal. Como colocado anteriormente, o presente trabalho foi feito com base nas características de folhas de algodão. O procedimento adotado para identificação da nervura central provavelmente pode ser aplicado para uma ampla gama de folhas, já que as características apresentadas por estas são compartilhadas por diferentes espécies de plantas. Por outro lado, o procedimento para identificação dos nós é um pouco mais particular. Nesse caso, a extensão pode ser possível para algumas outras espécies de plantas, desde que sejam feitas as adaptações necessárias (diferentes canais de cor, diferentes limiares, etc.). Por fim, é importante reforçar que as técnicas de segmentação de folhas ainda têm grandes dificuldades no caso de se ter um fundo complexo e com diferentes elementos capazes de se confundir com a folha a ser segmentada. Isso ocorre porque muitas das técnicas encontradas na literatura foram projetadas para operarem em condições que não causassem os problemas apontados neste artigo, em particular quando há a presença de outras folhas. Em situações como essa, os limites da folha principal podem ficar mascarados sendo muito difíceis de serem detectados sem alguma informação adicional. É exatamente nesse contexto que o presente trabalho se insere, provendo informações espaciais (posição e orientação da folha) que, devidamente exploradas, têm um grande potencial de melhorar os resultados das técnicas de segmentação de folhas, o que pode ser verificado na Tabela III.

aplicadas a diferentes canais de diferentes espaços de cor, e também em operações morfológicas amplamente utilizadas no contexto do processamento digital de imagens. A única restrição em relação às imagens é que a folha principal ocupe uma posição aproximadamente central na cena. Testes demonstraram a efetividade do método, sendo que, na base de dados utilizada, o único fator capaz de causar erros foi a presença severa de lesões. Pesquisas futuras deverão se dedicar a verificar o impacto da inclusão deste método no desempenho das ferramentas de segmentação de folhas. REFERÊNCIAS [1] [2]

[3] [4]

[5] [6] [7] [8] [9]

[10] [11]

[12] [13] [14]

[15]

IV. CONCLUSÃO Este artigo apresentou um método para identificar a posição do nó central e a orientação da nervura principal em folhas de algodão. O objetivo principal de se extrair essas informações é possibilitar o aperfeiçoamento dos métodos de segmentação de folhas existentes, os quais ainda sofrem muitas limitações quando têm que lidar com imagens reais contendo um fundo complexo. O método é inteiramente baseado em regras

[16]

[17]

D. G. Henries, “Segmentation and extraction of individual leaves from plant images for species classification,” Master's dissertation, Appalachian State University, USA, 2011. N. Kumar, P. N. Belhumeur, A. Biswas, D. W. Jacobs, W. J. Kress, I. Lopez, and J. V. B. Soares, “Leafsnap: A Computer Vision System for Automatic Plant Species Identification,” in Proc. 12th European Conference on Computer Vision, 2011. N. Valliammal and S. N. Geethalakshmi, “Plant Leaf Segmentation Using Non Linear K means Clustering,” International Journal of Computer Science Issues, vol. 9, no. 3, pp. 212–218, 2012. N. Valliammal and S. N. Geethalakshmi, “Leaf Image Segmentation Based On the Combination of Wavelet Transform and K Means Clustering,” International Journal of Advanced Research in Artificial Intelligence, vol. 1, no. 3, pp. 37–43, 2012. M. Wallenberg, M. Felsberg, P.-E. Forssén, and B. Dellen, “Leaf segmentation using the Kinect,” in Proc. SSBA'11 Symposium on Image Analysis, 2011. C.-H. Teng, Y.-T. Kuo, and Y.-S. Chen, “Leaf segmentation, classification, and three-dimensional recovery from a few images with close viewpoints,” Optical Engineering, vol. 50, no. 3, 13 p., 2011. G. Alenyà, B. Dellen, S. Foix, and C. Torras, “Robotic leaf probing via segmentation of range data into surface patches,” in Proc. IROS Workshop on Agricultural Robotics, 2012. G. Alenyà, B. Dellen, S. Foix, and C. Torras, “Robotized Plant Probing: Leaf Segmentation Utilizing Time-of-Flight Data,” IEEE Robotics & Automation Magazine, vol. 20, no. 3, pp. 50–59, 2013. J. Lu, P. Gouton, J. P. Guillemin, C. Ma, and J. C. Coquille, “A method of using segmentation of color images and shape factors with frontier rates to identify onion and weeds in field,” in Proc. 18° Colloque sur le traitement du signal et des images, 2001. A.-G. Manh, G. Rabatel, L. Assemat, and M.-J. Aldon, “Weed leaf image segmentation by deformable templates,” Journal of Agricultural Engineering Research, vol. 80, no. 2, pp. 139–146, 2001. J. Camargo Neto, G. E. Meyer, and D. D. Jones, “Individual leaf extractions from young canopy images using Gustafson–Kessel clustering and a genetic algorithm,” Computers and Electronics in Agriculture, vol. 51, pp. 66–85, 2006. S. D. Noble and R. B. Brown, “Spectral band selection and testing of edge subtraction leaf segmentation,” Canadian Biosystems Engineering, vol. 50, pp. 2.1–2.8, 2008. X. Wang, D. Huang, J. Du, H. Xu, and L. Heutte, “Classification of plant leaf images with complicated background,” Applied Mathematics and Computation, vol. 205, pp. 916–926, 2008. W. Liu and Y. He, “Fractal features and Fuzzy Clustering based tree leaf segmentation from images with the complex background,” in Proc. Intl. Conference on Computer, Mechatronics, Control and Electronic Engineering, pp. 317–321, 2010. G. Cerutti, L. Tougne, A. Vacavant, and D. Coquin, “A parametric active polygon for leaf segmentation and shape estimation,” in Proc. International Symposium on Visual Computing, 2011. G. Cerutti, L. Tougne, J. Mille, A. Vacavant, and D. Coquin, “A modelbased approach for compound leaves understanding and identification,” in Proc. IEEE International Conference on Image Processing, pp. 1471– 1475, 2013. X. Li, H.-H. Lee, and K.-S. Hong, “Leaf contour extraction based on an intelligent scissor algorithm with complex background,” in Proc. International Conference on Future Computers in Education, pp. 215– 220, 2012.

GARCIA ARNAL BARBEDO : IDENTIFYING CENTRAL FEATURES [18] L. Kaiyan, W. Junhui, C. Jie, and S. Huiping, “A real time image segmentation approach for crop leaf,” in Proc. Fifth Conference on Measuring Technology and Mechatronics Automation, pp. 74–77, 2013. [19] M. Grand-Brochier, A. Vacavant, G. Cerutti, K. Bianchi, and L. Tougne, “Comparative study of segmentation methods for tree leaves extraction,” in Proc. Intl. Workshop on Video and Image Ground Truth in Computer Vision Applications, 2013. [20] R. C. Gonzalez and R. E. Woods, Digital Image Processing, 3rd ed. Prentice Hall, 2007. Jayme Garcia Arnal Barbedo graduou-se em Engenharia Elétrica pela Universidade Federal de Mato Grosso do Sul em 1998 e recebeu os títulos de mestre e doutor pela Universidade Estadual de Campinas em 2001 e 2004, respectivamente. Em 2004, juntou-se à Diretoria de TV Digital da Fundação CPqD de Campinas, onde trabalhou na área de codificação de sinaisfonte no âmbito do projeto para determinação do sistema brasileiro de televisão digital. Entre 2005 e 2010, conduziu pesquisas de pós-doutorado na Universidade Estadual de Campinas, Harvard University (EUA) e University of Victoria (Canadá). Desde 2011, atua como pesquisador na Embrapa Informática Agropecuária, em Campinas, São Paulo. Suas áreas de interesse incluem processamento digital de voz, processamento digital de música, TV digital e processamento digital de imagens.

3079

Lihat lebih banyak...

Comentários

Copyright © 2017 DADOSPDF Inc.