Análise de Desempenho do Virtualizador KVM com o HPCC em Aplicações de CAD

Share Embed


Descrição do Produto

Anais do XII Workshop de Computação em Clouds e Aplicações - WCGA 2014

Análise de Desempenho do Virtualizador KVM com o HPCC em Aplicações de CAD Rubens Karman1, David Beserra2, Patrícia Endo3, Sergio Galdino1 1

2

Departamento de Computação Inteligente – Universidade de Pernambuco (UPE) Recife – PE – Brasil

Unidade Acadêmica de Garanhuns – Universidade Federal Rural de Pernambuco (UFRPE) Garanhuns – PE – Brasil 3

Grupo de Estudos Avançados em Tecnologia da Informação e Comunicação – Universidade de Pernambuco (UPE), Caruaru, Brasil

[email protected], [email protected], [email protected]

Abstract. Cloud Computing can support High Performance Computing (HPC) applications, and the virtualization is its basic technology. Despite benefits from virtualization, it is crucial to determine its overload on HPC applications performance. This work analyzes the virtualized clusters performance over KVM hypervisor for HPC applications, with the HPCC benchmark suite. We also analyze the virtualized clusters performance when their virtual machines are hosted in the same physical host, in order to realize the resource sharing impact on the performance. Resumo. A Computação em Nuvem pode oferecer suporte a aplicações de Computação de Alto Desempenho (CAD) e a virtualização é sua tecnologia básica. Apesar dos benefícios oriundos da virtualização, é de fundamental importância determinar suas sobrecargas no desempenho de aplicações de CAD. Este trabalho analisa o desempenho de clusters virtualizados com o KVM executando aplicações de CAD, com a aplicação do conjunto de testes HPCC. Também será avaliado o desempenho de clusters virtualizados quando suas máquinas virtuais estão hospedadas em um mesmo servidor físico, para determinar os efeitos do compartilhamento de recursos no desempenho.

1. Introdução A Computação em Nuvem é considerada atualmente um dos paradigmas dominantes em sistemas distribuídos [Younge et al. 2011]. Entre as diversas aplicações que podem ser implementados na Nuvem, destaca-se a Computação de Alto Desempenho (CAD), que necessita de clusters virtuais para execução de aplicações que utilizam Message Passing Interface (MPI) ([Mello et al. 2010] e [Beserra et al. 2012]). Uma tecnologia que permeia a infraestrutura de uma Nuvem é a virtualização, já bastante conhecida na área de computação, e frequentemente identificada como uma forma de abstração de recursos físicos com diferentes propósitos. De acordo com [Ye et al. 2010], a virtualização proporciona benefícios como administração flexível e confiabilidade de sistemas.

28

Anais do XII Workshop de Computação em Clouds e Aplicações - WCGA 2014

Todavia, apesar dos benefícios, ainda não são conhecidos em sua totalidade os impactos da virtualização no desempenho de clusters virtualizados para CAD [Ye et al. 2010]. O objetivo principal deste trabalho é analisar o desempenho de um cluster virtualizado com o virtualizador KVM ao executar aplicações de CAD. O intuito da análise é determinar como a virtualização sobrecarrega o desempenho deste tipo de estrutura computacional. O presente artigo está estruturado da seguinte forma: a Seção 2 introduz o virtualizador KVM no contexto de CAD; a Seção 3 descreve os objetivos a serem alcançados e os procedimentos metodológicos adotados; a Seção 4 apresenta os resultados obtidos; e por fim, a Seção 5 conclui o trabalho com as considerações finais e trabalhos futuros.

2. Trabalhos Relacionados Alguns requisitos fundamentais devem ser atendidos ao se empregar virtualização em CAD, por exemplo, a sobrecarga da virtualização não deve ter impactos significativos no desempenho do sistema, deve-se melhorar a administração do ambiente, permitindo a criação e destruição rápida de VMs, e deve-se obter uma distribuição flexível de recursos de hardware. Outro requisito importante é o isolamento das aplicações em VMs e a migração automática de VMs de um servidor a outro quando necessário, para aumentar a confiabilidade e a segurança do ambiente [Ye et al 2010]. Alguns trabalhos já abordaram o uso do KVM para CAD, como o de [Younge et al. 2011], que analisou a viabilidade da virtualização para CAD. Foram analisados os virtualizadores de código aberto Xen, KVM e VirtualBox e elaborada uma tabelaresumo de suas características principais, sendo a Tabela 1 uma versão atualizada. O desempenho dos virtualizadores foi medido com o High Performance Computing Benchmark (HPCC) e o Standard Performance Evaluation Corporation (SPEC) aplicado em clusters virtuais. A partir dos resultados obtidos foi elaborada uma classificação de virtualizadores para CAD, concluindo que KVM e VirtualBox são os melhores em desempenho global e facilidade de gerenciamento, com o KVM sobressaindo-se em capacidade de computação e de expansibilidade de memória. [Younge et al. 2011] também observou que, ao contrario do Xen, o KVM apresenta poucas oscilações no desempenho, característica que é considerada um componente chave em ambientes de Nuvem. Em um ambiente de Nuvem computacional o serviço ofertado deve ser estável e confiável. Grandes oscilações de desempenho não são bem vindas pelos clientes [Younge et al. 2011] [Napper e Bientinesi. 2009]. Em [Mello et al. 2010] foram avaliados os efeitos do compartilhamento de recursos de um mesmo hospedeiro por múltiplos clusters virtualizados com VirtualBox. O SO do servidor hospedeiro foi incapaz de distribuir igualmente os recursos entre clusters virtualizados com o VirtualBox. Isto não é bem vindo, por não garantir que clientes que paguem igualmente por um serviço de instancia de VMs com configurações iguais obtenham desempenhos diferentes. Em um ambiente de cluster, o desempenho de toda a estrutura em uma aplicação com carga de trabalho homogeneamente distribuída, com barreiras de sincronização ativadas, é limitado pelo elemento computacional de menor desempenho. Logo, é importante garantir distribuição justa de recursos entre VMs hospedadas em um mesmo servidor hospedeiro.

29

Anais do XII Workshop de Computação em Clouds e Aplicações - WCGA 2014

[Johnson et al. 2011] analisa o desempenho do KVM para aplicações de CAD, todavia de cunho educacional, visando implementar um cluster virtualizado para prover infraestrutura de ensino de programação paralela com MPI e o treinamento no uso de sistemas de arquivos paralelos Hadoop. Todavia, não foram verificados os efeitos do compartilhamento de recursos de um mesmo hospedeiro por múltiplas VMs no desempenho dos clusters virtuais, e nem se o SO hospedeiro distribui os recursos de maneira equipotente entre as VMs.

Este trabalho tem por objetivo verificar a ocorrência de sobrecargas no desempenho de clusters virtualizados com o KVM e qual o efeito do compartilhamento de recursos de um mesmo hospedeiro por clusters virtualizados com o KVM em seu desempenho. Este trabalho está inserido no contexto de uma pesquisa, em nível de mestrado, que estuda a aplicabilidade do paradigma da computação em nuvem em aplicações cientificas biomédicas. Tabela 1. Resumo das características dos virtualizadores de código aberto. Xen Ultima versão

4.3

KVM Embutido no Kernel Linux mais recente.

VirtualBox

Para-virtualização

Sim

Não

Sim

Virtualização total

Sim

Sim

Sim

CPU hospedeira

x86, x86-64, IA-64

x86, x86-64, IA-64, PPC x86, x86-64

CPU convidada

x86, x86-64, IA-64

SO hospedeiro

Linux, Unix

SO convidado

Linux, Windows, NetBSD

x86, x86-64, IA-64, PPC x86, x86-64 Windows, Linux, Linux OS X, Solaris, Unix Windows, Linux, Windows, Linux, Unix Unix, Solaris

VT-x / AMD-v

Opcional

Requerido

Opcional

Núcleos suportados

128

64

128

Memória suportada

5TB

4TB

1TB

Aceleração 3d

Xen-GL

VMGL

Open-GL, Direct3D

Live Migration

Sim

Sim

Sim

Licença

GPL

GPL

GPL/Proprietária

4.3.6

3. Mensurando o Desempenho do KVM para CAD Esta seção aborda a metodologia de pesquisa utilizada, descrevendo o ambiente de provas, as ferramentas de avaliação de desempenho empregadas e os testes executados. Todos os testes foram executados trinta vezes. Para cada teste foram descartadas as amostras obtidas de maior e o menor valor e calculada a média das demais. Esta medida foi adotada devido aos valores obtidos nestas amostras em particular estarem muito afastadas da média das demais. 3.2. Ambiente de Testes Os experimentos foram executados em quatro computadores equipados com processadores Intel Core 2 Quad Q8200 operando em frequência de 2.8 GHz. Esse

30

Anais do XII Workshop de Computação em Clouds e Aplicações - WCGA 2014

processador tem um conjunto de instruções específicas para virtualização. Os computadores tem 4 GB de memória principal, do tipo DDR 2 com frequência de operação de 800 MHz. A interconexão entre os computadores foi realizada com adaptadores e comutador de rede operando em conformidade com o padrão Gigabit Ethernet 10/100/1000. A ferramenta de virtualização utilizada para a criação de todas as VMs usadas nos experimentos foi o KVM. A escolha do KVM como ferramenta de virtualização deste estudo em relação a outros virtualizadores de código aberto é motivada por o mesmo ser suportado por algumas das principais ferramentas para implementação de nuvens computacionais, como Eucalyptus e Nimbus [Endo et al 2010]. Para a construção dos clusters foi utilizado o SO Rocks Clusters 6.1 64bit. O Rocks Clusters é um SO baseado em Linux desenvolvido para simplificar o processo de criação de clusters para CAD [Papadopoulos, Katz e Bruno. 2003]. Os hospedeiros de VMs utilizaram o CentOS 5.5 64bit como SO. 3.2. Ferramentas de Avaliação de Desempenho Para comparar o desempenho global dos diferentes ambientes testados foi utilizado o HPCC [Luszczek et al. 2006]. O HPCC é o conjunto de testes padrão da comunidade de pesquisa em CAD [Ye et al. 2010]. O HPCC avalia o desempenho do processador, da memória, da comunicação inter-processos e da rede de comunicação. É constituído pelos seguintes testes: 

HPL – O High Performance Linpack mede a quantidade de operações de ponto flutuante por segundo (FLOPS) realizadas por um sistema computacional durante a resolução de um sistema de equações lineares. É o teste mais importante para CAD [Younge et al. 2011];



DGEMM – Mede a quantidade de FLOPS durante uma multiplicação de matrizes de números reais de ponto flutuante de precisão dupla;



STREAM – Mede a largura de banda de memória principal (em GB/s).



PTRANS – O Parallel matrix transpose mede a capacidade de comunicação de uma rede. Ele testa as comunicações onde pares de processadores comunicam-se entre si simultaneamente transferindo vetores de dados da memória;



RandomAccess – Mede a taxa de atualizações aleatórias na mémoria (GUPs).



FFT – O Fast Fourier Transform mede a quantidade de operações com números complexos de precisão dupla em GFlops durante a execução de uma Transformada Rápida de Fourier unidimensional.



Communication Latency/Bandwidth – Mede a largura de banda (em MB/s) e a latência da rede durante a comunicação inter-processos MPI utilizando padrões de comunicação não simultânea (ping-pong) e simultânea (Anel de processos Aleatoriamente Ordenados (ROR) e Anel Naturalmente Ordenado (NOR)).

O HPCC possui três modos de execução: single, star e mpi. O modo single executa o HPCC em um único processador. No modo star todos os processadores executam cópias separadas do HPCC, sem comunicação inter-processo. No modo mpi todos os processadores executam o HPCC em paralelo, empregando comunicação

31

Anais do XII Workshop de Computação em Clouds e Aplicações - WCGA 2014

explícita de dados [Ye et al. 2010]. O HPCC requer a instalação de uma versão do MPI e do Basic Linear Algebra System (BLAS). Para a realização dos experimentos deste trabalho foram utilizados o OpenMPI (OMPI 1.4.1) e o ATLAS (ATLAS 3.8.0). Os componentes do HPCC são classificados e agrupados pelo padrão em que acessam a memória [Luszczek et al. 2006], conforme mostrado na Tabela 2. Outra forma de classificar estes componentes leva em conta o tipo de recurso de hardware mais requisitado [Zhao et al. 2010] (Tabela 3). Tabela 2. Classificação de [Luszczek et al. 2006]. Local

Global

DGEMM

HPL

STREAM

PTRANS

RandomAccess (modo star)

RandomAccess (modo mpi)

FFT (modo star)

FFT (modo mpi)

Tabela 3. Classificação de [Zhao et al. 2010]. Computação

Acesso a Memória

Rede de Comunicação

HPL

RandomAccess

PingPongLatency

DGEMM

STREAM

PingPongBandwidth

FFT

PTRANS

HPL

STREAM

PTRANS

PTRANS

Para este trabalho é proposta uma nova classificação, que leva em conta as duas anteriores, sendo exibida na Tabela 4. Tal classificação é necessária, pois as anteriores, quando utilizadas isoladamente, não cobrem todos os casos de aplicação desses testes. Por exemplo, ao executar-se os testes PingPongBandwidth e PingPongLatency em um único servidor, não se está medindo o desempenho da rede de comunicação e sim o desempenho da comunicação inter-processos local ao servidor, aplicação não coberta pelas classificações anteriores. O mesmo raciocínio pode ser aplicado a medidas de acesso a memória com o RandomAccess em modo mpi. Como o STREAM e o DGEMM apenas executam em modo star, podem obter apenas medidas de capacidade local. Tabela 4. Nova Classificação Proposta. Comp. Local DGEMM HPL FFT

Comp. Global HPL FFT

Acesso a Mem. Local

Acesso a Mem. Global

STREAM RandomAccess

RandomAccess

32

Comunicação Inter-processos Local PingPongLatency PingPongBandwidth ROR Latency ROR Bandwidth NOR_Latency NOR_Bandwidth PTRANS

Rede de Comunicação PingPongLatency PingPongBandwidth ROR Latency ROR Bandwidth NOR_Latency NOR_Bandwidth PTRANS

Anais do XII Workshop de Computação em Clouds e Aplicações - WCGA 2014

3.3. Método Experimental O objetivo geral deste trabalho é verificar a adequabilidade do KVM para CAD. Os seguintes objetivos específicos foram utilizados na estruturação dos testes realizados: 1. Determinar a sobrecarga provocada pela virtualização no desempenho de um cluster virtual; 2. Determinar os efeitos no desempenho de clusters virtuais durante o uso concorrente de recursos de um mesmo hospedeiro físico por esses clusters. 3.3.1. Desempenho em ambiente de cluster Para alcançar o objetivo específico 1 foram testados e comparados os desempenhos de dois clusters, nomeados Gilgamesh e Arthuria, com o HPCC. O cluster Gilgamesh foi instalado em hardware nativo (sem uso de virtualização), com quatro CPUs disponíveis por nó e quatro nós ao total. Para prover igualdade de condições com o cluster Arthuria, um dos pentes de memória de 2GB foi removido de cada computador, ficando os nós de Gilgamesh com 2 GB de capacidade de memória instalada. O cluster Arthuria, por sua vez, é composto por VMs implementadas com o KVM, hospedadas em servidores físicos e distribuição de uma VM por servidor hospedeiro. Cada VM do cluster Arthuria conta com quatro v-CPUs e 2GB alocados para uso como memória principal. Os outros 2 GB de memória restantes nos servidores hospedeiros são destinados para o uso exclusivo de seu SO. 3.3.2. Efeitos do compartilhamento de recursos. Foram instanciados dois clusters virtuais (cluster A e cluster B) em um mesmo servidor para verificar como o compartilhamento de recursos afeta o desempenho individual de cada cluster (objetivo específico 2). Cada cluster foi configurado com dois nós escravos e cada nó escravo com uma vCPU e 1 GB de memória principal, de forma a não esgotar os recursos de processamento e memória do sistema. Os controladores centrais desses clusters são computadores físicos. Esta medida é justificada para que seja necessário que as VMs utilizem a rede de comunicação. Se assim não fosse, os testes de rede não mediriam o desempenho da capacidade de comunicação em rede e sim a comunicação inter-processos local, conforme exposto em subseção anteriormente. Inicialmente foi medido o desempenho de um desses clusters virtuais com o HPCC, o cluster A. Em seguida o desempenho de ambos foi aferido simultaneamente com o HPCC e foram entre si, para verificar se o SO do hospedeiro é capaz de dividir igualmente os recursos entre as VMs. O desempenho do cluster A executado em isolado foi comparado ao desempenho do cluster A executado em uma situação de competição, para determinar como a competição degenera o desempenho. É importante garantir que dois usuários que contratam um determinado serviço o recebam com desempenho similar. Se o serviço, neste caso instâncias de VMs, é fornecido em um mesmo hospedeiro, o SO do hospedeiro tem que distribuir os recursos igualmente entre as VMs. Se isto não ocorre, então não se provê uma boa qualidade de serviço, o que implica em impactos negativos para os usuários [Younge et al. 2011].

33

Anais do XII Workshop de Computação em Clouds e Aplicações - WCGA 2014

4. Resultados Obtidos Esta seção apresenta os resultados obtidos dos testes e o que foi verificado em cada um. 4.1. Sobrecargas da virtualização em ambiente de cluster As médias dos resultados obtidos em cada teste são apresentadas como uma fração dos obtidos pelo sistema nativo. A Figura 1 apresenta o desempenho médio das amostras obtidas pelo HPCC no modo mpi, exceto para os testes DGEMM e STREAM, que não dispõe deste modo, sendo então apresentados seus resultados para o modo star. A capacidade de computação dos clusters Arthuria e Gilgamesh foi medida com os testes HPL, DGEMM e FFT. Para o teste FFT, o cluster Arthuria tem desempenho 39% menor que o cluster Gilgamesh. O cluster Arthuria apresenta também desempenho 20% menor para o HPL e 22% para o DGEMM. Estes resultados indicam que aplicações computacionais são sensíveis a virtualização em graus distintos. A capacidade de leitura e escrita (E/S) em memória principal, em âmbito global (RandomAccess), é bastante reduzida no cluster Arthuria, estando abaixo da metade da obtida pelo Gilgamesh. A capacidade de E/S em memória, a nível local ao servidor, é surpreendentemente favorável ao cluster virtualizado, o que, dado o resultado dos outros testes e a condição de o acesso à memória principal do servidor pela VM sempre necessitar passar pelo gerenciador de VMs antes, o que torna impossível de um sistema virtual ser mais rápido que o nativo, indica uma possível falha do HPCC. O motivo dessa anormalidade não é conhecido e volta a ocorrer nos demais testes.

Figura 1. Desempenho dos ambientes de cluster no HPCC.

Observando a Figura 1 percebe-se que a largura de banda de comunicação cluster Arthuria é similar a apresentada pelo cluster Gilgamesh para o padrão de comunicação PingPong e muito inferior para os padrões de comunicação inter-processo NOR e ROR. Também pode-se observar na Figura 1 que a latência de rede do cluster Arthuria é muito maior que a cluster Gilgamesh, para todos os padrões de comunicação testados. Essa grande latência observada na comunicação pode explicar porque o cluster

34

Anais do XII Workshop de Computação em Clouds e Aplicações - WCGA 2014

Arthuria apresenta desempenho inferior em quase todos os testes. Excetuando-se os testes DGEMM e STREAM, que operam em modo star, todos os demais testes fazem uso intensivo da rede de comunicação. Logo, tem-se que a latência de rede é o grande gargalo de desempenho do cluster Arthuria em todos os aspectos que dela demandem. O desempenho obtido no teste PTRANS foi similar para ambos os clusters. É possível que ao aumentar a escala dos clusters, os clusters virtualizados com o KVM apresentem uma diferenciação de desempenho ainda maior em relação a clusters instalados em hardware nativo, para as aplicações que façam uso intensivo da rede de comunicação, assim como ocorre com clusters virtualizados com o Xen [Ye et al. 2010]. 4.2. Efeitos do compartilhamento de recursos A Figura 2 apresenta os resultados obtidos durante a execução de dois clusters virtuais em um mesmo hospedeiro. Foi observado que a capacidade de computação de ambos os clusters é bastante similar, o que indica boa distribuição dos recursos locais de processamento entre as VMs pelo SO hospedeiro. A capacidade da rede de comunicação obteve desempenho demasiadamente variável, possivelmente devido à existência de uma única interface de rede no servidor hospedeiro. A largura de banda de comunicação obtida pelo cluster B foi maior que a do cluster A, assim como a latência. Isso refletiu na variação de desempenho entre os clusters em alguns dos testes que dependem da rede comunicação, como o FTT, o RandomAccess e o PTRANS. Nos testes que demandam mais por largura de banda, o cluster B foi superior, nos que demandam mais por menor latência, apresentou-se inferior.

Figura 2. Desempenho de clusters virtuais que compartilham mesmo hospedeiro.

A Figura 3 Apresenta os resultados para os testes do HPCC no cluster A antes de concorrer por recursos com o cluster B, e também durante a concorrência. Observa-se claramente que o desempenho do cluster A cai durante o período que competiu por recursos com o cluster B. A queda é maior nos testes de capacidade de comunicação, por ter aumentado a quantidade de VMs que concorreram pela interface de rede, o que refletiu na redução do desempenho dos testes que demandaram da rede.

35

Anais do XII Workshop de Computação em Clouds e Aplicações - WCGA 2014

Figura 3. Comparativo do desempenho do cluster A isolado com o desempenho obtido pelo cluster A em situação de competição por recursos.

Em paralelo a execução do HPCC nos clusters virtuais foi verificado o percentual de utilização da CPU hospedeira por cada VM. Em uma situação ideal todas as VMs utilizam um percentual igual de CPU durante toda a execução do HPCC, chegando a um máximo de 25% de utilização por VM (um único núcleo de processamento do servidor). A Figura 4 apresenta o consumo de CPU do hospedeiro pelas VMs do cluster A, quando executado isoladamente. Cada PID na Figura 4 referese a um identificador do processo que representa uma VM no SO hospedeiro. Observase na Figura 4 que a utilização de CPU por ambas as VMs é similar durante a maioria do tempo de execução do HPCC, sem extrapolar o limite de 25% dos recursos totais por VM e 50% dos recursos globais para o cluster.

Figura 4. Utilização da CPU hospedeira pelo cluster A isolado.

36

Anais do XII Workshop de Computação em Clouds e Aplicações - WCGA 2014

O mesmo não pode ser dito durante a execução de dois clusters em paralelo no mesmo hospedeiro. A Figura 5 apresenta o consumo de CPU do hospedeiro pelas VMs dos clusters A (PIDs 27453 e 3238) e B (PIDs 3621 e 3998). Observa-se uma maior oscilação na porcentagem de utilização de CPU pelas VMs dos clusters, onde todas reduzem a frequência com que utilizam 100% dos recursos designados e com as do cluster B oscilando mais que as do cluster A, que foram instanciadas antes. É possível que tais oscilações no uso da CPU ocorram com mais frequência no período de tempo em que o HPCC esta executando os testes que demandam de maior capacidade da rede, o que poderia ser explicado pelo aumento da quantidade de VMs compartilhando a mesma interface de rede. As menores oscilações estariam no período de tempo em que o HPCC esta executando os testes que envolvem mais computação do que comunicação. Curiosamente, mesmo que o cluster B tenha apresentado menor utilização global de CPU, apresentou desempenho de computação similar ao cluster A em nível local e superior em âmbito global. Isto ocorreu provavelmente pelo cluster B ter sido favorecido na distribuição dos recursos de rede. Testes como o HPL e FFT demandam tanto da capacidade de comunicação quanto da largura de banda de comunicação.

Figura 5. Utilização da CPU hospedeira pelos clusters A e B compartilhados.

5. Considerações Finais Buscando verificar a adequabilidade do KVM para aplicações CAD, testes com o HPCC foram executados para determinar a sobrecarga de virtualização em um ambiente de cluster e o efeito do compartilhamento de recursos de clusters diferentes em um mesmo hospedeiro. Diante da percepção da não adequabilidade das classificações atuais dos testes do HPCC, que não cobrem todos os casos de aplicação dos mesmos, uma nova, mas abrangente, foi proposta.

37

Anais do XII Workshop de Computação em Clouds e Aplicações - WCGA 2014

Foi observado que a virtualização provoca sobrecarga de desempenho, e que a mesma é mais sentida em aplicações que demandem da rede de comunicação de que das que demandam pelos recursos de computação locais. Além disso, também foi observado que o compartilhamento de recursos nos hospedeiros degrada o desempenho de ambos os ambientes que concorrem por tais recursos, e que maior é a degradação quando mais VMs disputam os recursos. Isso ocorre devido a incapacidade do SO hospedeiro de dividir seus recursos entres os hospedeiros. De uma maneira geral, o KVM proporciona desempenho adequado a aplicações de CAD que demandem pouca comunicação inter-processo e desempenho inadequado para aplicações que demandem de maior quantidade de comunicação inter-processo. Como trabalho futuro pretende-se adicionar mais interfaces de rede aos servidores hospedeiros, em slots do tipo PCI Express, e reexecutados os testes com compartilhamento de recursos. Isto será feito para verificar se, ao fornecer interfaces de rede exclusivas para cada VM, seus desempenhos globais tornam-se mais similares.

Referências Beserra, D.W.S.C., Borba, A., Souto, S.C.R.A., de Andrade, M.J.P, e de Araújo, A.E.P. (2012) "Desempenho de Ferramentas de Virtualização na Implementação de Clusters Beowulf Virtualizados em Hospedeiros Windows." Em: X Workshop em Clouds, Grids e Aplicações-SBRC 2012. SBC, Ouro Preto, pp. 86-95. Endo, P. T., Gonçalves, G. E., Kelner, J., e Sadok, D. (2010) “A Survey on Open-source Cloud Computing Solutions”. Em: Anais do VIII Workshop em Clouds, Grids e Aplicações, pp. 3-16. Johnson, E., Garrity, P., Yates, T., e Brown, R. (2011) “Performance of a Virtual Cluster in a General-purpose Teaching Laboratory”, In: 2011 IEEE International Conference on Cluster Computing. Pp. 600-604. IEEE. Kejiang, Y., Jiang, X., Chen, S., Huang, D. e Wang, B. (2010) "Analyzing and modeling the performance in xen-based virtual cluster environment." Em: 12th IEEE International Conference on High Performance Computing and Communications (HPCC). IEEE. Luszczek, P. R., Bailey, D. H., Dongarra, J. J., Kepner, J., Lucas, R. F., Rabenseifner, R., & Takahashi, D. (2006). The HPC Challenge (HPCC) benchmark suite. In Proceedings of the 2006 ACM/IEEE conference on Supercomputing pp. 213-225. ACM. Mello, T. C. Schulze, B. Pinto, R. C. G. e Mury, A. R. (2010) “Uma análise de recursos virtualizados em ambiente de HPC”, Em: Anais VIII Workshop em Clouds, Grids e Aplicações, XXVIII SBRC/ VIII WCGA, SBC, Gramado, pp. 17-30. Napper, J. e Bientinesi, P. (2009) “Can cloud computing reach the TOP500?”, Em: Proc. Combined Workshops on UnConventional High Performance Computing Workshop Plus Memory Access Workshop, UCHPC-MAW '09, pp. 17-20. Papadopoulos, P. M., Katz, M. J., e Bruno, G. (2003). NPACI Rocks: Tools and techniques for easily deploying manageable linux clusters. Concurrency and Computation: Practice and Experience, 15(7‐8), 707-725.

38

Anais do XII Workshop de Computação em Clouds e Aplicações - WCGA 2014

Ye, K., Jiang, X., Chen, S., Huang, D., e Wang, B. (2010) "Analyzing and modeling the performance in xen-based virtual cluster environment." High Performance Computing and Communications (HPCC), 2010 12th IEEE International Conference on. IEEE. Younge, A. J., Henschel, R., Brown, J. T., von Laszewski, G., Qiu, J., Fox, G. C., (2011) "Analysis of virtualization technologies for high performance computing environments." 2011 IEEE International Conference on Cloud Computing (CLOUD). IEEE.

39

Lihat lebih banyak...

Comentários

Copyright © 2017 DADOSPDF Inc.