Utilize este identificador para citar ou criar um atalho para este documento: https://hdl.handle.net/10923/15841
Tipo: masterThesis
Título: Avaliação de técnicas de aprendizado de máquina para previsão de cargas de trabalho aplicadas para otimizar o provisionamento de recursos em nuvens computacionais
Autor(es): Kirchoff, Dionatrã Folle
Orientador: De Rose, César Augusto Fonticielha
Editora: Pontifícia Universidade Católica do Rio Grande do Sul
Programa: Programa de Pós-Graduação em Ciência da Computação
Data de Publicação: 2019
Palavras-chave: COMPUTAÇÃO EM NUVEM
APRENDIZADO DO COMPUTADOR
INFORMÁTICA
Resumo: A computação em nuvem transformou a forma de provisionar recursos computacionais nos últimos anos, oferecendo vários benefícios em relação aos sistemas tradicionais como escalabilidade e alta disponibilidade. No entanto, ainda existem algumas oportunidades a serem exploradas, especialmente na área de alocação e dimensionamento proativo de recursos. Como a carga de trabalho pode flutuar muito nestes ambientes, o provisionamento excessivo é uma prática comum para evitar quedas repentinas de Qualidade de Serviço (QoS) que podem resultar em violações de Acordo de Nível de Serviço (SLA), mas ao custo de um aumento nos custos de provisionamento e consumo de energia. A previsão de carga de trabalho é uma das estratégias pelas quais a eficiência e o custo operacional de uma nuvem podem ser melhorados. Saber antecipadamente a demanda de um serviço permite a alocação prévia de recursos suficientes para manter a QoS e evitar violações de SLA. Esta dissertação apresenta as vantagens e desvantagens de três técnicas de pre- visão de carga de trabalho usualmente aplicadas no contexto da computação em nuvem. São comparados os algoritmos de aprendizado de máquina ARIMA, MLP e o GRU em di- ferentes configurações, para ajudar os administradores a escolher o modelo preditivo mais adequado e eficiente para seu problema específico. O resultado das avaliações apresenta que os algoritmos estudados são equivalentes quanto à precisão obtida neste contexto, mas apresentam diferenças importantes em sua aplicação, de forma que este trabalho auxilia na escolha da melhor técnica para o cenário em questão.
Cloud computing has transformed the means of resource provisioning in recent years with several benefits over traditional systems, like scalability and high availability. However, there are still some opportunities, especially in the area of proactive resource allocation and scaling. Since demand may fluctuate heavily in certain environments, over-provisioning is a common practice to avoid abrupt Quality of Service (QoS) drops that may result in Ser- vice Level Agreement (SLA) violations, but at the price of an increase in provisioning costs and energy consumption. Workload prediction is one of the strategies by which efficiency and operational cost of a cloud can be improved. Knowing demand in advance allows the allocation of sufficient resources to maintain QoS and avoid SLA violations. This paper presents the advantages and disadvantages of three workload prediction techniques usu- ally applied in the context of cloud computing. We compare ARIMA, MLP and GRU under different configurations, and although all three strategies have similar accuracy results in this context, they present important differences in preparation and execution. This work helps system administrators in choosing the more appropriate and efficient predictive model for their specific problem.
URI: http://hdl.handle.net/10923/15841
Aparece nas Coleções:Dissertação e Tese

Arquivos neste item:
Arquivo Descrição TamanhoFormato 
000495754-Texto+Completo-0.pdfTexto Completo1,81 MBAdobe PDFAbrir
Exibir


Todos os itens no Repositório da PUCRS estão protegidos por copyright, com todos os direitos reservados, e estão licenciados com uma Licença Creative Commons - Atribuição-NãoComercial 4.0 Internacional. Saiba mais.