Please use this identifier to cite or link to this item: https://hdl.handle.net/10923/13766
Type: masterThesis
Title: Documentação de tarefas em Software Crowdsourcing: um estudo empírico sobre a plataforma TopCoder
Author(s): Vaz, Luis Fernandes
Advisor: Marczak, Sabrina dos Santos
Publisher: Pontifícia Universidade Católica do Rio Grande do Sul
Graduate Program: Programa de Pós-Graduação em Ciência da Computação
Issue Date: 2018
Keywords: SOFTWARE
PROGRAMAÇÃO (COMPUTADORES)
ENGENHARIA DE REQUISITOS
INFORMÁTICA
Abstract: A presente pesquisa teve como objetivo investigar a documentação das tarefas disponibilizadas na plataforma TopCoder e os elementos que devem ser considerados na documentação de uma tarefa em Software Crowdsourcing. Esta investigação torna-se relevante na medida em que a Tarefa é o elemento fundamental de ligação entre os demais elementos do modelo de Software Crowdsourcing (Contratante, Plataforma e Multidão). É a Tarefa que expressa a necessidade do Contratante para os membros da multidão. Assim, para o desenvolvimento desta investigação foi adotada a abordagem qualitativa, por meio de um Estudo de Caso com novatos em Software Crowdsourcing e de um Estudo de Campo, com profissionais da indústria. Para a análise e interpretação dos dados foi aplicada a técnica de Análise de Conteúdo. Como resultado desta pesquisa, constatou-se que no Estudo de Caso a documentação da tarefa teve um papel secundário quando os participantes selecionavam as tarefas. Entretanto, o papel da clareza da documentação surge com maior força durante a execução da tarefa, uma vez que é neste momento que deve ser decodificada a instrução da documentação a fim de realizar efetivamente a tarefa e submetê-la à plataforma. Para os participantes do Estudo de Campo, os elementos mais relevantes referentes à documentação das tarefas foram a clareza na descrição da tarefa e o conhecimento sobre o assunto tratado pela tarefa. A partir dos resultados obtidos é proposto um modelo de documentação de tarefa a ser utilizado na plataforma TopCoder. Acredita-se que com o mapeamento dos elementos identificados na pesquisa e a proposta de um modelo de documentação para a tarefa será possível aprimorar a descrição das tarefas e consequentemente as entregas realizadas pelos membros da multidão.
This research aimed to investigate task documentation in Software Crowdsourcing, more specifically, in the TopCoder platform. It also aimed to identify the elements that should be considered in the documentation of a task in this kind of software development. This research is of importance when considering that a Task is the component that links the other components of the software crowdsourcing model, which are: the Buyer, the Platform, and the Crowd. It is the task that expresses the Buyer’s need to the crowd members. We followed a qualitative research approach and conducted a Case Study with newcomers in Software Crowdsourcing and a Field Study with industry professionals. Data was analyzed using the Content Analysis technique. We found that, for the Case Study novices, the documentation of the task had a secondary role in the task selection. However, the need of a clear documentation become more relevant during the development of the task given that this is the moment that the instructions within the documentation need to be decoded by the developer and turned into a solution to be later submitted to the platform. For the Field Study participants, the most relevant elements related to the documentation of a task were how clear the description of a task is and their prior knowledge about the task content in order to influence its selection. Inspired on our studies’ results, we propose a model for task documentation in TopCoder. We believe this model will likely aid the description of tasks in software crowdsourcing and will, as a consequence, help crowd members in their task development journey.
URI: http://hdl.handle.net/10923/13766
Appears in Collections:Dissertação e Tese

Files in This Item:
File Description SizeFormat 
000491390-Texto+Completo-0.pdfTexto Completo4,87 MBAdobe PDFOpen
View


All Items in PUCRS Repository are protected by copyright, with all rights reserved, and are licensed under a Creative Commons Attribution-NonCommercial 4.0 International License. Read more.