Investigando os desafios em atividades de crowdtesting: um estudo exploratório em plataformas on-demand matching

  • Jessica Bosio UPF
  • Alexandre Zanatta UPF
  • Leticia Santos Machado UFPA

Resumo


Crowdsourced Software Testing (CST) é a terceirização de teste de software para uma comunidade on-line no modelo crowdsourcing. Testadores executam um importante papel em CST para se tornarem membros ativos. Entretanto, pesquisas anteriores mostram que trabalhadores na multidão enfrentam muitas dificuldades para contribuírem em comunidades on-line. O objetivo do trabalho foi identificar quais são as dificuldades que impedem a contribuição em atividades de CST. Realizou-se um estudo qualitativo para identificar um conjunto preliminar de problemas. Foram identificadas 7 barreiras que dificultam a participação. Para trabalho futuro, serão apresentadas sugestões para minimizar estas barreiras.

Referências

BARDIN, L. Analysis of content. Lisbon: [s.n.], 1977.

HILL, W. C. et al. Edit wear and read wear. Conference on Human Factors in Computing Systems. New York: [s.n.]. 1992. p. 3–9.

KITTUR, A.; CHI, E. H.; SUH, B. Crowdsourcing user studies with Mechanical Turk. Human factors in computing systems. [S.l.]: [s.n.]. 2008. p. 453– 456.

LU, X.; PHANG, W.; YU, J. Encouraging participation in virtual communities through usability and sociability development: An empirical investigation. Special Interest Group on Management Information Systems, 42, n. 3, Ago 2011. 96-114.

MAO, K. et al. A Survey of the Use of Crowdsourcing in Software Engineering. Journal of Systems and Software, 126, n. 1, Abr 2016. 57-84.

ROHRMEIER, P. Social networks and online communities–managing user acquisition, activation and retention. Technischen Universität München. München. 2012. (322p.).

SAREMI, R. L.; YANG, Y. Dynamic simulation of software workers and task completion. 2nd International Workshop on CrowdSourcing in Software Engineering. Florence: [s.n.]. Mai 2015. p. 17-23.

STOL, K.; FITZGERALD, B. Researching crowdsourcing software development: perspectives and concerns. 1st International Workshop on CrowdSourcing in Software Engineering. Hyderabad: [s.n.]. 2014. p. 7-10.

STRAUB, T. et al. How (not) to Incent Crowd Workers - Payment Schemes and Feedback in Crowdsourcing. Business & Information Systems Engineering, 57, n. 3, Jun 2015. 167-179.

WU, W.; LI, W.; TSA, W. T. An evaluation framework for software crowdsourcing. Frontiers of Computer Science, v. 7, n. 5, p. 694-709, Out 2013.

YANG, Y. et al. Who Should Take This Task?: Dynamic Decision Support for Crowd Workers. 10th International Symposium on Empirical Software Engineering and Measurement. [S.l.]: [s.n.]. 2016. p. 8.
Publicado
03/10/2019
Como Citar

Selecione um Formato
BOSIO, Jessica; ZANATTA, Alexandre; SANTOS MACHADO, Leticia. Investigando os desafios em atividades de crowdtesting: um estudo exploratório em plataformas on-demand matching. In: PESQUISAS EM ANDAMENTO - SIMPÓSIO BRASILEIRO DE SISTEMAS COLABORATIVOS (SBSC), 15. , 2019, Rio de Janeiro. Anais [...]. Porto Alegre: Sociedade Brasileira de Computação, 2019 . p. 129-134.