Investigando os desafios em atividades de crowdtesting: um estudo exploratório em plataformas on-demand matching
Resumo
Crowdsourced Software Testing (CST) é a terceirização de teste de software para uma comunidade on-line no modelo crowdsourcing. Testadores executam um importante papel em CST para se tornarem membros ativos. Entretanto, pesquisas anteriores mostram que trabalhadores na multidão enfrentam muitas dificuldades para contribuírem em comunidades on-line. O objetivo do trabalho foi identificar quais são as dificuldades que impedem a contribuição em atividades de CST. Realizou-se um estudo qualitativo para identificar um conjunto preliminar de problemas. Foram identificadas 7 barreiras que dificultam a participação. Para trabalho futuro, serão apresentadas sugestões para minimizar estas barreiras.
Referências
HILL, W. C. et al. Edit wear and read wear. Conference on Human Factors in Computing Systems. New York: [s.n.]. 1992. p. 3–9.
KITTUR, A.; CHI, E. H.; SUH, B. Crowdsourcing user studies with Mechanical Turk. Human factors in computing systems. [S.l.]: [s.n.]. 2008. p. 453– 456.
LU, X.; PHANG, W.; YU, J. Encouraging participation in virtual communities through usability and sociability development: An empirical investigation. Special Interest Group on Management Information Systems, 42, n. 3, Ago 2011. 96-114.
MAO, K. et al. A Survey of the Use of Crowdsourcing in Software Engineering. Journal of Systems and Software, 126, n. 1, Abr 2016. 57-84.
ROHRMEIER, P. Social networks and online communities–managing user acquisition, activation and retention. Technischen Universität München. München. 2012. (322p.).
SAREMI, R. L.; YANG, Y. Dynamic simulation of software workers and task completion. 2nd International Workshop on CrowdSourcing in Software Engineering. Florence: [s.n.]. Mai 2015. p. 17-23.
STOL, K.; FITZGERALD, B. Researching crowdsourcing software development: perspectives and concerns. 1st International Workshop on CrowdSourcing in Software Engineering. Hyderabad: [s.n.]. 2014. p. 7-10.
STRAUB, T. et al. How (not) to Incent Crowd Workers - Payment Schemes and Feedback in Crowdsourcing. Business & Information Systems Engineering, 57, n. 3, Jun 2015. 167-179.
WU, W.; LI, W.; TSA, W. T. An evaluation framework for software crowdsourcing. Frontiers of Computer Science, v. 7, n. 5, p. 694-709, Out 2013.
YANG, Y. et al. Who Should Take This Task?: Dynamic Decision Support for Crowd Workers. 10th International Symposium on Empirical Software Engineering and Measurement. [S.l.]: [s.n.]. 2016. p. 8.