Justiça em Sistemas de Recomendação: Uma Análise de Técnicas de Regularização

  • Rodrigo O. Lima Universidade Federal de Viçosa
  • Giovanni Comarella Universidade Federal do Espírito Santo
  • Fabiano Belém Universidade Federal de Minas Gerais
  • Julio C. S. Reis Universidade Federal de Viçosa

Resumo


Estratégias de aprendizagem de máquina são cada vez mais utilizadas em processos de tomada de decisões em diversas áreas de conhecimento devido à abundância de dados existentes atualmente. Embora esperava-se que tal aplicação solucionasse o problema da parcialidade inerente aos seres humanos, notou-se que alguns modelos apresentavam comportamentos enviesados em relação a grupos historicamente discriminados por refletirem preconceitos existentes nos conjuntos de dados utilizados. Este problema tem despertado grande interesse acadêmico nos últimos anos e diversas definições, métricas e metodologias têm sido propostas para garantir justiça nestes contextos. Uma área em particular é a de Sistemas de Recomendação, onde o objetivo é recomendar itens relevantes para os usuários e, em alguns contextos, não é desejável que estas recomendações estejam associadas a atributos protegidos destes usuários. Este problema pode ser caracterizado como justiça de grupo, na qual grupos de usuários são tratados igualmente no Sistema de Recomendação. Neste trabalho, analisamos a eficácia do uso de regularização com objetivo de justiça de grupo em um Sistema de Recomendação de filmes para homens e mulheres utilizando duas métricas propostas inspiradas em justiça de grupo em classificação. Os resultados empíricos mostram que esta estratégia melhora os resultados em relação às métricas e tem baixo impacto na qualidade final da recomendação.

Palavras-chave: sistemas de recomendação, fairness, justiça, Collaborative Filtering, decomposição de matrizes

Referências

Ahmadian, M., Ahmadi, M., and Ahmadian, S. (2022). A reliable deep representation learning to improve trust-aware recommendation systems. Expert Systems with Applications, 197:116697.

Baeza-Yates, R., Ribeiro-Neto, B., et al. (1999). Modern information retrieval, volume 463. ACM press New York.

Brandão, M. A., Moro, M. M., and Almeida, J. M. (2013). Análise de fatores impactantes na recomendação de colaborações acadêmicas utilizando projeto fatorial. In Simpósio Brasileiro de Banco de Dados (SBBD), pages 1–5.

Burke, R., Sonboli, N., and Ordonez-Gauger, A. (2018). Balanced neighborhoods for multi-sided fairness in recommendation. In Proc. of the Int’l Conference on Fairness, Accountability and Transparency (FAT), pages 202-214.

Calders, T. and Verwer, S. (2010). Three naive bayes approaches for discrimination-free classification. Data Mining and Knowledge Discovery, 21(2):277-292.

Celma, Ò. and Cano, P. (2008). From hits to niches? or how popular artists can bias music recommendation and discovery. In Proc. of the Workshop on Large-Scale Recommender Systems and the Netflix Prize Competition, pages 1-8.

Desrosiers, C. and Karypis, G. (2011). A comprehensive survey of neighborhood-based recommendation methods. Recommender systems handbook, pages 107-144.

Dwork, C., Hardt, M., Pitassi, T., Reingold, O., and Zemel, R. (2012). Fairness through awareness. In Proc. of the Innovations in Theoretical Computer Science Conference, pages 214-226.

Ekstrand, M. D. and Kluver, D. (2021). Exploring author gender in book rating and recommendation. User Modeling and User-Adapted Interaction, pages 1-44.

Ekstrand, M. D., Riedl, J. T., Konstan, J. A., et al. (2011). Collaborative filtering recommender systems. Foundations and Trends in Human-Computer Interaction, 4(2):81-173.

Hajian, S., Bonchi, F., and Castillo, C. (2016). Algorithmic bias: From discrimination discovery to fairness-aware data mining. In Proc. of the ACM Int’l Conference on Knowledge Discovery and Data Mining (SIGKDD), pages 2125-2126.

Hardt, M., Price, E., and Srebro, N. (2016). Equality of opportunity in supervised learning. arXiv preprint arXiv:1610.02413.

Harper, F. M. and Konstan, J. A. (2016). The movielens datasets: History and context. ACM Transactions on Interactive Intelligent Systems (TIIS), 5(4):19.

Kamishima, T., Akaho, S., and Sakuma, J. (2011). Fairness-aware learning through regularization approach. In Proc. of the IEEE International Conference on Data Mining Workshops, pages 643-650.

Kingma, D. P. and Ba, J. (2014). Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980.

Ko, H., Lee, S., Park, Y., and Choi, A. (2022). A survey of recommendation systems: Recommendation models, techniques, and application fields. Electronics, 11(1):141.

Koren, Y., Bell, R., and Volinsky, C. (2009). Matrix factorization techniques for recommender systems. Computer, 42(8):30-37.

L. Cardoso, R., Meira Jr., W., Almeida, V., and J. Zaki, M. (2019). A framework for benchmarking discrimination-aware models in machine learning. In Proc. of the Int’l Conference on AI, Ethics, and Society (AIES), page 437-444.

Rastegarpanah, B., Gummadi, K. P., and Crovella, M. (2019). Fighting fire with fire: Using antidote data to improve polarization and fairness of recommender systems. In Proc.of the ACM Int’l Conference on Web Search and Data Mining (WSDM), pages 231-239.

Salakhutdinov, R., Mnih, A., and Hinton, G. (2007). Restricted boltzmann machines for collaborative filtering. In Proc. of the Int’l Conference on Machine learning, pages 791-798.

Schafer, J. B., Frankowski, D., Herlocker, J., and Sen, S. (2007). Collaborative filtering recommender systems. In The adaptive web, pages 291-324. Springer.

Yao, S. and Huang, B. (2017). Beyond parity: Fairness objectives for collaborative filtering. In Advances in Neural Information Processing Systems, pages 2921-2930.
Publicado
19/09/2022
Como Citar

Selecione um Formato
LIMA, Rodrigo O.; COMARELLA, Giovanni; BELÉM, Fabiano; REIS, Julio C. S.. Justiça em Sistemas de Recomendação: Uma Análise de Técnicas de Regularização. In: SIMPÓSIO BRASILEIRO DE BANCO DE DADOS (SBBD), 37. , 2022, Búzios. Anais [...]. Porto Alegre: Sociedade Brasileira de Computação, 2022 . p. 177-189. ISSN 2763-8979. DOI: https://doi.org/10.5753/sbbd.2022.224352.