Classificação diferencialmente privada e não discriminatória utilizando árvore de decisão

  • Maria L. M. Silva Universidade Federal do Ceará (UFC)
  • Javam C. Machado Universidade Federal do Ceará (UFC)

Resumo


Devido ao crescimento do uso de tecnologias para classificações de indivíduos e ao surgimento de leis de proteção aos dados, a preservação da privacidade e a preocupação quanto à discriminação propagada por algoritmos de classificação se tornaram temas relevantes para sociedade. Enquanto o processo de classificação pode associar indivíduos às suas características sensíveis, tais indivíduos podem ser discriminados uma vez associados a essas características. Para mitigar o problema de classificações discriminatórias e preservação da privacidade de indivíduos, propomos um algoritmo de árvore de decisão, onde aplicamos mecanismos de privacidade diferencial e propriedades de fairness para assegurar, ao mesmo tempo, a privacidade e a não-discriminação de indivíduos com dados pessoais envolvidos no processo. Nossa proposta introduz, portanto, equidade ou fairness em um algoritmo de classificação baseado em árvores de decisão.
Palavras-chave: Privacidade diferencial, não-discriminação, algoritmos de classificação, árvore de decisão

Referências

Angwin, J., Larson, J., Mattu, S.,, and Kirchner, L. (2016). Machine bias, ProPublica.

Barocas, S., Hardt, M., and Narayanan, A. (2017). Fairness in machine learning. Nips tutorial, 1:2017.

Dua, D. and Graff, C. (2017). UCI machine learning repository.

Dwork, C. (2006). Differential privacy. In International Colloquium on Automata, Languages, and Programming, pages 1–12. Springer.

Dwork, C., Hardt, M., Pitassi, T., Reingold, O., and Zemel, R. (2012). Fairness through awareness. In Proceedings of the 3rd innovations in theoretical computer science conference, pages 214–226.

Elbassuoni, S., Amer-Yahia, S., and Ghizzawi, A. (2020). Fairness of scoring in online job marketplaces. Trans. Data Sci., 1(4):29:1–29:30.

Lee, M. S. A. and Floridi, L. (2021). Algorithmic fairness in mortgage lending: from absolute conditions to relational trade-offs. Minds Mach., 31(1):165–191.

Newcombe, H. B., Kennedy, J. M., Axford, S., and James, A. P. (1959). Automatic linkage of vital records. Science, 130(3381):954–959.

Pujol, D., McKenna, R., Kuppam, S., Hay, M., Machanavajjhala, A., and Miklau, G. (2020). Fair decision making using privacy-protected data. In Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency, pages 189–199.

Quinlan, J. R. (1986). Induction of decision trees. Machine learning, 1(1):81–106.

Ranzato, F., Urban, C., and Zanella, M. (2021). Fair training of decision tree classifiers. arXiv preprint arXiv:2101.00909.

Xu, D., Yuan, S., and Wu, X. (2019). Achieving differential privacy and fairness in logistic regression. In Companion Proceedings of The 2019 World Wide Web Conference, pages 594–599.
Publicado
04/10/2021
Como Citar

Selecione um Formato
SILVA, Maria L. M.; MACHADO, Javam C.. Classificação diferencialmente privada e não discriminatória utilizando árvore de decisão. In: WORKSHOP DE TESES E DISSERTAÇÕES (WTDBD) - SIMPÓSIO BRASILEIRO DE BANCO DE DADOS (SBBD), 36. , 2021, Rio de Janeiro. Anais [...]. Porto Alegre: Sociedade Brasileira de Computação, 2021 . p. 148-154. DOI: https://doi.org/10.5753/sbbd_estendido.2021.18177.