Modelagem e Otimização do Aprendizado Federado para Justiça do Nível de Energia em Redes Sem Fio

  • Guilherme A. Thomaz UFRJ
  • Miguel Elias M. Campista UFRJ

Resumo


O aprendizado federado distribui o treinamento de modelos entre os dispositivos em que os dados são gerados. Entretanto, a drenagem do nível da bateria restringe o treinamento aos dispositivos mais eficientes, reduzindo a quantidade de dados e, potencialmente, atrasando a convergência do modelo. Este trabalho propõe uma nova estratégia que evita que alguns dispositivos alcancem níveis de energia muito reduzidos, servindo como estímulo à adesão ao treinamento. Assim, o servidor resolve um problema de otimização para ajustar quantas épocas cada dispositivo irá treinar. Uma contribuição inovadora do trabalho é a redução para um problema clássico de transmissão multicanal, que é resolvido por um algoritmo de preenchimento com água. Os resultados experimentais demonstram uma redução no gasto médio de energia em até 15% e no desvio padrão no nível final de bateria em até 5,5% comparados com FedAvg, PropEnerg e PropEffic. A proposta elevou a acurácia do modelo em 8% e o tempo de solução do problema se mantém na ordem de microssegundos graças à complexidade linear do algoritmo de preenchimento com água.

Referências

Boyd, S. and Vandenberghe, L. (2004). Convex Optimization, chapter 5, pages 215–288. Cambridge University Press, Cambridge.

Cover, T. M. and Thomas, J. A. (2006). Elements of Information Theory. Wiley- Interscience, 2nd edition.

Cui, Y., Tong, W., Liu, T., Cao, K., Zhou, J., Xu, M., and Wei, T. (2024). Energy-Aware Incentive Mechanism for Hierarchical Federated Learning Using Water Filling Technique. IEEE Transactions on Industrial Informatics, 20(12):14214–14225.

Gao, W., Du, W., Zhao, Z., Min, G., and Singhal, M. (2019). Towards Energy-Fairness in LoRa Networks. In 2019 IEEE 39th International Conference on Distributed Computing Systems (ICDCS), pages 788–798.

Haykin, S. (2001). Communication Systems, chapter 6, pages 431–439. John Wiley & Sons, Inc., New York, 4th edition. Section 6.12: Multichannel Modulation.

Long, G., Xie, M., Shen, T., Zhou, T., Wang, X., and Jiang, J. (2023). Multi-center federated learning: clients clustering for better personalization. World Wide Web, 26(1):481–500.

Marnissi, O., Hammouti, H. E., and Bergou, E. H. (2025). FairEnergy: Contribution-Based Fairness meets Energy Efficiency in Federated Learning. arXiv preprint arXiv:2511.15454.

McMahan, B., Moore, E., Ramage, D., Hampson, S., and Arcas, B. A. y. (2017). Communication-Efficient Learning of Deep Networks from Decentralized Data. In Singh, A. and Zhu, J., editors, Proceedings of the 20th International Conference on Artificial Intelligence and Statistics, volume 54 of Proceedings of Machine Learning Research, pages 1273–1282. PMLR.

Wang, E., Chen, B., Chowdhury, M., Kannan, A., and Liang, F. (2023). Flint: A platform for federated learning integration. Proceedings of Machine Learning and Systems, 5:21–34.

Xing, C., Jing, Y., Wang, S., Ma, S., and Poor, H. V. (2020). New viewpoint and algorithms for water-filling solutions in wireless communications. IEEE Transactions on Signal Processing, 68:1618–1634.

Zhao, J., Feng, Y., Chang, X., and Liu, C. H. (2022). Energy-efficient client selection in federated learning with heterogeneous data on edge. Peer-to-Peer Networking and Applications, 15(2):1139–1151.

Zhou, X., Zhao, J., Han, H., and Guet, C. (2022). Joint Optimization of Energy Consumption and Completion Time in Federated Learning. In 2022 IEEE 42nd International Conference on Distributed Computing Systems (ICDCS), pages 1005–1017.
Publicado
25/05/2026
THOMAZ, Guilherme A.; CAMPISTA, Miguel Elias M.. Modelagem e Otimização do Aprendizado Federado para Justiça do Nível de Energia em Redes Sem Fio. In: SIMPÓSIO BRASILEIRO DE REDES DE COMPUTADORES E SISTEMAS DISTRIBUÍDOS (SBRC), 44. , 2026, Praia do Forte/BA. Anais [...]. Porto Alegre: Sociedade Brasileira de Computação, 2026 . p. 996-1009. ISSN 2177-9384. DOI: https://doi.org/10.5753/sbrc.2026.19358.

Artigos mais lidos do(s) mesmo(s) autor(es)

1 2 > >>