Investigando o Uso de Modelos de Linguagem de Grande Escala para o Escalonamento de Tarefas
Resumo
Os Large Language Models (LLMs) revolucionaram a área de Processamento de Linguagem Natural (PLN), sendo atualmente possível adaptar tais modelos para realizar atividades complexas em diversas áreas. Especificamente, a técnica de fine-tuning permite que os modelos pré-treinados aprimorem o conhecimento para funções específicas. Em ambientes de alto desempenho, o escalonamento é uma atividade complexa e consiste no processo de alocar recursos do sistema para diversas tarefas, atendendo a objetivos específicos. A escolha da ordem de alocação é fundamental para a eficiência desse ambiente. Nesse sentido, este artigo visa propor uma análise do uso de LLMs ajustados com fine-tuning para auxiliar no escalonamento de tarefas comunicantes.Referências
Abgaryan, H., Harutyunyan, A., and Cazenave, T. (2024). Llms can schedule. arXiv preprint [link].
Brucker, P. (2006). Scheduling Algorithms. Springer.
Feitelson, D. G. and Rudolph, L. (1998). Metrics and benchmarking for parallel job scheduling. In Feitelson, D. G. and Rudolph, L., editors, Job Scheduling Strategies for Parallel Processing, pages 1–24, Berlin, Heidelberg. Springer Berlin Heidelberg.
Parthasarathy, V. B., Zafar, A., Khan, A., and Shahid, A. (2024). The ultimate guide to fine-tuning llms from basics to breakthroughs: An exhaustive review of technologies, research, best practices, applied research challenges and opportunities.
Prince, S. J. (2023). Understanding Deep Learning. MIT Press.
Yenduri, G., Ramalingam, M., Selvi, G. C., Supriya, Y., Srivastava, G., Maddikunta, P. K. R., Raj, G. D., Jhaveri, R. H., Prabadevi, B., Wang, W., Vasilakos, A. V., and Gadekallu, T. R. (2024). GPT (generative pre-trained transformer)—a comprehensive review on enabling technologies, potential applications, emerging challenges, and future directions. IEEE Access, 12:54608–54649. DOI: 10.1109/ACCESS.2024.3385584
Brucker, P. (2006). Scheduling Algorithms. Springer.
Feitelson, D. G. and Rudolph, L. (1998). Metrics and benchmarking for parallel job scheduling. In Feitelson, D. G. and Rudolph, L., editors, Job Scheduling Strategies for Parallel Processing, pages 1–24, Berlin, Heidelberg. Springer Berlin Heidelberg.
Parthasarathy, V. B., Zafar, A., Khan, A., and Shahid, A. (2024). The ultimate guide to fine-tuning llms from basics to breakthroughs: An exhaustive review of technologies, research, best practices, applied research challenges and opportunities.
Prince, S. J. (2023). Understanding Deep Learning. MIT Press.
Yenduri, G., Ramalingam, M., Selvi, G. C., Supriya, Y., Srivastava, G., Maddikunta, P. K. R., Raj, G. D., Jhaveri, R. H., Prabadevi, B., Wang, W., Vasilakos, A. V., and Gadekallu, T. R. (2024). GPT (generative pre-trained transformer)—a comprehensive review on enabling technologies, potential applications, emerging challenges, and future directions. IEEE Access, 12:54608–54649. DOI: 10.1109/ACCESS.2024.3385584
Publicado
23/04/2025
Como Citar
ALVES, Lívia Mayumi Kawasaki; KOSLOVSKI, Guilherme Piêgas.
Investigando o Uso de Modelos de Linguagem de Grande Escala para o Escalonamento de Tarefas. In: ESCOLA REGIONAL DE ALTO DESEMPENHO DA REGIÃO SUL (ERAD-RS), 25. , 2025, Foz do Iguaçu/PR.
Anais [...].
Porto Alegre: Sociedade Brasileira de Computação,
2025
.
p. 93-96.
ISSN 2595-4164.
DOI: https://doi.org/10.5753/eradrs.2025.6808.
