Análise de desempenho de LLMs usando técnicas de RAG em cenários de hardware com recursos limitados
Resumo
Neste trabalho é apresentada uma análise do desempenho de modelos de Linguagem de Grande Escala (LLMs) embarcados combinados com técnicas de Geração Aumentada por Recuperação (RAG), em cenários com restrição de hardware. Foram avaliadas métricas como tempo de resposta, uso de memória, latência e taxa de transferência (throughput) de tokens em dispositivos com recursos limitados. Os experimentos indicam que modelos menores e quantizados oferecem o melhor equilíbrio entre latência e throughput, enquanto as implementações de RAG necessitam de otimização, como pré-indexação, para serem eficazes em computação de borda (edge computing). é explorada limitações práticas como o limite de tokens e gargalos de memória, automatizando o pipeline RAG com uma plataforma própria, o que amplia a escalabilidade e reprodução dos testes em hardwares limitados. Os resultados evidenciam a viabilidade, embora limitada, do uso de LLMs e RAG em dispositivos restritos, contribuindo para a literatura ainda escassa no tema.
Referências
P. Lewis, E. Perez et al., “Retrieval-augmented generation for knowledge-intensive nlp tasks,” in NeurIPS, 2020.
A. Vaswani, N. Shazeer, and N. e. a. Parmar, “Attention is all you need,” arXiv preprint arXiv:1706.03762, 2017.
G. Hinton, O. Vinyals, and J. Dean, “Distilling the knowledge in a neural network,” arXiv preprint arXiv:1503.02531, 2015.
H. Zhao, J. Liu, K. Nguyen et al., “Tinyllama: Efficient transformer models for edge deployment,” arXiv preprint arXiv:2305.16420, 2023.
N. Thakur, J. Lin et al., “Beir: A heterogeneous benchmark for zeroshot evaluation of information retrieval models,” in arXiv preprint arXiv:2104.08663, 2021.
J. Johnson, M. Douze, and H. Jégou, “Billion-scale similarity search with gpus,” arXiv preprint arXiv:1702.08734, 2019.
Y. Chen, C. Wu, R. Sui, and J. Zhang, “Feasibility study of edge computing empowered by artificial intelligence—a quantitative analysis based on large models,” Big Data and Cognitive Computing, vol. 8, no. 8, 2024. [Online]. Available: [link]
K. Feng, L. Luo, Y. Xia, B. Luo, X. He, K. Li, Z. Zha, B. Xu, and K. Peng, “Optimizing microservice deployment in edge computing with large language models: Integrating retrieval augmented generation and chain of thought techniques,” Symmetry, vol. 16, no. 11, 2024. [Online]. Available: [link]
B. Jin, J. Yoon, J. Han, and S. O. Arik, “Long-context llms meet rag: Overcoming challenges for long inputs in rag,” arXiv preprint arXiv:2410.05983, 2024.
