Emulação de Large Language Models para RISC-V usando QEMU
Resumo
Este trabalho tem como objetivo executar o DeepSeek em um emulador RISC-V, com o intuito de mostrar a viabilidade de executar LLMs em aparelhos RISC-V, e também em sistemas embarcados. Isso é importante para os propósitos de integração de IA, independência de infra, eficiência energética e código aberto. Utilizamos o emulador QEMU para rodar RISC-V e obtivemos a contagem de tokens por segundo em vários testes. O melhor resultado obtido foi 1,2415 tks/s, valor considerado lento, porém viável.Referências
Fang, J., Varbanescu, A. L., and Sips, H. (2011). A comprehensive performance comparison of cuda and opencl. International Conference on Parallel Processing, pages 216–225.
Gerganov, G. (2023). llama.cpp. [link].
Moore, S. K. (2023). Risc-v laptops now available. [link].
OpenMathLib (2025). Openblas. [link].
Team, Q. (2025). Qemu documentation. [link].
Gerganov, G. (2023). llama.cpp. [link].
Moore, S. K. (2023). Risc-v laptops now available. [link].
OpenMathLib (2025). Openblas. [link].
Team, Q. (2025). Qemu documentation. [link].
Publicado
28/05/2025
Como Citar
SANTOS, Giovani L. B.; WANNER, Lucas.
Emulação de Large Language Models para RISC-V usando QEMU. In: ESCOLA REGIONAL DE ALTO DESEMPENHO DE SÃO PAULO (ERAD-SP), 16. , 2025, São José do Rio Preto/SP.
Anais [...].
Porto Alegre: Sociedade Brasileira de Computação,
2025
.
p. 21-25.
DOI: https://doi.org/10.5753/eradsp.2025.9700.
