curl, lm_sensors, radeontopcurl -fsSL https://ollama.com/install.sh | sh)ollama run phi3:mini, se detectó por fin el stack ROCm activo, habilitando el uso de la Radeon RX Vega 56 como motor de inferencia. Herramientas como radeontop y el comportamiento de los ventiladores confirmaron que la GPU se estaba usando efectivamente.llama3) y pidió confirmación para usarlo. No fue necesario descargar nada más, y el chat se habilitó correctamente dentro de VS Code.codegemma o starcoder) y refinar la instalación para que funcione desde SSD o incluso contenedor portátil.Posted Oct 22, 2025
Set up Manjaro on USB with GPU acceleration for LLM and integrated with VS Code.
0
0