llama.cpp
36feaeb4 - ci : enable LLAMA_CUBLAS=1 for CUDA nodes

Commit
2 years ago
ci : enable LLAMA_CUBLAS=1 for CUDA nodes ggml-ci
Author
Parents
Loading