llama.cpp
36feaeb4 - ci : enable LLAMA_CUBLAS=1 for CUDA nodes

Commit
1 year ago
ci : enable LLAMA_CUBLAS=1 for CUDA nodes ggml-ci
Author
Parents
Loading