Saltar al contenido principal

C/C++ implementation for running quantized LLMs on consumer hardware (CPU, GPU, Apple Silicon).extraído del sitio web oficial o Wikipedia.

Aprender llama.cpp

Recursos recomendados para empezar

Conectemos

¿Te interesa esta tecnología?

No dudes en contactarme si querés discutir esta tecnología o explorar cómo puede aplicarse a tus proyectos.