Saltar al contenido principal

Ollama is a lightweight runtime for running large language models locally. It supports GGUF-quantized models like Llama, Mistral, Gemma, and Phi, with a simple CLI and REST API. Ideal for development, testing, and privacy-sensitive deployments where inference must stay on-premise or on local hardware.extraído del sitio web oficial o Wikipedia.

Aprender Ollama

Recursos recomendados para empezar

Conectemos

¿Te interesa esta tecnología?

No dudes en contactarme si querés discutir esta tecnología o explorar cómo puede aplicarse a tus proyectos.