
Ollama
ollama.comOllama is a lightweight runtime for running large language models locally. It supports GGUF-quantized models like Llama, Mistral, Gemma, and Phi, with a simple CLI and REST API. Ideal for development, testing, and privacy-sensitive deployments where inference must stay on-premise or on local hardware. — extraído del sitio web oficial o Wikipedia.
Aprender Ollama
Recursos recomendados para empezar
Conectemos
¿Te interesa esta tecnología?
No dudes en contactarme si querés discutir esta tecnología o explorar cómo puede aplicarse a tus proyectos.