¿Qué es Ollama y por qué lo necesitamos?
Ollama es una herramienta que nos permite ejecutar modelos de inteligencia artificial directamente en nuestro ordenador, sin necesidad de depender de servicios online de pago como ChatGPT o Claude.
Ventajas de usar Ollama:
- Gratuito: Nos permite ejecutar modelos de lenguaje de última generación sin tener que pagar por servicios en la nube como OpenAI.
- Privacidad: Todo se ejecuta en tu propio ordenador. Tus datos y tus conversaciones nunca salen de tu máquina, garantizando una privacidad total.
- Disponibilidad: Una vez descargados los modelos, puedes trabajar con ellos incluso sin conexión a internet.
- Control total: Puedes elegir exactamente qué modelo usar
Paso 1: Descargar e instalar Ollama
- Ve a la página web oficial: ollama.com
- Descarga la versión correspondiente a tu sistema operativo:
- Windows
- macOS
- Linux
- Ejecuta el instalador y sigue las instrucciones
Una vez instalado, abre una nueva Terminal (en Mac) o Símbolo del sistema (en Windows) y escribe el siguiente comando para verificar que todo funciona correctamente:
ollama
Si ves una lista de comandos disponibles, ¡felicidades! Ollama está instalado y listo para funcionar.
Paso 2: Elegir el modelo adecuado
Ollama es solo el motor; ahora necesitamos darle un «cerebro», es decir, un modelo de lenguaje. Para ello, vamos a la sección de Models en la web de Ollama.
Una vez instalado Ollama, necesitas descargar un modelo de IA. En la sección «Models» de la web encontrarás muchas opciones.
¿Cómo elegir un modelo?
Debes fijarte en estas características importantes:
1. Capacidad de herramientas (Tools)
- Algunos modelos pueden usar herramientas externas
- Útil para tareas más complejas
2. Capacidad de visión (Vision)
- Permite al modelo «ver» y analizar imágenes
- Necesario si vas a trabajar con contenido visual
3. Número de parámetros
- Es como el «tamaño del cerebro» del modelo
- Más parámetros = más inteligente
- Pero también = más recursos necesarios
4. Tamaño en disco
- Cuánto espacio ocupa en tu ordenador
- Directamente relacionado con los parámetros
Modelos recomendados para empezar:
- Gemma 7B: Ligero, perfecto para conversaciones simples
- Qwen 13B: Equilibrio entre inteligencia y recursos
- DeepSeek: Modelos con capacidades de «pensamiento» avanzadas
Paso 3: Instalar un modelo
En Windows:
- Abre el Símbolo del sistema (Command Prompt)
- Escribe
ollama
y presiona Enter - Si ves una lista de comandos disponibles, ¡Ollama está correctamente instalado!
Para descargar un modelo:
ollama pull nombre-del-modelo
Por ejemplo:
ollama pull gemma:7b
Nota importante: La descarga puede tardar bastante tiempo dependiendo del tamaño del modelo y tu conexión a internet.
Paso 4: Ver tus modelos instalados
Para ver qué modelos tienes instalados, escribe:
ollama list
Esto te mostrará una lista con todos los modelos disponibles en tu ordenador.
Paso 5: Probar un modelo
Para probar si un modelo funciona correctamente:
ollama run nombre-del-modelo
Por ejemplo:
ollama run gemma:7b
Una vez que se inicie, puedes hacer preguntas como:
- «Hola, ¿cómo estás?»
- «¿Qué modelo eres?»
Para salir del chat, simplemente escribe /bye
o cierra la ventana.
Consejos importantes
Recursos del ordenador:
- Los modelos más grandes necesitan más RAM
- Si tu ordenador va lento, prueba modelos más pequeños
- Un modelo de 7B parámetros suele funcionar bien en ordenadores normales
Gestión de espacio:
- Los modelos ocupan bastante espacio (entre 4GB y 70GB)
- Solo instala los modelos que realmente vayas a usar
- Puedes eliminar modelos con:
ollama rm nombre-del-modelo
¿Qué sigue?
Ahora que tienes Ollama instalado y funcionando, en el siguiente módulo aprenderemos cómo conectarlo con Flowise para crear nuestros primeros agentes de IA.
¡Ya tienes tu propia IA funcionando en tu ordenador! 🎉
En el próximo video veremos cómo integrar estos modelos locales con Flowise para crear flujos de trabajo inteligentes.