¿Qué es Ollama?

 En términos simples, Ollama es una herramienta que te permite usar modelos de lenguaje grandes (como ChatGPT) directamente en tu propia computadora, sin necesidad de conectarte a internet o pagar por servicios en la nube.

La analogía sencilla

Piensa en Ollama como un "reproductor de música" para modelos de IA:

  • Los modelos de IA (como Llama, Mistral, etc.) son como las "canciones"

  • Ollama es el "reproductor" que te permite ejecutar esas canciones en tu dispositivo

¿Por qué es útil para un principiante?

  1. Es gratuito - No pagas por uso

  2. Funciona offline - Una vez descargado, no necesitas internet

  3. Privacidad - Tus conversaciones se quedan en tu computadora

  4. Fácil de usar - Con comandos simples ya estás funcionando

Lo básico que necesitas saber:

  • Se instala en Windows, Mac o Linux

  • Usas la terminal/consola para interactuar con él

  • Descargas modelos específicos según lo que quieras hacer

  • Puedes chatear con los modelos como si fuera ChatGPT

Comandos más básicos:

bash
ollama run llama3.2  # Para usar el modelo Llama 3.2
ollama list          # Ver modelos instalados

Modelos populares para empezar:

  • llama3.2 - Buen equilibrio entre calidad y velocidad

  • phi3 - Pequeño pero muy capaz

  • gemma2 - Desarrollado por Google

Mi recomendación para empezar: Instala Ollama y prueba con llama3.2 que es muy amigable para principiantes.


Instalación Automática (Recomendado)

Para la mayoría de distribuciones:

bash
curl -fsSL https://ollama.ai/install.sh | sh

Método 2: Instalación Manual

Descargar el binario:

bash
# Descargar la última versión
curl -L https://ollama.ai/download/ollama-linux-amd64 -o ollama

# Hacer ejecutable
chmod +x ollama

# Mover a directorio del sistema
sudo mv ollama /usr/local/bin/

Método 3: Usando Docker

bash
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Iniciar el servicio

Si usaste el método automático:

bash
# Iniciar el servicio
sudo systemctl start ollama

# Habilitar inicio automático
sudo systemctl enable ollama

# Verificar estado
sudo systemctl status ollama

Si usaste instalación manual:

bash
# Ejecutar en segundo plano
ollama serve

Verificar la instalación

bash
# Ver versión
ollama --version

# Probar con un modelo pequeño
ollama pull llama2:3b

# Ejecutar el modelo
ollama run llama2:3b

Configuración adicional

Configurar variables de entorno (opcional):

bash
# Agregar a ~/.bashrc o ~/.zshrc
export OLLAMA_HOST="0.0.0.0"  # Para acceso desde otras máquinas
export OLLAMA_ORIGINS="*"     # Para permitir CORS

Directorio de modelos:

Los modelos se descargan automáticamente a:

bash
~/.ollama/models/

Comandos útiles

bash
# Listar modelos descargados
ollama list

# Ejecutar un modelo
ollama run nombre-del-modelo

# Eliminar un modelo
ollama rm nombre-del-modelo

# Ver información del sistema
ollama ps

Solución de problemas comunes

Si tienes problemas de permisos:

bash
sudo usermod -a -G ollama $USER
# Reiniciar sesión después de este comando

Si el puerto 11434 está en uso:

bash
# Cambiar puerto
export OLLAMA_HOST="0.0.0.0:11435"


Comentarios

Entradas más populares de este blog

ejercicios-Crear Carpeta y Archivo de Texto en Ubuntu

Instalar Docker en Ubuntu Server usando docker.io

Tutorial de Carpetas y Directorios en Ubuntu Linux