¿Qué es Ollama?
En términos simples, Ollama es una herramienta que te permite usar modelos de lenguaje grandes (como ChatGPT) directamente en tu propia computadora, sin necesidad de conectarte a internet o pagar por servicios en la nube.
La analogía sencilla
Piensa en Ollama como un "reproductor de música" para modelos de IA:
Los modelos de IA (como Llama, Mistral, etc.) son como las "canciones"
Ollama es el "reproductor" que te permite ejecutar esas canciones en tu dispositivo
¿Por qué es útil para un principiante?
Es gratuito - No pagas por uso
Funciona offline - Una vez descargado, no necesitas internet
Privacidad - Tus conversaciones se quedan en tu computadora
Fácil de usar - Con comandos simples ya estás funcionando
Lo básico que necesitas saber:
Se instala en Windows, Mac o Linux
Usas la terminal/consola para interactuar con él
Descargas modelos específicos según lo que quieras hacer
Puedes chatear con los modelos como si fuera ChatGPT
Comandos más básicos:
ollama run llama3.2 # Para usar el modelo Llama 3.2
ollama list # Ver modelos instaladosModelos populares para empezar:
llama3.2- Buen equilibrio entre calidad y velocidadphi3- Pequeño pero muy capazgemma2- Desarrollado por Google
Mi recomendación para empezar: Instala Ollama y prueba con llama3.2 que es muy amigable para principiantes.
Instalación Automática (Recomendado)
Para la mayoría de distribuciones:
curl -fsSL https://ollama.ai/install.sh | shMétodo 2: Instalación Manual
Descargar el binario:
# Descargar la última versión
curl -L https://ollama.ai/download/ollama-linux-amd64 -o ollama
# Hacer ejecutable
chmod +x ollama
# Mover a directorio del sistema
sudo mv ollama /usr/local/bin/Método 3: Usando Docker
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollamaIniciar el servicio
Si usaste el método automático:
# Iniciar el servicio
sudo systemctl start ollama
# Habilitar inicio automático
sudo systemctl enable ollama
# Verificar estado
sudo systemctl status ollamaSi usaste instalación manual:
# Ejecutar en segundo plano
ollama serveVerificar la instalación
# Ver versión
ollama --version
# Probar con un modelo pequeño
ollama pull llama2:3b
# Ejecutar el modelo
ollama run llama2:3bConfiguración adicional
Configurar variables de entorno (opcional):
# Agregar a ~/.bashrc o ~/.zshrc
export OLLAMA_HOST="0.0.0.0" # Para acceso desde otras máquinas
export OLLAMA_ORIGINS="*" # Para permitir CORSDirectorio de modelos:
Los modelos se descargan automáticamente a:
~/.ollama/models/Comandos útiles
# Listar modelos descargados
ollama list
# Ejecutar un modelo
ollama run nombre-del-modelo
# Eliminar un modelo
ollama rm nombre-del-modelo
# Ver información del sistema
ollama psSolución de problemas comunes
Si tienes problemas de permisos:
sudo usermod -a -G ollama $USER
# Reiniciar sesión después de este comandoSi el puerto 11434 está en uso:
# Cambiar puerto
export OLLAMA_HOST="0.0.0.0:11435"
Comentarios
Publicar un comentario