IA local en linux
Opciones Populares
1. Ollama (Recomendado para empezar)
# Instalación curl -fsSL https://ollama.ai/install.sh | sh # Usar modelos ollama pull llama2 ollama run llama2
2. GPT4All
# Descargar desde su sitio web # https://gpt4all.io wget https://gpt4all.io/installers/gpt4all-installer-linux.run chmod +x gpt4all-installer-linux.run ./gpt4all-installer-linux.run
3. Text Generation WebUI
git clone https://github.com/oobabooga/text-generation-webui cd text-generation-webui ./start_linux.sh
🔧 Requisitos del Sistema
RAM: Mínimo 8GB (16GB+ recomendado)
Almacenamiento: 10GB+ espacio libre
GPU (opcional): NVIDIA con CUDA para mejor rendimiento
📦 Instalación con Docker
# Para modelos de Hugging Face docker run -p 8080:80 -v ./models:/models huggingface/text-generation-inference:latest --model-id <model-name>
🛠️ Instalación Manual de Dependencias
# Ubuntu/Debian sudo apt update sudo apt install python3 python3-pip git wget # Fedora sudo dnf install python3 python3-pip git wget # Arch Linux sudo pacman -S python python-pip git wget
📚 Modelos Recomendados para Comenzar
Llama 2 7B: Buen balance entre rendimiento y recursos
Mistral 7B: Excelente rendimiento
CodeLlama: Especializado en programación
💡 Consejos Prácticos
Comienza con modelos pequeños (7B parámetros)
Verifica la compatibilidad de tu GPU
Usa quantización para reducir uso de RAM
Mantén el sistema actualizado
Comentarios
Publicar un comentario