Volver al blog
Compartir

Como correr un modelo de IA local con Ollama y Qwen 3.6

Como correr un modelo de IA local con Ollama y Qwen 3.6

Como correr un modelo de IA local con Ollama y Qwen 3.6

Ejecutar modelos de IA localmente te da privacidad total, cero costos de API y funciona sin internet. En esta guia usaremos Ollama con el modelo Qwen 3.6 de Alibaba.

Por que ejecutar IA localmente?

  • Privacidad: Tus datos nunca salen de tu maquina
  • Sin costos: No pagas por token ni por uso
  • Sin latencia: Respuestas instantaneas
  • Funciona offline: No necesitas conexion a internet

Requisitos del sistema

ComponenteMinimoRecomendado
RAM8 GB16 GB+
GPUIntegradaNVIDIA RTX 3060+
Almacenamiento10 GB libresSSD NVMe
SOmacOS, Linux, WindowsCualquiera

Paso 1: Instalar Ollama

macOS

bash

O descarga desde ollama.com

Linux

bash

Windows

Descarga el instalador desde ollama.com/download

Paso 2: Descargar el modelo Qwen 3.6

Qwen 3.6 es un modelo de lenguaje de ultima generacion desarrollado por Alibaba. Viene en varios tamanos:

bash

Paso 3: Ejecutar el modelo

bash

Esto abrira una sesion interactiva donde puedes chatear con el modelo.

Paso 4: Usar la API de Ollama

Ollama expone una API REST en . Puedes usarla con curl:

bash

Integracion con tu codigo

Python

python

JavaScript/Node.js

javascript

Optimizacion de rendimiento

Usar GPU

Si tienes una GPU NVIDIA, Ollama la usara automaticamente. Verifica con:

bash

Contexto mas largo

Por defecto, el contexto es de 4096 tokens. Para aumentarlo:

bash

Temperatura y creatividad

bash

Modelos alternativos en Ollama

Si Qwen no es lo que buscas, prueba:

ModeloUso idealTamano
Llama 3.1Uso general8B/70B
MistralRapido y eficiente7B
CodeLlamaGeneracion de codigo7B/13B
Phi-3Ligero, buen rendimiento3.8B

Integracion con OpenCode

Puedes usar Ollama como backend para OpenCode:

env

Solucion de problemas

Ollama no inicia

bash

Modelo muy lento

  • Cierra otras aplicaciones que usen GPU
  • Reduce el tamano del modelo
  • Aumenta la memoria asignada

Error de memoria

El modelo necesita RAM suficiente. Para el modelo 7B necesitas al menos 8GB libres.

Recursos

Te funciono? Comparte tu experiencia en los comentarios.

Compartir
Gino Missael

Gino Missael

Desarrollador Fullstack • Experto en Web, Backend e IA

Más de 10 años de experiencia construyendo productos digitales de alto impacto.