¿Querés un “Codex” local, gratis y totalmente privado?
Tecnología 3 min lectura

¿Querés un “Codex” local, gratis y totalmente privado?

📅 18 Nov 2025

Existe una forma nativa, sin trucos raros ni configuraciones inseguras, para usar un asistente de programación directamente en tu computadora. Funciona en macOS, Windows y Linux. No requiere suscripciones, ni API keys, ni depende de servicios externos.

Muchos desarrolladores quieren una alternativa sólida para trabajar con modelos avanzados sin enviar su código a la nube. La respuesta es clara: sí se puede. Y hoy funciona de manera estable con herramientas oficiales como Ollama y la CLI de codex, usando modelos modernos que corren por completo en tu máquina.

Lo interesante es que esta combinación funciona ahora de forma abierta y accesible. No sabemos si este nivel de flexibilidad se mantendrá siempre, así que vale la pena aprovecharlo mientras esté disponible.

Acá tenés una guía directa para dejarlo listo en menos de 10 minutos.

Qué necesitás

Podés ver la librería oficial de modelos acá: https://ollama.com/library

Instalación paso a paso

1. Instalar Node.js

Descargá la versión LTS desde la página oficial y verificá:

node -v && npm -v

2. Instalar la herramienta “codex”

npm install -g codex

(Usa Node y funciona como CLI para interactuar con tu modelo local).

3. Instalar Ollama y un modelo

Descargá Ollama desde su sitio oficial: https://ollama.com/download

Luego en la terminal:

ollama run gpt-oss-20b

También podés probar:

ollama run qwen3-coder

Ver modelos instalados:

ollama list

Configurar Codex con Ollama

El archivo de configuración se guarda en:

~/.codex/config.toml

Usá esta estructura optimizada y limpia:

# Modelo por defecto (debe coincidir con ollama list)
model = "gpt-oss-20b"
model_provider = "ollama"

[settings]
temperature = 0.2
max_tokens = 2048
timeout_ms = 150000

[model_providers.ollama]
display_name = "Ollama (local)"
base_url = "http://localhost:11434/v1"
api_type = "chat"
healthcheck = "http://localhost:11434/health"

[models.gpt_oss_20b]
name = "gpt-oss-20b"
provider = "ollama"
description = "Modelo OSS de 20B parámetros."

[models.gpt_oss_120b]
name = "gpt-oss-120b"
provider = "ollama"
description = "Modelo OSS de 120B parámetros."

[models.qwen3_coder]
name = "qwen3-coder"
provider = "ollama"
description = "Modelo Qwen3 especializado en programación."

Esta estructura te permite agregar o cambiar modelos sin romper la configuración.

¿Cómo lo usás?

Dentro de tu proyecto:

codex

Y listo: ya podés pedirle cosas como:

  • “Generá una API REST con FastAPI.”
  • “Refactorizá este script para mejorar rendimiento.”
  • “Escribí tests unitarios para esta función.”

Todo corre local, sin internet, sin costos y sin enviar tu código a ningún servidor.

Ventajas que realmente importan

  • Privacidad: tu código no sale de tu equipo.
  • Costo cero: modelos abiertos, sin facturas ni límites.
  • Control total: cambiás el modelo cuando querés.
  • Rendimiento sorprendente incluso en equipos modestos.

En mis pruebas, modelos como gpt-oss-20b y qwen3-coder responden muy bien en tareas de programación y análisis técnico.