Instalación de Ollama (Mac)
Modelos a descargar mas usados para dispositivos con bajos recursos de hardware:
Size Context Input Model
2.02 GB 3B 128k text Llama-3.2-3B-Instruct-GGUF (Meta)
2.5 GB 3.8B 128k text phi-4-mini-reasoning (Microsoft)
2.5 GB 4B 256k text qwen3-4b-thinking-2507 (Alibaba)
5.2 GB 8B 128k text DeepSeek-R1 (Deepseek)
14 GB 20B 128k text gpt-oss-20b (OpenAI)
NOTA IMPORTANTE: La aplicación de Ollama y a parte cada modelo que se quiera probar consume diferente cantidad de memoria y espacio en disco, por lo tanto, antes de empezar la instalación es importante revisar ESPACIO EN DISCO y MEMORIA DISPONIBLE.
Se requiere al menos 7GB de espacio en disco duro para instalar Ollama, a parte se requiere espacio para cada modelo que se quiera descargar. Para verificar nuestro espacio en disco duro usamos el comando:
$ df -h
Para revisar la cantidad de memoria RAM disponible usamo el comando:
$ top -l 1 | grep PhysMem
Y en nuestro caso (depende del hardware utilizado) aparece:
PhysMem: 17G used (1813M wired, 1495M compressor), 258M unused.
En el caso de Mac, podemos ver de manera gráfica y más completa la cantidad de memoria, abriendo el “Monitor de Actividad” presionando Comando + Espacio, y a continuación escribir "Monitor de Actividad" y abrirlo, para posteriormente seleccionar la pestaña Memoria.
Para iniciar con la instalación, abrimos la página oficial de Ollama:
https://ollama.com/download
De ahí se descarga el programa -> Ollama.dmg
Hace doble clíck sobre él, y aparece una ventana donde arrastramos el icono de “Ollama” a “Applications” para que se copie en esa carpeta.
Luego abrimos la carpeta “Applications” y seleccionamos “Ollama” y hacemos doble click sobre él para ejecutarlo, y si es la primera vez aparecerá una ventana con el mensaje:
Ollama es una app descargada de Internet. ¿Confirmas que quieres abrirla?
y hacemos click en -> Abrir
Después nos pedirá nuestra contraseña como administrador del Sistema para poder instalarla y se la proporcionamos.
En este momento ya quedará instalado “Ollama” en nuestro sistema. Para verificar si ya quedó instalado, abrimos una terminal y usamos el comando:
$ ollama --version
Y aparecerá la versión que acaba de instalar:
ollama version is 0.11.10
Lo siguiente es descargar alguno de los modelos, empezando con el Llama 3.2 (Meta):
$ ollama pull llama3.2:3b
Para ver una lista de los LLMs instalados:
$ ollama list
Para ejecutar el modelo que acabamos de descargar
$ ollama run llama3.2:3b
Tarda un poco en cargarlo y aparece el indicador del ollama:
>>>
Y ahí podemos escribir nuestro prompt:
>>> Cuál es la capital de Michoacán? (contesta con una sola palabra)
Y aparece:
La respuesta es: Morelia
Para salir de Ollama:
>>> /bye
Podemos instalar otros modelos y para ver una lista de modelos que se pueden instalar en Ollama podemos consultar la página:
https://ollama.com/search
Para descargar “Phi” (Microsoft)
$ ollama pull phi4-mini:3.8b
Para descargar “Qwen” (Alibaba)
$ ollama pull qwen3:4b
Para descargar “Deepseek” (Deepseek)
$ ollama pull deepseek-r1:8b
Para descargar “ChatGPT” (OpenAI)
$ ollama pull gpt-oss:20b
Para hacer un programa que se conecte a uno de nuestros modelos hay que levantar el servidor de Ollama para recibir peticiones desde un programa, para ello levantamos el servidor:
$ ollama serve
Si marca error (por default corre en el puerto 11434) lo podemos cambiar por el 8080 (o cualquier otro disponible) con las 2 siguientes instrucciones:
$ export OLLAMA_HOST=0.0.0.0:8080
$ ollama serve
Para ver si funciona podemos abrir un navegador y teclar la dirección:
localhost:8080
Y debemos observar en la pantalla del navegador el mensaje:
Ollama is running
Ahora hay que hacer un programa en Python con el siguiente código:
import ollama
modelo = “phi4-mini:3.8b”
prompt = "Cómo te llamas?”
resultado = ollama.generate(modelo, prompt)
print(resultado[‘response’])
Al ejecutarlo se conectará al modelo “phi4-mini:3.8b” (previamente descargado), le enviará el prompt "Cómo te llamas?” e imprimirá la respuesta.
Usted se encuentra Aquí >
Principal >
Biblioteca >
Manuales de Instalación > Instalación de Ollama (Mac)
Portal de Tecnología desarrollado por: Rogelio Ferreira Escutia