xumarhu.net xumarhu.net biblioteca
Principal > Biblioteca > Manuales de Instalación > Instalación de Ollama (Mac)

Instalación de Ollama (Mac)

Modelos a descargar mas usados para dispositivos con bajos recursos de hardware:

Size Context Input Model

2.02 GB 3B  128k  text  Llama-3.2-3B-Instruct-GGUF (Meta)
2.5 GB 3.8B  128k  text  phi-4-mini-reasoning (Microsoft)
2.5 GB 4B  256k  text  qwen3-4b-thinking-2507 (Alibaba)
5.2 GB 8B  128k  text  DeepSeek-R1 (Deepseek)
14 GB 20B  128k  text  gpt-oss-20b (OpenAI)

NOTA IMPORTANTE: La aplicación de Ollama y a parte cada modelo que se quiera probar consume diferente cantidad de memoria y espacio en disco, por lo tanto, antes de empezar la instalación es importante revisar ESPACIO EN DISCO y MEMORIA DISPONIBLE.

Se requiere al menos 7GB de espacio en disco duro para instalar Ollama, a parte se requiere espacio para cada modelo que se quiera descargar. Para verificar nuestro espacio en disco duro usamos el comando:
$ df -h

Para revisar la cantidad de memoria RAM disponible usamo el comando:
$ top -l 1 | grep PhysMem
Y en nuestro caso (depende del hardware utilizado) aparece:
PhysMem: 17G used (1813M wired, 1495M compressor), 258M unused.

En el caso de Mac, podemos ver de manera gráfica y más completa la cantidad de memoria, abriendo el “Monitor de Actividad” presionando Comando + Espacio, y a continuación escribir "Monitor de Actividad" y abrirlo, para posteriormente seleccionar la pestaña Memoria.

Para iniciar con la instalación, abrimos la página oficial de Ollama:
https://ollama.com/download De ahí se descarga el programa -> Ollama.dmg

Hace doble clíck sobre él, y aparece una ventana donde arrastramos el icono de “Ollama” a “Applications” para que se copie en esa carpeta.

Luego abrimos la carpeta “Applications” y seleccionamos “Ollama” y hacemos doble click sobre él para ejecutarlo, y si es la primera vez aparecerá una ventana con el mensaje: Ollama es una app descargada de Internet. ¿Confirmas que quieres abrirla?

y hacemos click en -> Abrir

Después nos pedirá nuestra contraseña como administrador del Sistema para poder instalarla y se la proporcionamos.

En este momento ya quedará instalado “Ollama” en nuestro sistema. Para verificar si ya quedó instalado, abrimos una terminal y usamos el comando:
$ ollama --version

Y aparecerá la versión que acaba de instalar:
ollama version is 0.11.10

Lo siguiente es descargar alguno de los modelos, empezando con el Llama 3.2 (Meta):
$ ollama pull llama3.2:3b

Para ver una lista de los LLMs instalados:
$ ollama list

Para ejecutar el modelo que acabamos de descargar
$ ollama run llama3.2:3b

Tarda un poco en cargarlo y aparece el indicador del ollama:
>>>

Y ahí podemos escribir nuestro prompt:
>>> Cuál es la capital de Michoacán? (contesta con una sola palabra)

Y aparece:
La respuesta es: Morelia

Para salir de Ollama:
>>> /bye

Podemos instalar otros modelos y para ver una lista de modelos que se pueden instalar en Ollama podemos consultar la página:
https://ollama.com/search Para descargar “Phi” (Microsoft)
$ ollama pull phi4-mini:3.8b

Para descargar “Qwen” (Alibaba)
$ ollama pull qwen3:4b

Para descargar “Deepseek” (Deepseek)
$ ollama pull deepseek-r1:8b

Para descargar “ChatGPT” (OpenAI)
$ ollama pull gpt-oss:20b

Para hacer un programa que se conecte a uno de nuestros modelos hay que levantar el servidor de Ollama para recibir peticiones desde un programa, para ello levantamos el servidor:
$ ollama serve

Si marca error (por default corre en el puerto 11434) lo podemos cambiar por el 8080 (o cualquier otro disponible) con las 2 siguientes instrucciones:
$ export OLLAMA_HOST=0.0.0.0:8080
$ ollama serve

Para ver si funciona podemos abrir un navegador y teclar la dirección:
localhost:8080

Y debemos observar en la pantalla del navegador el mensaje:
Ollama is running

Ahora hay que hacer un programa en Python con el siguiente código:

import ollama
modelo = “phi4-mini:3.8b”
prompt = "Cómo te llamas?”
resultado = ollama.generate(modelo, prompt)
print(resultado[‘response’])

Al ejecutarlo se conectará al modelo “phi4-mini:3.8b” (previamente descargado), le enviará el prompt "Cómo te llamas?” e imprimirá la respuesta.


Usted se encuentra Aquí > Principal > Biblioteca > Manuales de Instalación > Instalación de Ollama (Mac)
Portal de Tecnología desarrollado por: Rogelio Ferreira Escutia
Valid CSS Valid XHTML 5