xumarhu.net xumarhu.net biblioteca
Principal > Biblioteca > Manuales de Instalación > Instalación de Ollama (Jetson Orin Nano)

Instalación de Ollama (Jetson Orin Nano)

Modelos a descargar mas usados para dispositivos con bajos recursos de hardware:

Size Context Input Model

2.02 GB 3B  128k  text  Llama-3.2-3B-Instruct-GGUF (Meta)
2.5 GB 3.8B  128k  text  phi-4-mini-reasoning (Microsoft)
2.5 GB 4B  256k  text  qwen3-4b-thinking-2507 (Alibaba)
5.2 GB 8B  128k  text  DeepSeek-R1 (Deepseek)
14 GB 20B  128k  text  gpt-oss-20b (OpenAI)

Para instalar Ollama en Jetson Orin Nano primero abrimos una terminal para verificar la versión de JetPack y ver si es compatible:
$ head -n 1 /etc/nv_tegra_release

Y aparece
@R36 (release), REVISION: 4.4, GCID 41062509, BOARD: generic, EABI: aarch64, DATE: Mon Jun 16 16:07:13 UTC 2025

Antes de iniciar con la instalación se recomienda revisar la cantidad de memoria RAM disponible con el comando:
$ free -h

Otra forma de verificar la memoria es con el siguiente comando:
$ vmstat -s

NOTA: Cada modelo que se quiera probar consume diferente cantidad de memoria.

Se requiere al menos 7GB de espacio en disco duro para instalar Ollama, a parte se requiere espacio para cada modelo que se quiera descargar. Para verificar nuestro espacio en disco duro usamos el comando:
$ df -h

Para descargar Ollama:
$ curl -fsSL https://ollama.com/install.sh | sh

Nos pregunta la clave del administrador:
[ sudo ] password for rogelio:

A continuación tarda un poco en lo que descarga e instala Ollama. Para ver si ya quedó instalado usamos el comando:
$ ollama --version

Lo siguiente es descargar alguno de los modelos, empezando con el Llama 3.2 (Meta):
$ ollama pull llama3.2:3b

Para ver una lista de los LLMs instalados:
$ ollama list

Para ejecutar el modelo que acabamos de descargar
$ ollama run llama3.2:3b

Tarda un poco en cargarlo y aparece el indicador del ollama:
>>>

Y ahí podemos escribir nuestro prompt:
>>> Cuál es la capital de Michoacán? (contesta con una sola palabra)

Ya aparece:
La respuesta es: Morelia

Para salir de Ollama:
>>> /bye

Podemos instalar otros modelos y para ver una lista de modelos que se pueden instalar en Ollama podemos consultar la página:
https://ollama.com/search

Para descargar “Phi” (Microsoft)
$ ollama pull phi4-mini:3.8b

Para descargar “Qwen” (Alibaba)
$ ollama pull qwen3:4b

Para descargar “Deepseek” (Deepseek)
$ ollama pull deepseek-r1:8b

Para descargar “ChatGPT” (OpenAI)
$ ollama pull gpt-oss:20b

Para hacer un programa que se conecte a uno de nuestros modelos hay que levantar el servidor de Ollama para recibir peticiones desde un programa, para ello levantamos el servidor:
$ ollama serve

Si marca error (por default corre en el puerto 11434) lo podemos cambiar por el 8080 (o cualquier otro disponible) con las 2 siguientes instrucciones:
$ export OLLAMA_HOST=0.0.0.0:8080
$ ollama serve

Para ver si funciona podemos abrir un navegador y teclar la dirección:
localhost:8080

Y debemos observar en la pantalla del navegador el mensaje:
Ollama is running

Si queremos que ya siempre corra en el puerto 8080 editamos el archivo de configuración:
$ sudo nano /etc/systemd/system/ollama.service

Y agregamos al final lo siguiente:
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"

Grabamos el archivo y reiniciamos la computadora, o simplemente reiniciamos el servicio de “ollama” con las siguientes instrucciones:
$ sudo systemctl daemon-reload
$ sudo systemctl restart ollama

Ahora hay que hacer un programa en Python que requiere instalar la biblioteca "ollama" (pip3 install ollama) con el siguiente código:

import ollama
modelo = “phi4-mini:3.8b”
prompt = "Cómo te llamas?”
resultado = ollama.generate(modelo, prompt)
print(resultado[‘response’])

Al ejecutarlo se conectará al modelo “phi4-mini:3.8b” (previamente descargado), le enviará el prompt "Cómo te llamas?” e imprimirá la respuesta.


Usted se encuentra Aquí > Principal > Biblioteca > Manuales de Instalación > Instalación de Ollama (Jetson Orin Nano)
Portal de Tecnología desarrollado por: Rogelio Ferreira Escutia
Valid CSS Valid XHTML 5