Mi primera IA en local

 Este artículo es sólo una introducción para instalar Inteligencia Artificial en local; es decir, directamente en nuestro ordenador y no en la red. En el explicaremos como instalar Ollama en nuestro portátil, lo cual es realmente sencillo: tanto su instalación como su uso. En ningún caso se ha pretendido que sea más que unos primeros pasos de la forma más sencilla posible.

Estos programas funcionan sobre la tarjeta gráfica, de modo que si tenéis un portátil que no tenga tarjeta dedicada NVIDIA o RADEON os va a ser más complicado, deberéis recurrir a máquinas virtuales cosa que nunca hacemos  nuestras pruebas, habitualmente utilizamos dos portátiles para todas las pruebas de este blog: uno con base Intel y otro con base AMD. El de base Intel no dispone de tarjeta dedicada y no ha funcionado la instalación y el de base AMD (AMD RYZEN7 serie  5000 y graphics AMD RADEON) ha funcionado correctamente; por lo tanto, la explicación se hace en un ordenador con esta base, que tiene instalada una distribución Debian 13.




Para un funcionamiento correcto deben emplearse ordenadores específicamente pensados para ello, pues son máquinas con muchos recursos gráficos.

Primero instalamos la orden curl, que necesitamos,  no está instalada por defecto en la distribucion Debian 13.

$ sudo apt install curl  

Ahora accedemos a la página de ollama que es la base de nuestra IA.

 https://ollama.com/download/linux

 


Marcamos la Opción linux y después marcamos en el icono derecho para copiar toda la orden completa.

Abrimos un terminal  en modo root y copiamos:

$ sudo su

Contraseña y copiamos.

 # curl -fsSL https://ollama.com/install.sh | sh

 Inmediatamente empezará la instalación. Como podéis ver  llama y ejecuta  un srip (install.sh) para su instalación:



Para ver que Ollama está instalado lo llamamos desde terminal con la orden:

# ollama
 
Nos aparece la siguiente imagen:
 

Observar que tenemos la versión serve que indica que está en funcionamiento. 
 
Vamos a ejecutar el ollama con el modelo llama3 ( LLMs) que es uno de los más populares actualmente pero podéis ejecutar otros modelos sin problemas. Como nuestro ordenador es muy sencillo a nivel de tarjeta gráfica estableceremos la opción de carga más sencilla con 8b. En la siguiente web se pueden ver los modelos de código abierto más populares según su autor:
 
 
También podéis ver en la siguiente web un poco mas de información del parámetro 8b:
 
 
 Ahora ejecutamos  el modelo llama3 en precisión baja 8b, pues nuestro ordenador es muy sencillo.
 
En la siguiente imagen se puede ver como evoluciona como evoluciona y como al final se ha cargado y está listo para utilizar. 

 
Ahora veremos tres de ejemplos:
 
1.- En el primero le pediremos que no escriba una pequeña carta un amigo enfermo. 
 

 2.- Que nos escriba una programación en lenguaje informático en un lenguaje muy popular C#.
 
 

 3.- Que no escriba un sencillo problema de tanto por ciento.
 


Finalmente, vamos a buscar una extensión para poder trabar en modo gráfico vía navegador web. Utilizamos el navegador Chromium, para ello es necesario  instalar la extensión pag assist. La cual se pude configurar fácilmente en español y funciona correctamente, tal como se puede ver en las siguiente imágenes.

 https://chromewebstore.google.com/detail/page-assist-a-web-ui-for/jfgfiigpkhlkbnfnbobbkinehhfdhndo

 


 

 Veamos un ejemplo concreto ahora gráficamente.




Veamos alguna web interesante del ministerio español para aprender un poco más:
 

https://datos.gob.es/es/catalogo/conjuntos-datos

https://datos.gob.es/es/blog/herramientas-de-auto-machine-learning-de-codigo-abierto