• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Encuestas: Tamaño de Muestra
    • Lotería: Probabilidad de Ganar
    • Reparto de Escaños (D’Hondt)
    • Tres en Raya con IA
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • Python
  • Pandas
  • NumPy
  • Matlab
  • Julia
  • Excel
  • IA Generativa

Cómo instalar modelos de chat privados tipo GPT en tu ordenador: Guía paso a paso

diciembre 18, 2024 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 10 minutos

Los modelos grandes de lenguaje (LLM, por sus siglas en inglés, Large Language Model) están marcando un antes y un después en la tecnología, transformando industrias y redefiniendo la interacción con la inteligencia artificial. Entre sus aplicaciones más populares destacan los chatbots, que han revolucionado nuestra forma de interactuar con la inteligencia artificial gracias a plataformas como ChatGPT, Claude o Gemini. Sin embargo, el uso de servidores externos para procesar los datos puede generar inquietudes sobre la privacidad, especialmente cuando se trabaja con información confidencial. Esto ha llevado a muchos usuarios a buscar soluciones más seguras para aplicaciones específicas.

Una alternativa para proteger tu privacidad es ejecutar los modelos de chat de manera local, directamente en tu ordenador. Este enfoque elimina la necesidad de conexión a internet durante el uso, asegurando que tus datos permanezcan exclusivamente en tu dispositivo. En este tutorial, aprenderás a instalar y usar Ollama, una herramienta diseñada para ejecutar modelos de chat basados en LLM, junto con AnythingLLM, un cliente gráfico que simplifica su manejo, permitiéndote configurar un entorno de chat privado y seguro.

Aunque las herramientas ejecutadas localmente todavía no igualan la potencia de plataformas como ChatGPT, cuya implementación requiere equipos extremadamente potentes, representan una alternativa respetuosa con la privacidad y adecuada para numerosos casos de uso. Eso sí, es fundamental contar con un ordenador moderno para garantizar un rendimiento fluido. Para usuarios de Windows o Linux, se recomienda una GPU Nvidia. En el caso de los usuarios de Mac, los procesadores Apple Silicon con Neural Engine son ideales, ya que estos modelos demandan una gran capacidad de cálculo para realizar las inferencias.

¡Nuevo video! Aprende a seleccionar datos en Pandas con .iloc y .loc
En Analytics Lane
¡Nuevo video! Aprende a seleccionar datos en Pandas con .iloc y .loc

Tabla de contenidos

  • 1 Instalación de Ollama
    • 1.1 macOS
    • 1.2 Linux
    • 1.3 Windows
  • 2 Instalación del primer modelo
    • 2.1 Otros modelos
  • 3 Instalación de AnythingLLM
    • 3.1 Descarga de AnythingLLM
    • 3.2 macOS
    • 3.3 Windows
    • 3.4 Linux
  • 4 Conexión de Ollama con AnythingLLM
  • 5 Entender los tamaños de los modelos y cuál elegir
    • 5.1 ¿Qué implicaciones tienen los tamaños de los modelos?
    • 5.2 Elección simplificada en función de tu tipo de equipo
  • 6 Conclusiones

Instalación de Ollama

Ollama es una herramienta sencilla y eficiente que permite ejecutar modelos grandes de lenguaje (LLM) de forma local. Para instalarla, visita el sitio web oficial de Ollama y descarga la versión compatible con tu sistema operativo. Ollama está disponible para macOS, Linux y Windows.

Captura de pantalla de la página oficial de descargas de Ollama, mostrando opciones para descargar el software en macOS, Windows y Linux.
Página de descargas de Ollama, donde puedes seleccionar la versión adecuada para tu sistema operativo: macOS, Windows o Linux.

A continuación, se detallan los pasos específicos para cada sistema operativo:

Publicidad


macOS

  1. Descarga el archivo ZIP desde la página oficial de Ollama.
  2. Descomprime el archivo para obtener la aplicación.
  3. Copia la aplicación en la carpeta Aplicaciones de tu Mac.
  4. Ejecuta la aplicación desde la carpeta Aplicaciones para iniciar la configuración inicial.

Nota: macOS podría mostrar un aviso de seguridad al abrir aplicaciones descargadas desde internet. Si esto ocurre, ve a Preferencias del Sistema > Seguridad y Privacidad y permite la ejecución de la aplicación.

Linux

  1. Abre una terminal en tu sistema Linux.
  2. Ejecuta el comando que se muestra en la página web de Ollama: curl -fsSL https://ollama.com/install.sh | sh
  3. Sigue las instrucciones en pantalla para completar la instalación y configuración.

Nota: Es posible que necesites permisos de administrador para ejecutar el script. Si ocurre, antepón sudo al comando anterior.

Publicidad


Windows

  1. Descarga el instalador desde el sitio web oficial de Ollama.
  2. Ejecuta el archivo descargado para iniciar el asistente de instalación.
  3. Sigue las instrucciones del asistente:
    • Acepta los términos y condiciones.
    • Elige la carpeta de instalación (o usa la predeterminada).
    • Completa el proceso haciendo clic en “Finalizar”.
  4. Una vez completada la instalación, la aplicación estará lista para usarse.

Nota: Si Windows bloquea la instalación por razones de seguridad, haz clic en “Más información” y selecciona “Ejecutar de todas formas”.

Instalación del primer modelo

Una vez que tengas Ollama instalado en tu equipo, puedes verificar que la instalación se realizó correctamente abriendo una terminal (o símbolo del sistema en Windows) y ejecutando el siguiente comando:

ollama --version 

Si todo está en orden, el terminal mostrará el número de versión instalada. A la fecha de redacción de este tutorial, la última versión de Ollama es la 0.5.1, aunque es posible que haya versiones más recientes debido a las actualizaciones periódicas del proyecto.

El instalador de Ollama no incluye modelos preinstalados, por lo que será necesario descargar al menos uno para comenzar. Un modelo popular y recomendado para empezar es Llama (versión 3.2). Para instalar este modelo, abre una terminal o símbolo del sistema y ejecuta el siguiente comando:

ollama run llama3.2 

Este comando descargará, instalará y ejecutará el modelo Llama 3.2 (3B) localmente, mostrando una ventana de chat en la terminal. Puedes escribir preguntas directamente en la terminal y el modelo responderá. Para salir del chat, escribe el comando:

/exit 
Captura de pantalla de una terminal mostrando el proceso de descarga y ejecución del modelo Llama 3.2, junto con una interacción en la que se formula una pregunta y el modelo proporciona una respuesta.
Ejemplo de terminal donde se descarga y ejecuta el modelo Llama 3.2, seguido de una interacción con el modelo. En este caso, se realiza una pregunta y el modelo responde directamente en la terminal.

Publicidad


Otros modelos

Ollama permite instalar múltiples modelos, como Phi, Mistral, o Gemma, según tus necesidades. Puedes explorar el listado completo y actualizado de modelos disponibles en la sección Models del sitio web de Ollama.

Antes de instalar un modelo, es importante revisar la sección de este tutorial titulada Entender los tamaños de los modelos, donde se explican las consideraciones relacionadas con los requisitos de hardware. Esto te ayudará a evitar descargar modelos que podrían no funcionar adecuadamente en tu equipo debido a limitaciones de recursos.

Instalación de AnythingLLM

Aunque es posible iniciar un chat con Ollama desde la terminal o el símbolo del sistema, este método puede resultar poco práctico para el uso cotidiano. Para facilitar las conversaciones, puedes utilizar AnythingLLM, un cliente de escritorio que permite interactuar de forma gráfica con distintos proveedores de modelos grandes de lenguaje (LLM), incluyendo Ollama.

Publicidad


Descarga de AnythingLLM

Para descargar AnythingLLM, visita la sección de descargas del proyecto. Allí podrás seleccionar la versión compatible con tu sistema operativo. Al igual que Ollama, AnythingLLM está disponible para macOS, Windows y Linux.

Captura de pantalla de la página de descargas de AnythingLLM, destacando las opciones de descarga para diferentes sistemas operativos como macOS, Windows y Linux.
Vista de la página oficial de descargas de AnythingLLM, mostrando las opciones de instalación disponibles para macOS, Windows y Linux.

macOS

  1. Descarga el archivo DMG desde la página de descargas.
  2. Abre el archivo descargado y arrastra la aplicación a la carpeta Aplicaciones.
  3. Una vez copiada, abre la aplicación desde la carpeta Aplicaciones para comenzar a configurarla.

Nota: macOS podría mostrar un aviso de seguridad al abrir aplicaciones descargadas desde internet. Si esto ocurre, ve a Preferencias del Sistema > Seguridad y Privacidad y permite la ejecución de la aplicación.

Publicidad


Windows

  1. Descarga el archivo instalador desde el sitio web.
  2. Ejecuta el archivo descargado para iniciar el asistente de instalación.
  3. Sigue las instrucciones en pantalla hasta completar el proceso.

Nota: Si Windows muestra un aviso de seguridad, selecciona “Más información” y luego “Ejecutar de todas formas”.

Linux

En sistemas Linux, sigue estos pasos básicos:

  1. Abre una terminal.
  2. Ejecuta el siguiente comando para descargar y ejecutar el script de instalación:
curl -fsSL https://s3.us-west-1.amazonaws.com/public.useanything.com/latest/installer.sh | sh 

Nota: Es posible que necesites permisos de administrador para ejecutar el script. En ese caso, prepende sudo al comando anterior.

Captura de pantalla de la ventana principal de AnythingLLM con las instrucciones para crear un nuevo espacio de trabajo y configurar el uso de un modelo de lenguaje.
Vista inicial de AnythingLLM mostrando las instrucciones básicas para configurar un espacio de trabajo y empezar a utilizar modelos de lenguaje.

Publicidad


Conexión de Ollama con AnythingLLM

El último paso es conectar AnythingLLM con Ollama y el modelo Llama 3.2 que descargaste previamente. Sigue estos pasos para realizar la configuración:

  1. Crear un espacio de trabajo:
    • Abre la aplicación AnythingLLM.
    • Haz clic en el botón Nuevo espacio de trabajo.
    • Asigna un nombre al espacio de trabajo, por ejemplo, Llama 3.2.
    • Haz clic en Guardar para crear el espacio.
Captura de pantalla de AnythingLLM mostrando el campo para crear un nuevo espacio de trabajo, con un formulario donde se puede ingresar el nombre del espacio y configurar opciones iniciales.
Interfaz de AnythingLLM mostrando el formulario para crear un nuevo espacio de trabajo.
  1. Configurar el espacio de trabajo:
    • En la lista de espacios de trabajo, selecciona el nuevo espacio que acabas de crear.
    • Haz clic en el icono de configuración (una rueda dentada) para abrir las opciones.
    • En la sección Configuración del chat, selecciona:
      • Proveedor LLM: Elige Ollama como proveedor.
      • Modelo de chat: Selecciona Llama 3.2. Si no has instalado otros modelos, esta debería ser la única opción disponible.
    • Desplázate hacia abajo y haz clic en el botón Actualizar espacio de trabajo para guardar los cambios.
  2. Iniciar una conversación:
    • Con el espacio de trabajo configurado, selecciona la opción Nuevo hilo (New Thread) en la interfaz.
    • Comienza a escribir tus preguntas, y el modelo responderá directamente.

Nota: Si no aparece el modelo Llama 3.2 en la lista, verifica que Ollama esté configurado correctamente y que el modelo haya sido instalado siguiendo los pasos del apartado anterior.

Captura de pantalla de AnythingLLM mostrando un espacio de trabajo configurado y listo para iniciar una conversación con el modelo seleccionado, con un campo de entrada para escribir mensajes.
Ventana de AnythingLLM mostrando un nuevo espacio de trabajo configurado y la interfaz para iniciar una conversación con el modelo conectado.

Entender los tamaños de los modelos y cuál elegir

Los modelos grandes de lenguaje, como Llama, están disponibles en diferentes tamaños según el número de parámetros (weights o pesos del modelo), expresados en miles de millones (billions o B). Este tamaño influye directamente en la precisión y en los recursos necesarios para ejecutarlos.

En este tutorial propusimos descargar el modelo Llama 3.2 (3B), que tiene aproximadamente 3 mil millones de parámetros y un tamaño de 2 GB. Sin embargo, para equipos con recursos muy limitados, existe la opción de descargar modelos más pequeños, como el de 1B, que ocupa aproximadamente un 1 GB y puede funcionar incluso con hardware básico. Los comandos para descargar cada uno de los modelos están disponibles en la página oficial de cada modelo en Ollama. Por ejemplo, el comando para instalar el modelo Llama 3.2 (1B) es el siguiente:

ollama run llama3.2:1b

Publicidad


¿Qué implicaciones tienen los tamaños de los modelos?

A modo de guía, en la siguiente tabla se resume lo que se puede esperar y lo que es necesario para ejecutar cada uno de los tamaños de modelo:

Tamaño del modeloDescripciónUso recomendadoEjemplo de hardwareRAM mínimaEjemplos típicos de tareas
1BModelo ultracompacto, ideal para recursos muy limitados.Experimentación ligera en equipos básicos.Procesador moderno (Intel 10th Gen o superior, Ryzen 3rd Gen) o Apple Silicon.8 GBResúmenes cortos, respuestas simples, corrección ortográfica básica
3BModelos compactos, rápidos y de bajo consumo de recursos.Ideal para equipos básicos y tareas ligeras.Procesadores modernos o Apple Silicon estándar.8 GBChatbot básico, traducción simple, generación de texto corto
7BBuen equilibrio entre precisión y velocidad.Equipos con recursos moderados y usuarios que buscan más precisión.GPU básica (Nvidia GTX 1650 o RTX 3060) o Apple Silicon Pro o Max.16 GBAnálisis de texto, generación de contenido más complejo, respuestas detalladas
32BMás potente y preciso, especialmente en tareas complejas.Requiere hardware avanzado para un rendimiento óptimo.GPU media (Nvidia RTX 3080 o RTX 3090) o Apple Silicon Ultra.32 GBProgramación asistida, análisis de documentos extensos, tareas de razonamiento complejo
72B o másMáxima precisión y potencia, pero extremadamente exigente en recursos.Equipos dedicados con hardware de gama alta.GPU de gama alta (Nvidia RTX 4090) o estaciones especializadas.64 GBInvestigación científica, modelado de lenguaje avanzado, tareas multitarea complejas

Elección simplificada en función de tu tipo de equipo

Según el equipo del que dispones, aquí tienes una guía rápida para seleccionar el modelo adecuado:

  • Modelos de 1B: Ideales para equipos con hardware muy básico, como procesadores modernos sin GPU dedicada.
  • Modelos de 3B: Funcionan bien en equipos básicos con procesadores modernos y GPUs integradas. Adecuados para tareas ligeras y pruebas rápidas.
  • Modelos de 7B: Requieren equipos con recursos moderados, como GPUs básicas o procesadores Apple Silicon Pro o Max. Recomendados para tareas más avanzadas.
  • Modelos de 32B: Solo recomendados para usuarios con hardware potente, como GPUs de gama media-alta o Apple Silicon Ultra. Ideales para tareas complejas y resultados más precisos.
  • Modelos de 72B o más: Reservados para profesionales con estaciones de trabajo dedicadas y hardware de gama alta, como GPUs de última generación.

En resumen, si tienes un equipo con recursos muy limitados, el modelo de 1B puede ser una buena opción para comenzar. Si dispones de algo más de memoria o potencia, los modelos de 3B y 7B ofrecen un equilibrio entre eficiencia y precisión. Para necesidades avanzadas y hardware potente, los modelos de 32B o mayores son las mejores alternativas.

Publicidad


Conclusiones

Con este tutorial, ahora puedes instalar modelos de chat privados, similares a GPT, directamente en tu ordenador, manteniendo todos tus datos en local y sin necesidad de enviarlos a servidores de terceros. Esta solución es especialmente útil para aplicaciones empresariales o para usuarios que valoran la privacidad de su información. Aunque estos modelos no alcanzan la sofisticación de GPT-4, Claude o Gemini, representan una alternativa robusta y privada que cumple con muchas necesidades de procesamiento de lenguaje natural.

Recuerda que, para obtener un rendimiento óptimo, es necesario contar con un hardware adecuado, especialmente si planeas utilizar modelos más grandes o realizar tareas complejas. Sin embargo, con las opciones adecuadas, podrás experimentar con estos modelos de manera eficiente, manteniendo el control total sobre tus datos y tu privacidad.

¡No dudes en probar esta opción y dar el siguiente paso en el control de tus propios modelos de inteligencia artificial!

Nota: La imagen de este artículo fue generada utilizando un modelo de inteligencia artificial.

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • ¡Nuevo video! Aprende a seleccionar datos en Pandas con .iloc y .loc
  • ¡Nuevo video! Aprende a eliminar filas y columnas en Pandas sin errores
  • Nuevo video en el canal: Cómo eliminar duplicados de una lista en Python
  • Nuevo video en YouTube: Trabajando con archivos JSON en Python
  • Nuevo video: Leer y guardar archivos Excel y CSV en Python
  • Nuevo video: cómo activar copiar y pegar en VirtualBox fácilmente
  • Cómo extender el tamaño de un disco en Rocky Linux 9 usando growpart y LVM
  • Curiosidad: El origen del análisis exploratorio de datos y el papel de John Tukey
  • Cómo calcular el tamaño de la muestra para encuestas

Publicado en: Herramientas Etiquetado como: ChatGPT, IA Generativa, Llama, LLM, Machine learning

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Cómo calcular el tamaño de la muestra para encuestas

septiembre 9, 2025 Por Daniel Rodríguez

Curiosidad: El origen del análisis exploratorio de datos y el papel de John Tukey

septiembre 4, 2025 Por Daniel Rodríguez

Cómo extender el tamaño de un disco en Rocky Linux 9 usando growpart y LVM

septiembre 2, 2025 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas publicado el mayo 10, 2019 | en Python
  • pandas Pandas: Obtener el nombre de las columnas y filas en Pandas publicado el diciembre 7, 2020 | en Python
  • pandas Pandas: Cómo iterar sobre las filas de un DataFrame en Pandas publicado el septiembre 13, 2021 | en Python
  • Sistema de ecuaciones Sistemas de ecuaciones lineales con numpy publicado el octubre 29, 2018 | en Python
  • Método del codo (Elbow method) para seleccionar el número óptimo de clústeres en K-means publicado el junio 9, 2023 | en Ciencia de datos

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.5 (10)

Diferencias entre var y let en JavaScript

Publicidad

Comentarios recientes

  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown
  • Daniel Rodríguez en Tutorial de Mypy para Principiantes
  • Javier en Tutorial de Mypy para Principiantes

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2025 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto