
Los modelos de inteligencia artificial generativa están transformando la manera en que interactuamos con la tecnología, y deepseek-r1 es uno de los más prometedores en la biblioteca de Ollama. Este modelo, diseñado para tareas de búsqueda y análisis, destaca por su eficiencia y precisión. En esta guía, te explicamos cómo instalarlo en Ollama y las configuraciones recomendadas según tus recursos.
Tabla de contenidos
¿Qué es deepseek-r1?
Deepseek-r1 es un modelo de lenguaje optimizado para tareas de búsqueda semántica y análisis en profundidad. Sus versiones, que varían en tamaño y capacidad, están diseñadas para adaptarse a diferentes niveles de recursos computacionales:
- Versión 1B: Ideal para equipos con recursos limitados, como CPUs modernas o GPUs básicas.
- Versión 7B: La opción estándar para la mayoría de los usuarios, ofreciendo un equilibrio entre velocidad y precisión.
- Versiones avanzadas (más de 7B): Recomendadas para usuarios con hardware potente, como GPUs de gama alta o sistemas con múltiples núcleos.
Paso 1: Instalar Ollama
Antes de empezar, asegúrate de tener Ollama instalado en tu equipo. Si aún no lo has hecho, puedes consultar el tutorial de instalación de Ollama. Los principales pasos para realizar la instalación de Ollama son:
- Descarga Ollama desde su sitio oficial.
- Sigue las instrucciones de instalación específicas para tu sistema operativo (macOS, Windows o Linux).
Una vez instalado, verifica que Ollama esté funcionando correctamente ejecutando el siguiente comando en tu terminal o línea de comandos:

ollama list
Esto mostrará los modelos disponibles o instalados en tu sistema. Si no se ha instalado ninguno, la lista debería estar vacía.
Paso 2: Instalar deepseek-r1
Para instalar deepseek-r1, utiliza el siguiente comando en Ollama:
ollama pull deepseek-r1
Este comando descarga la versión estándar del modelo (7B). Si deseas instalar una versión específica:
- Versión 1B:
ollama pull deepseek-r1-1b
- Versiones avanzadas: Consulta la documentación de Ollama para los nombres exactos de estas versiones.
Paso 3: Uso de deepseek-r1
Una vez que el modelo deepseek-r1 ha sido instalado correctamente en tu sistema, puedes acceder a él fácilmente desde la terminal o el símbolo del sistema. Para iniciar el modelo, simplemente ejecuta el siguiente comando:
ollama run deepseek-r1
Este comando iniciará el modelo y podrás interactuar con él directamente a través de la terminal. Si has instalado otro modelo, sustitúyelo por el nombre del modelo que desees utilizar. Al ejecutar este comando, el modelo estará listo para responder a tus consultas.
Interacción con el modelo
Con el modelo en ejecución, puedes comenzar a hacerle preguntas o pedirle que realice tareas específicas. Simplemente escribe tus consultas y el modelo responderá con la información o el análisis que le solicites. Este tipo de interacción es útil para tareas de procesamiento de lenguaje natural, generación de texto o cualquier otro tipo de análisis relacionado con el modelo.
Uso de una interfaz gráfica
Si prefieres una experiencia más visual y amigable, en lugar de interactuar directamente con la terminal, puedes utilizar aplicaciones como AnythingLLM, que proporcionan una interfaz gráfica para gestionar y acceder a los modelos LLM instalados. Para más detalles sobre cómo configurar y utilizar esta herramienta, puedes consultar el tutorial de instalación de modelo LLM en local, que te guiará paso a paso para integrar AnythingLLM y facilitar el acceso a los modelos de manera más intuitiva.
Recomendaciones según tus recursos
Como se explica en el tutorial de instalación de Ollama, es importante elegir la versión adecuada de deepseek-r1 según los recursos de tu equipo:
- Recursos limitados: Opta por la versión 1B, que es más ligera y funciona bien en CPUs modernas o GPUs integradas.
- Configuración estándar: La versión 7B es adecuada para la mayoría de los usuarios con GPUs básicas como la RTX 3060 o sistemas Apple Silicon Pro.
- Hardware avanzado: Si dispones de una GPU de gama alta (por ejemplo, RTX 4090), prueba modelos más grandes para tareas complejas.
Conclusiones
Deepseek-r1 es una excelente incorporación a la biblioteca de Ollama, especialmente para quienes necesitan realizar tareas de búsqueda complejas con alta precisión. Su instalación es sencilla y, gracias a las diferentes versiones disponibles, es accesible tanto para usuarios con recursos limitados como para aquellos con hardware avanzado.
Si ya estás usando Llama, probar deepseek-r1 es una oportunidad interesante para explorar nuevas posibilidades y comparar cuál de los modelos se ajusta mejor a tus necesidades. Ambos tienen puntos fuertes que los hacen destacar en el ecosistema de modelos generativos.
Deja una respuesta