• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Encuestas: Tamaño de Muestra
    • Lotería: Probabilidad de Ganar
    • Reparto de Escaños (D’Hondt)
    • Tres en Raya con IA
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • Excel
  • Matlab

Seleccionar automáticamente los modelos en Python con GridSearchCV

febrero 18, 2019 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 3 minutos

Las clases GridSearchCV y RandomizedSearchCV de Scikit-learn pueden ser utilizadas para automatizar la selección de los parámetros de un modelo. Aplicando para ello la técnica de validación cruzada. Partiendo de un modelo y un conjunto de sus parámetros prueba múltiples combinaciones para identificar aquella que ofrece mayor rendimiento. Proceso que se ha visto en una entrada anterior dedicada a GridSearchCV. En muchas situaciones puede ser necesario identificar también qué modelo funciona mejor. Lo que se puede conseguir utilizando la clase Pipeline junto alguna de las anteriores. En esta entrada se va a explicar cómo seleccionar automáticamente los modelos en Python con GridSearchCV y Pipeline.

Utilización básica de GridSearchCV

GridSearchCV permite seleccionar los valores de los hiperparametros para un modelo y conjunto de datos. Para ellos, se ha de crear un objeto GridSearchCV donde el modelo es el primer parámetro y un diccionario de los parámetros es el segundo. Por ejemplo, en el siguiente trozo de código se muestra un ejemplo.

from sklearn.datasets import load_diabetes
from sklearn.linear_model import Ridge
from sklearn.model_selection import GridSearchCV

dataset = load_diabetes()

X = dataset.data
y = dataset.target

model = Ridge()
params = {'alpha': [1, 0.1, 0.01, 0.001, 0.0001]}

grid = GridSearchCV(model, params, cv=10, iid=False)
grid.fit(X, y)

grid.best_estimator_.get_params()

En este código inicialmente se importar el conjunto de datos de diabetes disponibles en Scikit-learn. La variable objetivo de este es una medida cuantitativa de la progresión de la enfermedad un año después del resto de registros. Por lo que se puede crear un modelo de regresión. En el ejemplo se utiliza un modelo Ridge en el que se prueban diferentes valores de alpha que se evalúan con GridSearchCV. Una vez entrenado el modelo se puede consultar con qué valor de alpha se obtienen los mejores rendimientos. En este caso el valor es de 0,1.

Curiosidad: La Ley de Twyman y la trampa de los datos “interesantes”
En Analytics Lane
Curiosidad: La Ley de Twyman y la trampa de los datos “interesantes”

Las posibilidades de esta clase y RandomizedSearchCV se pueden ver en mayor profundidad en la entrada GridSearchCV.

Publicidad


Evaluación de otro modelo

Una vez obtenido el resultado anterior se puede probar con otro modelo, por ejemplo, con ElasticNet. Para lo que se puede emplear el siguiente código.

from sklearn.linear_model import ElasticNet

model = ElasticNet()
params = {'alpha': [1, 0.1, 0.01, 0.001, 0.0001],
          'l1_ratio': [1, 0.1, 0.01, 0.001, 0.0001]}

grid = GridSearchCV(model, params, cv=10, iid=False)
grid.fit(X, y)

grid.best_estimator_.get_params()

A diferencia del caso anterior se puede probar con diferentes valores para alpha y l1_ratio. Mediante el mismo proceso se pueden obtener los mejores hiperparametros para este modelo y conjunto de datos. En esta ocasión es son alpha igual a 0,001 y l1_ratio igual a 0,001.

Uso de Pipeline para seleccionar automáticamente los modelos en Python

En las dos secciones anteriores se ha visto cómo seleccionar los parámetros de un modelo. Pero en muchas aplicaciones prácticas lo que se busca es seleccionar el modelo. Lo que se puede conseguir con el uso de la clase Pipeline. La cual se ha utilizado en una entrada anterior para automatizar el procesado de datos.

El procedimiento es crear una tubería con un modelo. Posteriormente se pueden utilizar diferentes objetos con modelos como parámetros de la tubería. Al mismo tiempo que se pueden incluir los parámetros de los modelos. Esto es lo que se muestra en el siguiente código.

from sklearn.pipeline import Pipeline
from sklearn.linear_model import Lasso

pipe = Pipeline([('model', Ridge())])

params = [{'model': [Ridge()],
           'model__alpha': [1, 0.1, 0.01, 0.001, 0.0001]},
          {'model': [Lasso()],
           'model__alpha': [1, 0.1, 0.01, 0.001, 0.0001]},
          {'model': [ElasticNet()],
           'model__alpha': [1, 0.1, 0.01, 0.001, 0.0001],
           'model__l1_ratio': [1, 0.1, 0.01, 0.001, 0.0001]}]

grid = GridSearchCV(pipe, params, cv=10, iid=False)
grid.fit(X, y)

grid.best_estimator_.get_params()['model']

En este ejemplo se han probado tres modelos diferentes en un único proceso: Ridge, Lasso y ElasticNet. Evaluando diferentes modelos en cada uno de ellos. Obteniéndose como resultado el modelo y parámetros que mejor funcionan para este conjunto de datos. En este caso, el modelo resultante ha sido ElasticNet con alpha igual a 0,001 y l1_ratio igual a 0,001.

Publicidad


Conclusiones

En esta entrada se ha visto cómo utilizar GridSearchCV y Pipeline para seleccionar automáticamente los modelos en Python. La combinación de estas dos herramientas permite automatizar procesos tediosos como es el hecho de probar diferentes tipos de modelos y comparar. Poniendo de manifiesto la potencia que ofrecen la unión de ambas. Lo que ya se había visto en una entrada anterior en la que se automatiza el procesado de datos.

Imágenes: Pixabay (Pete Linforth)

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 5 / 5. Votos emitidos: 1

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • Curiosidad: La Ley de Twyman y la trampa de los datos “interesantes”
  • Copias de seguridad automáticas en SQL Server con rotación de archivos
  • Curiosidad: La Paradoja de Simpson, o por qué no siempre debes fiarte de los promedios
  • Error npm ERR! code EACCES al instalar paquetes en Node.js: Cómo solucionarlo paso a paso
  • Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
  • ¿Está concentrado el MSCI World? Un análisis con Gini, Lorenz y leyes de potencia
  • Curiosidad: ¿Por qué usamos p < 0.05? Un umbral que cambió la historia de la ciencia
  • Programador de tareas de Windows: Guía definitiva para automatizar tu trabajo (BAT, PowerShell y Python)
  • La Paradoja del Cumpleaños, o por qué no es tan raro compartir fecha de nacimiento

Publicado en: Python Etiquetado como: Machine learning, Scikit-Learn

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

La Paradoja del Cumpleaños, o por qué no es tan raro compartir fecha de nacimiento

octubre 9, 2025 Por Daniel Rodríguez

Programador de tareas de Windows: Guía definitiva para automatizar tu trabajo (BAT, PowerShell y Python)

octubre 7, 2025 Por Daniel Rodríguez

Curiosidad: ¿Por qué usamos p < 0.05? Un umbral que cambió la historia de la ciencia

octubre 2, 2025 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Gráficos de barras en Matplotlib publicado el julio 5, 2022 | en Python
  • Justicio: La herramienta gratuita de IA para consultas legales publicado el diciembre 10, 2024 | en Reseñas
  • Método del codo (Elbow method) para seleccionar el número óptimo de clústeres en K-means publicado el junio 9, 2023 | en Ciencia de datos
  • Solución del error 504 Gateway Timeout en NGINX publicado el abril 10, 2024 | en Herramientas
  • Buscar en Excel con dos o más criterios publicado el septiembre 7, 2022 | en Herramientas

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.5 (10)

Diferencias entre var y let en JavaScript

Publicidad

Comentarios recientes

  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown
  • Daniel Rodríguez en Tutorial de Mypy para Principiantes

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2025 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto