• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Estadística
      • Calculadora del Tamaño Muestral en Encuestas
      • Calculadora de estadísticos descriptivos
      • Test de normalidad
      • Calculadora de contrastes de hipotesis
      • Calculadora de tamano del efecto
      • Simulador de Regresión Lineal con Ruido
      • Visualizador de PCA
      • Visualizador de Series Temporales
      • Simulador de Regresión Logística
      • Simulador de K-Means
      • Simulador de DBSCAN
      • Detector de la Ley de Benford
    • Probabilidad
      • Calculadora de Probabilidad de Distribuciones
      • Calculadora de Probabilidades de Lotería
      • Simulador del Problema de Monty Hall
      • Simulador de la Estrategia Martingala
    • Finanzas
      • Calculadora de Préstamos e Hipotecas
      • Conversor TIN ↔ TAE
      • Calculadora DCA con ajuste por inflación
      • Calculadora XIRR con Flujos Irregulares
      • Simulador FIRE (Financial Independence, Retire Early)
    • Riesgo
      • Constructor de Scorecards de Crédito
      • Aplicar Scorecard de Crédito
    • Herramientas
      • Formateador / Minificador de JSON
      • Conversor CSV ↔ JSON
      • Comparador y Formateador de Texto y JSON
      • Formateador y Tester de Expresiones Regulares
      • Inspector de JWT
      • Generador y verificador de hashes
      • Codificador / Decodificador Base64 y URL
      • Conversor de bases numericas
      • Conversor de Timestamp Unix
      • Conversor de colores
      • Generador de UUIDs
    • Juegos
      • Tres en Raya
      • Nim con Q-Learning
    • Más
      • Método D’Hondt
      • Generador de Contraseñas Seguras
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • R
  • Excel

Seleccionar las mejores características para un modelo con Scikit-learn

abril 1, 2022 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 4 minutos

Cuando trabajamos con conjuntos de datos es habitual que no todas las características sean significativas, por lo que incluirlas puede ser más perjudicial que beneficioso para un modelo de aprendizaje automático. Por eso es importante seleccionar las mejores características. En Scikit-learn existen varias herramientas para ello, siendo una de las más sencillas de utilizar SelectKBest (o su equivalente SelectPercentile). Veamos a continuación como se puede usar esta clase para seleccionar las mejores características de un modelo.

El problema de emplear todas las características disponibles en un modelo

Emplear todas las características disponibles, especialmente cuando algunas de ellas no son significativas, en un modelo de aprendizaje automático puede provocar la aparición de sobreajuste. Algo que es necesario evitar. Este efecto se puede comprobar fácilmente con un conjunto de datos en el que solamente una parte de las características sea informativa. El cual se puede generar fácilmente con la función make_regression. Así se puede crear por ejemplo un conjunto de datos con 500 muestras, 50 características, de las cuales solamente 5 son informativas y un ruido de 100.

from sklearn.datasets import make_regression

X, y = make_regression(n_samples=500, n_features=50, n_informative=5, noise=100, random_state=0)

Ahora, se puede dividir el conjunto de datos en dos, uno para entrenamiento y otro para validación, e intentar crear un modelo de regresión lineal.

Nuevo test de normalidad interactivo en el laboratorio de Analytics Lane
En Analytics Lane
Nuevo test de normalidad interactivo en el laboratorio de Analytics Lane

from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression

X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=0)

regres = LinearRegression().fit(X_train, y_train)

print(f'Entrenamiento { regres.score(X_train, y_train) : .3f}')
print(f'Validación { regres.score(X_test, y_test) : .3f}')
Entrenamiento  0.773
Validación  0.611

Al comparar el rendimiento del modelo en entrenamiento y validación nos encontramos con un problema: el modelo sobreajuste. Algo que se puede ver en la gran diferencia de rendimiento que se observa en los conjuntos de datos de entrenamiento y validación.

Seleccionar las mejores características para un modelo

En este caso sabemos que el número de características informativas son 5, por lo que se puede utilizar SelectKBest para seleccionar únicamente estas. Esta es una clase que se encuentra en la parte de selección de características de (feature_selection) de Scikit-learn con las que se puede seleccionar las k mejoras características de un conjunto de datos para un problema dado. Usando para ello una métrica de rendimiento que se le debe de indicar.

Para crear una instancia de SelectKBest es necesario indicar la métrica que se desea emplear para el problema y el número de características finales. Como métrica, generalmente se usa la función f_regression en los problemas de regresión y chi2 en los de clasificación. Así para seleccionar las 5 mejores características solamente se tiene que ejecutar el siguiente código.

from sklearn.feature_selection import SelectKBest, f_regression

selector = SelectKBest(f_regression, k=5)
best_train = selector.fit_transform(X_train, y_train)
best_test = selector.transform(X_test)

regres = LinearRegression().fit(best_train, y_train)

print(f'Entrenamiento { regres.score(best_train, y_train) : .3f}')
print(f'Validación { regres.score(best_test, y_test) : .3f}')
Entrenamiento  0.736
Validación  0.715

Al igual que la mayoría de las clases, es necesario ajustarla con los datos de entrenamiento. Para lo que se puede usar fit o, como en el ejemplo, fit_transform para ajustar y transformar el conjunto de datos original en un único paso. Una vez hecho esto, se puede transformar cualquier otro conjunto de datos similar mediante la propiedad el método transform().

En este caso, cuando solamente se han usado las 5 características informativas, se puede ver que el modelo obtenido no padece de sobreajuste. Ahora el rendimiento en los conjuntos de entrenamiento y test son similares.

Publicidad


Identificar las características seleccionadas

Las características seleccionadas se pueden obtener gracias al método get_support(), el cual nos devolverá un vector de valores lógicos indicando True en las columnas seleccionadas y False en las que se omite. Así en nuestro caso

selector.get_support()
array([False, False, False, False, False, False, False,  True, False,
       False, False, False, False, False, False, False,  True, False,
       False, False, False, False, False, False, False, False, False,
       False,  True, False, False, False, False, False, False,  True,
       False, False,  True, False, False, False, False, False, False,
       False, False, False, False, False])

Por otro lado, la posición de las columnas se pueden obtener fácilmente gracias al la función where() de NumPy.

import numpy as np

np.where(selector.get_support())
(array([ 7, 16, 28, 35, 38]),)

Seleccionar las caracterizas cuando no se conoce la cantidad a priori

En el ejemplo anterior se ha creado un conjunto de datos con 5 características informativas, por lo que se sabía la cantidad de estas que debían seleccionarse. Pero en los conjuntos de datos reales no se tiene esta información. Para solucionar este problema se puede recurrir a la validación cruzada, por ejemplo, a la clase GridSearchCV, empleando tuberías para crear un clasificador que incluya la selección de características. Por ejemplo, con el siguiente código se puede obtener el número de caracterizas sin necesidad de conocerlo a priori.

from sklearn.pipeline import Pipeline
from sklearn.model_selection import GridSearchCV

pipe = Pipeline([('kbest', SelectKBest(f_regression)),
                 ('lineal', LinearRegression())])

grid = GridSearchCV(pipe, {'kbest__k': range(1,20)}, cv=3)
grid.fit(X, y)

grid.best_params_
{'kbest__k': 5}

En el que se ha creado una tubería en la que en primer lugar se seleccionan las características y posteriormente se crea un modelo de regresión lineal con esta. Mediante GridSearchCV se prueba diferentes opciones para el hiperparámetro k de SelectKBest obteniendo como resultado que el número es 5. Confirmado que el método permite obtener el resultado en un caso real.

Conclusiones

En esta entrada se ha visto como se puede utilizar la clase SelectKBest para seleccionar las mejores características para un modelo con Scikit-learn. Un método que es bastante útil para seleccionar las mejoras características para nuestro modelo.

Alternativamente existe la clase SelectPercentile que permite realizar la misma tareas, pero indicando el porcentaje de caracterizas a incluir, no el número exacto. La cual se puede usar para hacer exactamente la misma selección de características. Siendo más una preferencia personal usar una u otra.

Imagen de Arek Socha en Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 5 / 5. Votos emitidos: 2

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicidad


Publicaciones relacionadas

  • Nuevo test de normalidad interactivo en el laboratorio de Analytics Lane
  • Nuevo conversor de timestamp Unix en el laboratorio de Analytics Lane
  • Calculadora de Contrastes de Hipótesis: interpreta correctamente el p-valor y toma decisiones estadísticas con confianza
  • Calculadora de Tamaño del Efecto: la herramienta clave para entender cuánto importa realmente una diferencia
  • Simulador de DBSCAN: descubre cómo encontrar clusters reales (y ruido) sin fijar K
  • Conversor de Colores: convierte, compara y valida cualquier color en tiempo real
  • Analytics Lane lanza su Generador de UUIDs: identificadores únicos, seguros y listos para producción en segundos
  • 1200 publicaciones en Analytics Lane
  • Analytics Lane lanza su Conversor TIN ↔ TAE: la herramienta definitiva para entender el coste real de depósitos, préstamos e hipotecas

Publicado en: Ciencia de datos, Python Etiquetado como: Machine learning, Scikit-Learn

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

WOE e IV: La Base Matemática del Credit Scoring

mayo 5, 2026 Por Daniel Rodríguez

Noticias

Lanzamiento de la versión 1.0 del laboratorio de Analytics Lane con nuevas herramientas de scoring

mayo 2, 2026 Por Daniel Rodríguez

Analytics Lane

¡Analytics Lane cumple ocho años!

mayo 2, 2026 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Copiar y pegar Activar copiar y pegar en VirtualBox publicado el mayo 1, 2019 | en Herramientas
  • Comparar archivos en Visual Studio Code publicado el enero 10, 2024 | en Herramientas
  • Noticias Mejores mensajes de error en Python 3.10 publicado el octubre 11, 2021 | en Python
  • Codificación JSON Archivos JSON con Python: lectura y escritura publicado el julio 16, 2018 | en Python
  • Uso de múltiples ejes en Matplotlib publicado el agosto 4, 2022 | en Python

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.9 (11)

Pandas: Cambiar los tipos de datos en los DataFrames

Comentarios recientes

  • M. Pilar en Cómo eliminar las noticias en Windows 11 y recuperar tu concentración
  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2026 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto