• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Estadística
      • Calculadora del Tamaño Muestral en Encuestas
      • Calculadora de estadísticos descriptivos
      • Test de normalidad
      • Calculadora de contrastes de hipotesis
      • Calculadora de tamano del efecto
      • Simulador de Regresión Lineal con Ruido
      • Visualizador de PCA
      • Visualizador de Series Temporales
      • Simulador de Regresión Logística
      • Simulador de K-Means
      • Simulador de DBSCAN
      • Detector de la Ley de Benford
    • Probabilidad
      • Calculadora de Probabilidad de Distribuciones
      • Calculadora de Probabilidades de Lotería
      • Simulador del Problema de Monty Hall
      • Simulador de la Estrategia Martingala
    • Finanzas
      • Calculadora de Préstamos e Hipotecas
      • Conversor TIN ↔ TAE
      • Calculadora DCA con ajuste por inflación
      • Calculadora XIRR con Flujos Irregulares
      • Simulador FIRE (Financial Independence, Retire Early)
    • Riesgo
      • Constructor de Scorecards de Crédito
      • Aplicar Scorecard de Crédito
    • Herramientas
      • Formateador / Minificador de JSON
      • Conversor CSV ↔ JSON
      • Comparador y Formateador de Texto y JSON
      • Formateador y Tester de Expresiones Regulares
      • Inspector de JWT
      • Generador y verificador de hashes
      • Codificador / Decodificador Base64 y URL
      • Conversor de bases numericas
      • Conversor de Timestamp Unix
      • Conversor de colores
      • Generador de UUIDs
    • Juegos
      • Tres en Raya
      • Nim con Q-Learning
    • Más
      • Método D’Hondt
      • Generador de Contraseñas Seguras
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • R
  • Excel

Introducción a XGBoost: Instalación y primeros pasos

abril 5, 2024 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 4 minutos

XGBoost (Extreme Gradient Boosting) es un algoritmo que ha ganado popularidad entre los científicos de datos debido a su potencia y eficiencia. En esta entrada se explicará qué es XGBoost, cómo instalarlo en Python y un cómo se puede usar en un caso práctico.

¿Qué es XGBoost?

XGBoost es un algoritmo de aprendizaje supervisado basado en árboles de decisión, diseñado para resolver problemas de regresión y clasificación. Utiliza el concepto de boosting, una técnica de Ensemble Learning, en el que se combinan múltiples modelos para crear uno más eficiente que mejore el rendimiento de cada uno de los modelos independientes. La idea central es entrenar iterativamente modelos y hacer que los nuevos se centren en los errores cometidos por los anteriores, lo que permite mejorar de forma continua el rendimiento del modelo final.

El algoritmo XGBoost utiliza árboles de decisión como modelos base. Un árbol de decisión es una estructura de datos en forma de árbol donde cada nodo interno representa una característica (o atributo), cada rama representa una decisión basada en esa característica, y cada nodo hoja representa un resultado (como una clase en clasificación o un valor numérico en regresión).

En XGBoost, los árboles de decisión se construyen de manera secuencial, y cada árbol se afina a los errores del modelo anterior. Lo que se consigue mediante el cálculo de gradientes. Incluyendo en el proceso técnicas de optimización para minimizar una función de pérdida específica.

Nuevo conversor de timestamp Unix en el laboratorio de Analytics Lane
En Analytics Lane
Nuevo conversor de timestamp Unix en el laboratorio de Analytics Lane

Una de las características distintivas de XGBoost es su capacidad para manejar la falta de datos de manera eficiente. Un problema en muchos conjuntos de datos. También utiliza regularización para prevenir el sobreajuste y mejorar la generalización del modelo.

El proceso de entrenamiento de XGBoost se puede resumir en los siguientes pasos:

  1. Inicialización del modelo con un árbol de decisión básico.
  2. Cálculo de los gradientes de la función de pérdida.
  3. Construcción de un nuevo árbol de decisión para ajustar los errores residuales.
  4. Actualización del modelo con el nuevo árbol.
  5. Repetición de los pasos 2-4 hasta que se cumpla un cierto criterio de detención (como el número máximo de árboles o la convergencia del modelo).

Este proceso de construcción secuencial de árboles y ajuste de los errores residuales conduce a un modelo final que es una combinación ponderada de múltiples árboles, lo que mejora la capacidad predictiva y la generalización del modelo.

Instalación en Python

La instalación de XGBoost en Python, como suele ser habitual, se puede realizar fácilmente mediante el uso del comando de terminal pip. Para lo que solamente se debe ejecutar la línea

pip install xgboost

En el caso de trabajar con una distribución basada en Conda, también se puede instalar mediante el siguiente comando.

conda install -c conda-forge xgboost

Publicidad


Ejemplo práctico de uso de XGBoost en Python

Para comprobar cómo funciona XGBoost en la práctica se puede usar el conjunto de datos de Titanic que se puede importar desde la biblioteca Seaborn. Un conjunto de datos clásico que contiene información de los pasajeros del Titanic y su supervivencia. También es un conjunto de datos en el que existen muchos registros con datos nulos, lo que suele complicar el entrenamiento de los modelos.

En el siguiente código se carga el conjunto de datos, se seleccionan algunas variables y se entrena un modelo con XGBoost para predecir la supervivencia o no de los pasajeros.

import pandas as pd
import seaborn as sns
import xgboost as xgb
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score

# Cargar el conjunto de datos de Titanic
titanic = sns.load_dataset("titanic")

# Preprocesamiento de datos: seleccionar características relevantes y manejar valores nulos
features = ['pclass', 'sex', 'age', 'sibsp', 'parch', 'fare']
target = 'survived'

titanic = titanic[features + [target]].dropna()

# Convertir variables categóricas a numéricas
titanic['sex'] = titanic['sex'].map({'male': 0, 'female': 1})

# Dividir el conjunto de datos en conjuntos de entrenamiento y prueba
X_train, X_test, y_train, y_test = train_test_split(titanic[features], titanic[target], test_size=0.2, random_state=42)

# Entrenar el modelo XGBoost
model = xgb.XGBClassifier()
model.fit(X_train, y_train)

# Realizar predicciones en el conjunto de prueba
predictions = model.predict(X_test)

# Calcular la precisión del modelo
accuracy = accuracy_score(y_test, predictions)
print("Precisión de XGBoost:", accuracy)
Precisión de XGBoost: 0.7972027972027972

La precisión del modelo es bastante buena, en el conjunto de test esta supera el 79%

Comparación de rendimiento de XGBoost con una regresión logística

Una vez visto el resultado surge la duda de saber cuán bueno es en comparación con un modelo clásico como una regresión logística. Para ello se puede ejecutar el siguiente código y comprobar como la regresión logística ofrece un rendimiento peor que el modelo basado en XGBoost.

# Código para comparar la precisión de XGBoost con una regresión logística
from sklearn.linear_model import LogisticRegression

# Entrenar modelos
logistic_model = LogisticRegression()
logistic_model.fit(X_train, y_train)

# Realizar predicciones
logistic_predictions = logistic_model.predict(X_test)

# Calcular precisión
logistic_accuracy = accuracy_score(y_test, logistic_predictions)

print("Precisión de Regresión Logística:", logistic_accuracy)
Precisión de Regresión Logística: 0.7482517482517482

Para este problema, la precisión de la regresión logística es de 74%, unos cinco puntos menos que el modelo basado en XGBoost.

Conclusiones

XGBoost es una técnica de Ensemble Learning, como Catboost, que se debe incluir en el arsenal de cualquier científico de datos. Frente a los modelos clásicos ofrece una mayor capacidad de predicción y un mejor comportamiento cuando existen datos nulos.

Imagen de Amrulqays Maarof en Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicidad


Publicaciones relacionadas

  • Nuevo conversor de timestamp Unix en el laboratorio de Analytics Lane
  • Lanzamiento de la versión 1.0 del laboratorio de Analytics Lane con nuevas herramientas de scoring
  • ¡Analytics Lane cumple ocho años!
  • Analytics Lane lanza una Calculadora de Rentabilidad con Flujos Irregulares basada en TIR (XIRR)
  • Analytics Lane lanza un Conversor CSV ↔ JSON para transformar datos en tiempo real
  • Analytics Lane lanza un nuevo Formateador y Tester de Expresiones Regulares para desarrolladores
  • Analytics Lane lanza su Visualizador de Series Temporales: entiende tendencia, estacionalidad y ruido de forma visual e interactiva
  • Analytics Lane lanza su Conversor de Bases Numéricas: entiende cómo trabajan los ordenadores a nivel de bits
  • Analytics Lane lanza su Conversor TIN ↔ TAE: la herramienta definitiva para entender el coste real de depósitos, préstamos e hipotecas

Publicado en: Ciencia de datos Etiquetado como: Machine learning

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Noticias

Lanzamiento de la versión 1.0 del laboratorio de Analytics Lane con nuevas herramientas de scoring

mayo 2, 2026 Por Daniel Rodríguez

Analytics Lane

¡Analytics Lane cumple ocho años!

mayo 2, 2026 Por Daniel Rodríguez

Analytics Lane lanza una Calculadora de Rentabilidad con Flujos Irregulares basada en TIR (XIRR)

mayo 1, 2026 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Método del codo (Elbow method) para seleccionar el número óptimo de clústeres en K-means publicado el junio 9, 2023 | en Ciencia de datos
  • Cómo ejecutar JavaScript desde Python: Guía práctica con js2py publicado el octubre 30, 2025 | en JavaScript, Python
  • Web del proyecto HeidiSQL HeidiSQL: administrador de base de datos publicado el diciembre 20, 2019 | en Herramientas
  • Cómo Interpretar las Métricas de Fondos de Inversión y ETFs: Guía Completa para Tomar Decisiones Informadas publicado el noviembre 25, 2025 | en Ciencia de datos
  • Truco: Forzar el recolector de basura en Node publicado el mayo 4, 2022 | en JavaScript

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.9 (11)

Pandas: Cambiar los tipos de datos en los DataFrames

Comentarios recientes

  • M. Pilar en Cómo eliminar las noticias en Windows 11 y recuperar tu concentración
  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2026 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto