• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • Python
  • Pandas
  • NumPy
  • Matlab
  • Julia
  • JavaScript
  • Excel

Interpretación de las predicciones de los árboles de regresión y Random Forest

febrero 17, 2023 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 3 minutos

Una de las ventajas de usar árboles de regresión es su interpretabilidad. Cuando se crea un modelo a partir de un árbol de regresión no solamente se puede obtener una predicción para cada uno de los registros, sino que también es posible saber cuánto afecta cada una de las características usadas al resultado final. Aunque esto no se puede hacer directamente en Scikit-learn. Afortunadamente existe un paquete que facilita esta tarea, permitiendo obtener la interpretación de las predicciones de los árboles de regresión. El cual también se puede aplicar a los modelos de Random Forest

Instalación del paquete treeinterpreter

El paquete con el que se puede obtener una interpretación de las predicciones de los árboles de regresión se llama treeinterpreter. Como es habitual en Python, este se puede instalar a través de pip escribieron en la terminal el comando

pip install treeinterpreter

En el caso de trabajar con Conda también se puede instalar el paquete ejecutando en la terminal el siguiente comando

conda install -c conda-forge treeinterpreter

Una vez hecho esto el paquete quedará instalado en el ordenador.

Creación de un modelo con árboles de regresión

Ahora se puede crear un modelo para predecir el valor de la vivienda en California, para lo que se puede emplear el conjunto de datos que se incluye en Scikit-learn. Tras separar los datos en un conjunto de entrenamiento y otro de prueba se puede entrenar con estos un árbol de regresión. Lo que se puede hacer con el siguiente código.

Publicidad


from sklearn.datasets import fetch_california_housing
from sklearn.tree import DecisionTreeRegressor
from sklearn.model_selection import train_test_split

california = fetch_california_housing()
x_train, x_test, y_train, y_test = train_test_split(california.data, california.target, random_state=0)
dt = DecisionTreeRegressor().fit(x_train, y_train)

# Predicción de los cinco primeros elementos de conjunto de prueba
dt.predict(x_test[0:5])
[1.246   2.518   1.308   0.708   5.00001]

Al final del código anterior se ha realizado una predicción del precio de la vivienda, expresado en cientos de miles de dólares, para los 5 primeros registros del conjunto de datos. Pero con el método predict() solamente se puede obtener el valor final, no lo que aporta cada una de las características. Problema que se puede solucionar con treeinterpreter.

Interpretación de las predicciones de los árboles de regresión

Una vez creado el modelo se puede importar treeinterpreter del paquete del mismo nombre y usar esta función para obtener la predicción, el bis, y las contribuciones de cada una de las características. Pudiendo crear un DataFrame con los resultados para verlos con mayor facilidad.

import pandas as pd
import numpy as np
from treeinterpreter import treeinterpreter as ti

prediction, bias, contributions = ti.predict(dt, x_test)

df = pd.DataFrame(np.column_stack((contributions, bias)),
                  columns=np.concatenate((california.feature_names, ['bias'])))
df.head()
     MedInc  HouseAge  AveRooms  AveBedrms  Population  AveOccup  Latitude  Longitude      bias  
0  0.062276 -0.110023 -0.044517  -0.095700    0.016388 -0.468421  0.091065  -0.287439  2.074373  
1  0.866956 -0.119359  0.000000  -0.184666   -0.120806 -0.130550  0.119658  -0.055606  2.074373  
2  0.170822 -0.112624 -0.121526   0.000000    0.017198 -0.346995 -0.468915   0.095667  2.074373  
3 -0.523670 -0.131000 -0.191098   0.053625    0.000000 -0.063267  0.415634  -0.926596  2.074373  
4  0.393451  0.309513  0.000000  -0.131560    0.000000  1.596019  0.758214   0.000000  2.074373

En este DataFrame cada una de las filas indica lo que aporta cada una de las variables al resultado final. Al incluir el bias es posible comprobar que la suma de las filas da el resultado final.

df.head().sum(axis=1)
[1.246   2.518   1.308   0.708   5.00001]

Lo que nos dice esta tabla es que para el primer registro la característica MedInc (ingreso medio en el bloque) aporta 0,0622 al resultado, mientras que (edad media de las casas en el bloque) reduce el valor en 0,0922. De este modo se puede saber cuáles son las características que aporta valor y cuáles restan en cada uno de los registros.

Interpretación de las predicciones de Random Forest

La función también se puede aplicar a modelos basados en Random Forest, al igual que el resto de los modelos basados en árboles de decisión que existen en Scikit-learn. Para ello solamente se tiene que cambiar la clase con la que se crea el modelo.

Publicidad


from sklearn.ensemble import RandomForestRegressor

rf = RandomForestRegressor().fit(x_train, y_train)

prediction, bias, contributions = ti.predict(rf, x_test)

df = pd.DataFrame(np.column_stack((contributions, bias)),
                  columns=np.concatenate((california.feature_names, ['bias'])))
df.head()

Conclusiones

En esta entrada se ha visto un paquete con el cual se pueden interpretar las predicciones de los modelos basados en árboles. Por lo que, además de las predicciones, se obtiene información útil para comprender los resultados. Con lo que se puede actuar sobre los registros para obtener mejores resultados.

Image by Valentin from Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • Representar los criterios de selección en árboles de decisión
    Representar los criterios de selección en árboles de…
  • Análisis de sentimientos en español con spaCy en Python
    Análisis de sentimientos en español con spaCy en Python
  • Fijar la semilla de números aleatorios en Python
    Fijar la semilla de números aleatorios en Python
  • Los tipos de aprendizaje por conjuntos (Ensemble Learning)
    Los tipos de aprendizaje por conjuntos (Ensemble Learning)
  • Implementar modelos de aprendizaje automático con ChatGPT
    Implementar modelos de aprendizaje automático con ChatGPT
  • Modelos de aprendizaje automático con ChatGPT en español
    Modelos de aprendizaje automático con ChatGPT en español

Publicado en: Ciencia de datos, Python Etiquetado como: Aprendizaje supervisado, Machine learning, Scikit-Learn

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Publicidad




Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Facebook
  • GitHub
  • Instagram
  • Pinterest
  • RSS
  • Twitter
  • Tumblr
  • YouTube

Publicidad

Entradas recientes

El método de Hare-Niemeyer y su implementación en Python

septiembre 29, 2023 Por Daniel Rodríguez

Redimensionar una partición de disco LVM con espacio no asignado en Linux

septiembre 27, 2023 Por Daniel Rodríguez

¿Cómo saber la versión de Pandas o cualquier otra librería en Python?

septiembre 25, 2023 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas publicado el mayo 10, 2019 | en Python
  • ¿Cómo eliminar columnas y filas en un dataframe pandas? publicado el marzo 25, 2019 | en Python
  • pandas Pandas: Cómo crear un DataFrame vacío y agregar datos publicado el noviembre 16, 2020 | en Python
  • Sistema de ecuaciones Sistemas de ecuaciones lineales con numpy publicado el octubre 29, 2018 | en Python
  • Seleccionar filas y columnas en Pandas con iloc y loc publicado el junio 21, 2019 | en Python

Publicidad

Lo mejor valorado

4.9 (22)

Seleccionar filas y columnas en Pandas con iloc y loc

4.7 (12)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.6 (15)

Archivos JSON con Python: lectura y escritura

4.5 (10)

Diferencias entre var y let en JavaScript

4.3 (12)

Ordenación de diccionarios en Python mediante clave o valor

Publicidad

Comentarios recientes

  • Daniel Rodríguez en ¿Cómo eliminar columnas y filas en un dataframe pandas?
  • Miguel en ¿Cómo eliminar columnas y filas en un dataframe pandas?
  • alberto en Resolver problema de credenciales en Bitbucket
  • Pablo en Aplicar el método D’Hondt en Excel
  • Agapito en Creación de un EXE desde un archivo Python en Windows

Publicidad

Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2023 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto