• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Encuestas: Tamaño de Muestra
    • Lotería: Probabilidad de Ganar
    • Reparto de Escaños (D’Hondt)
    • Tres en Raya con IA
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • Excel
  • Matlab

Random Forest

mayo 20, 2019 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 3 minutos

El algoritmo de Random Forest (también conocido como Bosques Aleatorios) es ampliamente utilizado para la creación de modelos supervisados. Basado en una idea simple: combinar diferentes árboles de decisión. Permite obtener modelos con menor propensión al sobreajuste que un árbol de decisión.

El fundamento de Random Forest

Random Forest es básicamente un algoritmo de bagging en el que se combinan diferentes árboles de decisión. Los cuales se obtienen tras un proceso de entrenamiento en el que se utiliza una muestra aleatoria diferente para cada uno de ellos. Obteniendo así una predicción diferente en cada uno de los árboles. La predicción final se obtiene mediante votación, seleccionado aquella opción que es reportada por una mayor cantidad de árboles. Esto permite obtener un modelo con una menor varianza.

Publicidad


¿En qué consiste la aleatoriedad de los conjuntos de datos?

A la hora de seleccionar los conjuntos de datos utilizados para el entrenamiento de cada uno de los árboles existen dos niveles de aleatoriedad.

  • A nivel de registro: cada uno de los árboles de decisión utiliza una muestra aleatoria de los registros disponibles del conjunto de datos de entrenamiento. Es decir, cada uno de los árboles utiliza solamente un porcentaje de registros totales.
  • A nivel de características: de manera análoga a los registros cada uno de los árboles se entrenará solamente con un subconjunto de las características disponibles. Es decir, las características que son empleadas en cada modelo son diferentes y aleatorias.

Por qué utilizar el algoritmo de Random Forest

Las principales ventajas de estos modelos frente a otras familias son:

Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
En Analytics Lane
Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo

  • Reduce la varianza. Debido a la utilización de múltiples árboles de decisión la varianza de la predicción disminuye respecto a un solo árbol de decisión. Lo que reduce la posibilidad de obtener un modelo sobreajustado. Aún así el sesgo del modelo es el mismo que se obtiene con un solo árbol de decisión.
  • No requiere la asunción de suposiciones. Cuando solamente se quiere un modelo para realizar predicciones Random Forest es una solución excelente. Esto es así porque no es necesario realizar suposiciones sobre el modelo o los conjuntos de datos.

Publicidad


En qué situaciones no es adecuado utilizar Random Forest

Los algoritmos de Random Forest no son la mejor selección en todos los casos. Existen situaciones en las que su utilización puede ser contraproducente. Por ejemplo, se pueden enumerar las siguientes:

  • En conjuntos de datos pequeños. Random Forest no produce buenos modelos cuando los conjuntos de datos son pequeños. La necesidad de tener que dividir el conjunto de datos en submuestras hace que no se puedan obtener buenas predicciones. Ya que cada árbol no contará con datos suficientes para su entrenamiento.
  • En el caso de que se deseen interpretar los resultados. En los modelos construidos mediante Random Forest es difícil explicar la relación entra las diferentes características y la predicción final. Los modelos Random Forest no se pueden visualizar los árboles de decisión. Por lo que si se desea explicar los motivos por lo que se obtiene una predicción es mejor utilizar modelos como la regresión logística o los árboles de decisión. Nótese que Random Forest produce modelos predictivos no descriptivos.
  • El coste de entrenar puede ser alto. El coste computacional de entrenar un modelo de Random Forest aumenta a medida que se incrementa el número de árboles.

Conclusiones

En la entrada se han explicado los fundamentos de un algoritmo para la creación de modelos supervisados ampliamente utilizado. Random Forest es permite obtener de una manera fácil y sin la necesidad de realizar suposiciones sobre el conjunto de datos modelos con una alta capacidad predictiva. En su contra se encuentra que no ofrecen la misma capacidad explicativa que lo los árboles de decisión.

Imágenes: Pixabay (Johannes Plenio)

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 5 / 5. Votos emitidos: 1

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicidad


Publicaciones relacionadas

  • Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
  • ¿Está concentrado el MSCI World? Un análisis con Gini, Lorenz y leyes de potencia
  • Curiosidad: ¿Por qué usamos p < 0.05? Un umbral que cambió la historia de la ciencia
  • Programador de tareas de Windows: Guía definitiva para automatizar tu trabajo (BAT, PowerShell y Python)
  • La Paradoja del Cumpleaños, o por qué no es tan raro compartir fecha de nacimiento
  • Cómo abrir una ventana de Chrome con tamaño y posición específicos desde la línea de comandos en Windows
  • Curiosidad: El sesgo de supervivencia, o por qué prestar atención sólo a los que “llegaron” puede engañarte
  • Documentar tu API de Express con TypeScript usando OpenAPI (Swagger)
  • Data Lake y Data Warehouse: diferencias, usos y cómo se complementan en la era del dato

Publicado en: Ciencia de datos Etiquetado como: Machine learning

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Data Lake y Data Warehouse: diferencias, usos y cómo se complementan en la era del dato

octubre 23, 2025 Por Daniel Rodríguez

Documentar tu API de Express con TypeScript usando OpenAPI (Swagger)

octubre 21, 2025 Por Daniel Rodríguez

Curiosidad: El sesgo de supervivencia, o por qué prestar atención sólo a los que “llegaron” puede engañarte

octubre 16, 2025 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Aplicación web interactiva que muestra un mapa de Madrid con puntos de interés destacados, creado utilizando la biblioteca Folium. Tutorial: Creando un mapa interactivo con Folium en Python publicado el diciembre 13, 2024 | en Python
  • Cómo calcular el tamaño de la muestra para encuestas publicado el septiembre 9, 2025 | en Ciencia de datos
  • Entendiendo la validación cruzada: Selección de la profundidad óptima en un árbol de decisión publicado el septiembre 13, 2024 | en Ciencia de datos
  • Concatenar listas en Python publicado el agosto 19, 2019 | en Python
  • Hoja de cálculo para repartir los escaños en base al método D’Hont Aplicar el método D’Hondt en Excel publicado el abril 14, 2021 | en Herramientas

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.5 (10)

Diferencias entre var y let en JavaScript

Publicidad

Comentarios recientes

  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown
  • Daniel Rodríguez en Tutorial de Mypy para Principiantes

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2025 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto