• Ir al contenido principal
  • Skip to secondary menu
  • Ir a la barra lateral primaria
  • Ir al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Noticias
    • Opinión
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Boletín
  • Contacto
  • Acerca de Analytics Lane
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • GearBest
      • GeekBuying
      • JoyBuy

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Criptografía
  • Python
  • Matlab
  • R
  • Julia
  • JavaScript
  • Herramientas
  • Opinión
  • Noticias

El problema de desequilibrio de clases en conjuntos de datos de entrenamiento

julio 4, 2018 Por Daniel Rodríguez Dejar un comentario

Modelos de datos

Al enfrentarse a la situación de crear un modelo de clasificación es habitual que las clases no se encuentran balanceadas. Esto es, el número de registros para una de las clases es inferior al resto. Cuando el desequilibrio es pequeño, uno a dos, esto no supone un problema, pero cuando es grande es un problema para la mayoría de los modelos de clasificación. Esta situación se conoce como el Problema del Desequilibrio de Clases (Class Imbalance Problem).

Por ejemplo, en los problemas de fraude la situación más habitual es encontrar un caso positivo por cientos o miles negativos. En estos conjuntos de datos es normal esperar una reducción del rendimiento de los clasificadores. Siendo esta mayor cuanto mayor sea el desequilibrio existente en los datos.

¿Por qué es difícil aprender en dominios no balanceados?

El motivo por el que los clasificadores no función bien con conjunto de datos desbalanceados se debe a diferentes casusas, entre las que se pueden destacar:

  • Existencia de subclases poco representadas (Small Disjuncts): las subclases poco representadas en los conjuntos de datos pueden ser confundidas con ruido o datos atípico. Provocando que el clasificador ignore estos registros.
  • Falta de densidad en los datos de entrenamiento (Lack of density): al no disponer de una densidad suficiente en los datos los algoritmos pueden no ser capaces de llevar a cabo una generalización. Al no encontrar una zona en el espacio de atributos con suficiente densidad como para inducir un patrón.
  • Solape entre clases (Class Separability Problem): puede aparecer un solape entre las clases en las zonas fronterizas. Dando lugar a que ambas clases tenga una representación similar en estos tramos. Esto hace que sea imposible separar ambas. En los conjuntos de datos desbalanceados la subrepresentación de una clase hace que la dominante prevalezca. Provocando que aparezcan errores de falso negativo para los registros minoritarios.
  • Confusión con ruido (Noisy data): los registros atípicos toman especial importancia en los conjuntos de datos no balanceados. Esto es debido a dificultad para poder discriminarlos frente a los sobrerrepresentados.
  • Separación del conjunto de datos (Dataset shift): este problema apara cuando las instancias de entrenamiento y test siguen una distribución de probabilidad diferente. Por lo que aparece una reducción del rendimiento del clasificador en el conjunto de test. Este problema se puede solucionar con una estrategia bien diseñada de validación. Pero en los conjuntos desbalanceados la poca representación de la clase minoritaria hace que los resultados sean especialmente sensibles.

Soluciones al problema

Existen tres estrategias principales para trabajar con conjuntos de datos desbalanceados, estos son

  • Remuestreo: es la estrategia más directa, simplemente se modifica la distribución de las clases en el conjunto de entrenamiento. Existiendo dos aproximaciones diferentes: sobremuestreo y submuestreo. El sobremuestreo consiste en aumentar la presencia de la clase minoritaria. Por el otro lado, el submuestreo consiste en reducir la presencia de la clase mayoritaria.
  • Ensemble: se basan en la construcción de distintas hipótesis sobre el mismo conjunto de datos. Ya se mediante la utilización de subconjuntos de entrenamiento o una penalización sucesiva que corrija los errores de clasficación.
  • Técnicas híbridas: estas son una combinación de las técnicas anteriores.

Remuestreo aleatorio

Las estrategias de remuestreo más fáciles de implementar son las aleatorias. Tanto sea el sobremuestreo aleatorio (Random Over-Sampling, ROS) o el submuestreo aleatorio (Random Under-Sampling, RUS).

El ROS se basa en la duplicación de un subconjunto aleatorio de los registros de la clase minoritaria seleccionados dentro del conjunto original. Esta técnica permite que el número total de registros de la case minoritaria aumente. Ajustándose de este modo la distribución de las clases en el conjunto de entrenamiento.

Por otro lado, el RUS se basa en la eliminación aleatoria de un subconjunto de datos de clase mayoritaria hasta que la ratio se aproxime a la deseada. Modificando la distribución de las clases. Obteniendo un conjunto de menor tamaños que el original.

Problemas asociados al remuestreo aleatorio

La principal desventaja de RUS es la pérdida de patrones en los conjuntos de entrenamiento. Debido a que no se tiene control sobre la información de la clase mayoritaria que se descartar. Pudiéndose eliminar información relevante para los modelos.

ROS, por otro lado, no tiene la desventaja de eliminar registros y, por lo tanto, patrones existentes en los datos. Pero al duplicar información puede facilitar la aparición de soberajuste.

Submuestreo informado

Cómo se ha indicado anteriormente el remuestreo aleatorio presenta problemas. Por un lado, las RUS elimina información de los conjuntos de datos. Por otro lado, ROS puede producir sobreajuste al duplicar información. Para solucionar estos problemas se pueden utilizar técnicas de submuestreo informado. Las cuales proponen distintas aproximaciones para seleccionar los registros a eliminar. Algunas de las técnicas disponibles son:

  • NearMiss
  • One-Sided Selection (OSS)
  • Cluster Centroids (ClC)

Conclusiones

En esta entrada se han presentados los problemas que aparecen en los subconjuntos de datos en los que existe un desequilibrio de las clases. Las técnicas más básicas que se pueden aplicar son el remuestreo aleatorio, que puede llevar a la aparición de diferentes problemas.

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 5 / 5. Votos emitidos: 1

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Contenido relacionado

Archivado en:Ciencia de datos Etiquetado con:Machine learning

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Publicidad


Barra lateral primaria

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

¡Síguenos en redes sociales!

  • facebook
  • instagram
  • pinterest
  • tumblr
  • twitter
  • youtube
  • github
  • telegram
  • rss

Publicidad

Tiendas afiliadas

Ayúdanos realizando tus compras sin coste adicional con los enlaces de la tienda. ¡Gracias!

Entradas recientes

Epsilon-Greedy para el Bandido Multibrazo (Multi-Armed Bandit)

febrero 26, 2021 Por Daniel Rodríguez Dejar un comentario

Introducción al paquete dplyr del Tidyverse

febrero 24, 2021 Por Daniel Rodríguez Dejar un comentario

Combinar diagramas de caja e histogramas en Python con Seaborn

febrero 22, 2021 Por Daniel Rodríguez Dejar un comentario

Publicidad

Es tendencia

  • Seleccionar filas y columnas en Pandas con iloc y loc bajo Python
  • ¿Cómo eliminar columnas y filas en un dataframe pandas? bajo Python
  • Excel en Python Guardar y leer archivos Excel en Python bajo Python
  • Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas bajo Python
  • Unir y combinar dataframes con pandas en Python bajo Python

Publicidad

Lo mejor valorado

5 (3)

Ordenar una matriz en Matlab en base a una fila o columna

5 (3)

Automatizar el análisis de datos con Pandas-Profiling

5 (5)

Diferencias entre var y let en JavaScript

5 (6)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

5 (3)

Unir y combinar dataframes con pandas en Python

Publicidad

Comentarios recientes

  • Daniel Rodríguez en Guardar y leer archivos Excel en Python
  • franklin Chiluisa en Guardar y leer archivos Excel en Python
  • Miguel en Guardar y leer archivos CSV con Python
  • Daniel Rodríguez en Guardar diferentes hojas Excel con Python
  • Grevall en Guardar diferentes hojas Excel con Python

Publicidad

Footer

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Noticias
  • Opinión

Programación

  • JavaScript
  • Julia
  • Matlab
  • Python
  • R

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Lo más popular
  • Tienda

Tiendas Afiliadas

  • AliExpress
  • Amazon
  • BangGood
  • GearBest
  • Geekbuying
  • JoyBuy

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Tiendas afiliadas

Ayúdanos realizando tus compras sin coste adicional con los enlaces de la tienda. ¡Gracias!

Amazon

2018-2020 Analytics Lane · Términos y condiciones · Política de Cookies · Política de Privacidad · Herramientas de privacidad · Contacto