• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Encuestas: Tamaño de Muestra
    • Lotería: Probabilidad de Ganar
    • Reparto de Escaños (D’Hondt)
    • Tres en Raya con IA
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • R
  • Excel

Muestreo en Python

junio 15, 2020 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 4 minutos

Al trabajar con datos puede que sea necesario realizar una muestra de un conjunto de datos. Esto puede ser porque la totalidad de los datos disponibles sea inmanejable o porque exista un desequilibrio en las clases de los datos. En estos es necesario recurrir al muestreo de los datos. Algunas de las técnicas más utilizadas de muestreo en Python se muestran a continuación.

Tabla de contenidos

  • 1 Muestreo aleatorio
  • 2 Muestreo estratificado
  • 3 Undersampling
  • 4 Oversampling
  • 5 Paquete imbalanced-learn para muestreo Undersampling y Oversampling
    • 5.1 Undersampling con Tomek Links
    • 5.2 Oversampling con SMOTE
  • 6 Conclusiones

Muestreo aleatorio

El método de muestreo más básico es el muestreo aleatorio, en el que simplemente se selecciona un conjunto de subconjunto de los datos de forma aleatoria. A pesar de ello es uno de los métodos más utilizados debido a su simplicidad. Además de ser válido en la mayoría de los problemas.

Los DataFrames de Pandas incluyen el método sample que nos permite implementar el muestreo aleatorio en Python. Así para obtener n muestras aleatorias de un DataFrame solamente se tiene que escribir

sample_df = df.sample(n)

Al igual que la mayoría de método que usan el generador de números aleatorios se puede fijar la semilla mediante la propiedad random_state. Algo que debemos utilizar siempre que nuestros análisis necesiten ser reproducibles, es decir, obtengamos los mismos valores al repetir el ejercicio con los mismos conjuntos de datos.

Publicidad


Muestreo estratificado

Supongamos que en nuestro conjunto de datos tengamos algunas características o conjunto de características cuya proporción necesitamos que se mantenga en el conjunto muestreo. Por ejemplo, la proporción de hombres y mujeres. En este caso lo que necesitamos hacer es un muestreo estratificado.

Exactitud, precisión, recall… qué mide realmente cada métrica (y qué no)
En Analytics Lane
Exactitud, precisión, recall… qué mide realmente cada métrica (y qué no)

Pandas no incluye un método en sí para realizar un muestreo estratificado, pero se puede utilizar train_test_split de Scikit-learn para ontener este muestreo en Python. Este método tiene la propiedad stratify con la que se puede definir un conjunto de variables para estratificar. Así para obtener una muestra del 10% de un DataFrame solamente debemos escribir el comando

X_train, X_test, y_train, y_test = train_test_split(X, y, stratify=y, test_size=0.1)

En donde y es la variable sobre la que se desea estratificar

Undersampling

En muestras desbalanceadas, donde existen clases que contiene más registros que otros y es necesario balancear los registros es necesario usar un muestreo tipo “undersampling” u “oversampling” (el cual veremos en la próxima sección). Por ejemplo, un problema de predicción de fraude donde tenemos 1 caso de fraude por cada 1000 registros válidos. En el muestreo tipo “undersampling” se selecciona un subconjunto de la clase mayoritaria (en nuestro ejemplo los registros válidos) y todos los registros de la clase mayoritaria. Algo que se puede hacer fácilmente de forma aleatoria. Simplemente se tiene que separar las clases en dos DataFrames en base al valor y emplear el método sample como ya hemos visto y combinar en un nuevo DataFrame:

df_true = df[df['y'] == True]
df_fales = df[df['y'] == False]
df_sampe = pd.concat([df_true, df_false.sample(df_true.shape[0])])

Publicidad


Oversampling

Otro método que se pueden utilizar cuando las clases están desbalanceadas es “Oversampling”. En este caso en lugar de tomar una muestra de los datos mayoritarios se duplican los datos minoritarios hasta que se llegar a equilibrar.

Si los datos se van a utilizar en un problema de aprendizaje automático supervisado hay que prestar especial atención al riego se sobreajuste. Ya que el modelo se entrenaría con datos duplicados.

Paquete imbalanced-learn para muestreo Undersampling y Oversampling

Existen métodos más avanzados que el aleatorio para realizar tanto “undersampling” como “oversampling”. Métodos que se pueden contar en Python en el paquete imbalanced-learn. Un paquete que ya habiamos comentado anteriromente. El paquete contiene múltiples algoritmos, entre los que se puede destacar los siguientes.

Publicidad


Undersampling con Tomek Links

Uno de los métodos que proporciona el paquete imbalanced-learn se llama Tomek Links. En este, se utilizan pares de muestras de clases mayoritaria cercanas a los registros de la clase minoritaria. Así, se obtiene un conjunto de datos con el que se puede definir las fronteras de clasificación.

from imblearn.under_sampling import TomekLinks

tl = TomekLinks(return_indices=True, ratio='majority')
X_tl, y_tl, id_tl = tl.fit_sample(X, y)

Oversampling con SMOTE

En el método SMOTE (técnica de sobremuestreo de minorías sintéticas, del inglés Synthetic Minority Oversampling Technique) se crean sintéticamente elementos de la clase minoritaria cercanos a los ya existente. Es decir, se crean nuevos registros próximos a los ya existentes.

from imblearn.over_sampling import SMOTE

smote = SMOTE(ratio='minority')
X_sm, y_sm = smote.fit_sample(X, y)

Este método puede evitar los problemas de sobreajuste en aprendizaje supervisado ya que los nuevos datos no son iguales a los existentes. Aunque esto no deja se ser un problema ya que no son datos reales.

Publicidad


Conclusiones

En la entrada de hoy hemos visto diferentes técnicas para realizar muestreo en Python. Técnicas que son muy habituales ya que trabajar con la totalidad de los datos puede no ser lo adecuado. Tanto sea porque requiere demasiado recurso y tiempo para llevar a cabo el análisis o porque un desequilibrio en las clases hace que sea necesario equilibrar estas.

Imagen de Miguel Á. Padriñán en Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 5 / 5. Votos emitidos: 2

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • Exactitud, precisión, recall… qué mide realmente cada métrica (y qué no)
  • Hardening de SSH en Rocky Linux 9: cómo desactivar KEX débiles y reforzar la seguridad
  • Nueva herramienta en Analytics Lane: generador de contraseñas seguras y frases de contraseña
  • Hardening de NGINX en 2026: configuración segura básica paso a paso
  • ¿Qué métrica deberías mirar: exactitud, precisión o recall? Elegir bien empieza por entender el problema
  • Nueva calculadora DCA ajustada por inflación en el laboratorio de aplicaciones de Analytics Lane
  • Nuevo simulador FIRE en el laboratorio de aplicaciones de Analytics Lane
  • Nueva calculadora de préstamos e hipotecas en el laboratorio de aplicaciones de Analytics Lane
  • Hardening avanzado de NGINX: CSP, OCSP Stapling y defensa en profundidad

Publicado en: Ciencia de datos, Python Etiquetado como: Pandas

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Nueva simulación de la estrategia Martingala en ruleta en el laboratorio de aplicaciones de Analytics Lane

abril 1, 2026 Por Daniel Rodríguez

Nuevo generador y verificador de hashes en el laboratorio de aplicaciones de Analytics Lane

marzo 31, 2026 Por Daniel Rodríguez

Hardening avanzado de NGINX: CSP, OCSP Stapling y defensa en profundidad

marzo 26, 2026 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Buscar en Excel con dos o más criterios publicado el septiembre 7, 2022 | en Herramientas
  • ¿Qué es el margen de error en una encuesta y por qué es importante? publicado el mayo 30, 2025 | en Ciencia de datos, Opinión
  • Copiar y pegar Activar copiar y pegar en VirtualBox publicado el mayo 1, 2019 | en Herramientas
  • Método del codo (Elbow method) para seleccionar el número óptimo de clústeres en K-means publicado el junio 9, 2023 | en Ciencia de datos
  • Gráficos de barras en Matplotlib publicado el julio 5, 2022 | en Python

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.5 (10)

Diferencias entre var y let en JavaScript

Publicidad

Comentarios recientes

  • M. Pilar en Cómo eliminar las noticias en Windows 11 y recuperar tu concentración
  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2026 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto