• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Encuestas: Tamaño de Muestra
    • Lotería: Probabilidad de Ganar
    • Reparto de Escaños (D’Hondt)
    • Tres en Raya con IA
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • R
  • Excel

Imputación de valores nulos en Python

marzo 22, 2021 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 4 minutos

Uno de los problemas más habituales con el que podemos encontrarnos a la hora de trabajar con un conjunto de datos es la existencia de registros con valores nulos. Pudiendo ser necesario imputar un valor a estos registros para poder usarlos en un posterior análisis. Por eso en Scikit-learn existen varias clases con las que se puede realizar la imputación de valores nulos en Python. Clases que utilizan estadísticos básicos como la media, la mediana o la moda y otras que basadas en algoritmos más avanzados como pueden ser los k-vecinos.

Conjunto de datos con valores nulos

Antes de realizar la imputación de datos es necesario crear un conjunto de datos al que le falte valores. Algo que se puede hacer con el siguiente ejemplo.

import numpy as np
import pandas as pd

data = pd.DataFrame({'id': [1, 2, 3, 4, 5, 6, 7, 8, 9],
                     'area': [1, 2, 3, 1, 2, 3, 1, 2, 3],
                     'age': [32, 30, np.nan, 23, 27, 44, 67, 23, np.nan],
                     'amount': [102, 121, 343, np.nan, 121, np.nan, 155, 149, 221]})
   id  area   age  amount
0   1     1  32.0   102.0
1   2     2  30.0   121.0
2   3     3   NaN   343.0
3   4     1  23.0     NaN
4   5     2  27.0   121.0
5   6     3  44.0     NaN
6   7     1  67.0   155.0
7   8     2  23.0   149.0
8   9     3   NaN   221.0

En este conjunto de datos hay cuatro columnas y en dos de ellas (age y amount) faltan registros. Registros que tienen un valor NaN. Nótese que solamente se han utilizado valores numéricos, esto es porque las clases de imputación no pueden trabajar con cadenas de texto.

Faker en Python: qué es, para qué sirve y cómo generar datos sintéticos realistas
En Analytics Lane
Faker en Python: qué es, para qué sirve y cómo generar datos sintéticos realistas

Publicidad


Imputación básica en base a estadísticos

La clase más sencilla para realizar la imputación de valores nulos es SimpleImputer.Una clase con la que se puede imputar un mismo valor a todos los registros nulos de una columna. Valor que puede ser tanto un estadístico como la media, la mediana o la moda, como un valor constante que se indique. El método de cálculo se indica con la propiedad strategy que puede recibir como valor: mean, median, most_frequent o constant. En el caso de que el valor sea constant es necesario indicar mediante la propiedad fill_value.

Así se puede imputar por ejemplo los valores nulos en el conjunto de datos anterior utilizado el siguiente código.

from sklearn.impute import SimpleImputer

simple = SimpleImputer().fit(data)
mean = simple.transform(data)
    id  area        age      amount
0  1.0   1.0  32.000000  102.000000
1  2.0   2.0  30.000000  121.000000
2  3.0   3.0  35.142857  343.000000
3  4.0   1.0  23.000000  173.142857
4  5.0   2.0  27.000000  121.000000
5  6.0   3.0  44.000000  173.142857
6  7.0   1.0  67.000000  155.000000
7  8.0   2.0  23.000000  149.000000
8  9.0   3.0  35.142857  221.000000

Al no indicar ninguna propiedad, SimpleImputer utiliza la media para imputar los valores. Por lo que el valor empleado en la columna age es 35.14 y en la columna amount es 173.14.

Seleccionando la moda para imputar valores

En el caso de que queramos que el valor sea entero, como en el resto de los registros, una alternativa es usar la moda. Lo que se muestra en el siguiente ejemplo asignando a la propiedad strategy el valor most_frequent.

simple = SimpleImputer(strategy='most_frequent')
mode = simple.fit_transform(data)
    id  area   age  amount
0  1.0   1.0  32.0   102.0
1  2.0   2.0  30.0   121.0
2  3.0   3.0  23.0   343.0
3  4.0   1.0  23.0   121.0
4  5.0   2.0  27.0   121.0
5  6.0   3.0  44.0   121.0
6  7.0   1.0  67.0   155.0
7  8.0   2.0  23.0   149.0
8  9.0   3.0  23.0   221.0

Ahora el valor usado en la columna age es 23, mientras que para amount es 121.

Publicidad


Uso de k-vecinos para la imputación de valores nulos

El uso de un valor constante a la hora de realizar la imputación de valores nulos es una buena opción en muchas ocasiones. Pero en otras puede ser un problema ya que puede existir una gran variabilidad en los datos. Por eso se puede usar en su lugar un método como el de k-vecinos con el que se puede identificar los registros más similares al que presenta los valores nulos y asignarle la media de sus vecinos. Lo que posiblemente produzca un valor más parecido al real.

La clase que implementa este método es KNNImputer. A continuación, podemos ver que pasaría si asignamos a cada registro con un valor nulo el valor de su vecino más cercano. Lo que se puede conseguir indicando mediante la propiedad n_neighbors de la clase que solamente tenga en cuenta un vecino. Lo que se muestra en el siguiente ejemplo.

from sklearn.impute import KNNImputer

knn = KNNImputer(n_neighbors=1)
neighbors = knn.fit_transform(data)
    id  area   age  amount
0  1.0   1.0  32.0   102.0
1  2.0   2.0  30.0   121.0
2  3.0   3.0  23.0   343.0
3  4.0   1.0  23.0   343.0
4  5.0   2.0  27.0   121.0
5  6.0   3.0  44.0   343.0
6  7.0   1.0  67.0   155.0
7  8.0   2.0  23.0   149.0
8  9.0   3.0  44.0   221.0

Obviamente se puede aumentar el número de vecinos para obtener una mejor estimación de los valores.

knn = KNNImputer(n_neighbors=5)
neighbors = knn.fit_transform(data)
    id  area   age  amount
0  1.0   1.0  32.0   102.0
1  2.0   2.0  30.0   121.0
2  3.0   3.0  37.4   343.0
3  4.0   1.0  23.0   191.0
4  5.0   2.0  27.0   121.0
5  6.0   3.0  44.0   181.6
6  7.0   1.0  67.0   155.0
7  8.0   2.0  23.0   149.0
8  9.0   3.0  36.8   221.0

Conclusiones

En esta ocasión se han visto dos herramientas para la transformación de datos con los que se puede realizar la imputación de valores nulos en Python. Herramientas que podemos encontrar en Scikit-learn. Estas herramientas, a pesar de su sencillez, son de gran utilidad cuando tenemos que trabajar con conjuntos de datos que contiene valores nulos y no se pueden usar así para los análisis que necesitamos realizar.

Image by Gerd Altmann from Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 2 / 5. Votos emitidos: 2

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicidad


Publicaciones relacionadas

  • Faker en Python: qué es, para qué sirve y cómo generar datos sintéticos realistas
  • Probabilidades y tests: por qué un resultado positivo no significa lo que crees
  • JSON en bases de datos: cuándo es buena idea y cuándo no
  • Roles en ciencia de datos: Guía completa de perfiles técnicos
  • Exactitud, precisión, recall… qué mide realmente cada métrica (y qué no)
  • Hardening de SSH en Rocky Linux 9: cómo desactivar KEX débiles y reforzar la seguridad
  • Nueva herramienta en Analytics Lane: generador de contraseñas seguras y frases de contraseña
  • Hardening de NGINX en 2026: configuración segura básica paso a paso

Publicado en: Python Etiquetado como: Scikit-Learn

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Hardening de NGINX en 2026: configuración segura básica paso a paso

marzo 12, 2026 Por Daniel Rodríguez

Nueva herramienta en Analytics Lane: generador de contraseñas seguras y frases de contraseña

marzo 10, 2026 Por Daniel Rodríguez

Hardening de SSH en Rocky Linux 9: cómo desactivar KEX débiles y reforzar la seguridad

marzo 5, 2026 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Diferencias entre CPU, GPU, TPU y NPU publicado el abril 19, 2023 | en Herramientas
  • Histograma generado para el conjunto de datos con la selección automática del número de bins Seleccionar el número de bins en un histograma publicado el mayo 26, 2023 | en Ciencia de datos
  • Poe: ChatGPT y otros modelos generativos en el móvil publicado el abril 12, 2023 | en Herramientas
  • pandas Pandas: Contar los valores nulos en DataFrame publicado el agosto 12, 2021 | en Python
  • Rocketbook: Libretas reutilizables, elegantes y sostenibles publicado el enero 26, 2024 | en Reseñas

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.5 (10)

Diferencias entre var y let en JavaScript

Publicidad

Comentarios recientes

  • M. Pilar en Cómo eliminar las noticias en Windows 11 y recuperar tu concentración
  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2026 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto