• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Encuestas: Tamaño de Muestra
    • Lotería: Probabilidad de Ganar
    • Reparto de Escaños (D’Hondt)
    • Tres en Raya con IA
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • Excel
  • Matlab

Optimización de memoria en Pandas: Usar tipos de datos personalizados para manejar grandes conjuntos de datos

abril 28, 2025 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 3 minutos

pandas

El análisis de datos con Pandas es una tarea diaria para muchos usuarios, pero al trabajar con grandes conjuntos de datos, el consumo de memoria puede convertirse en un problema crítico. Esto sucede porque, de forma predeterminada, Pandas asigna tipos de datos generales, como float64 o int64, que pueden ocupar mucha más memoria de la estrictamente necesaria. Por ejemplo:

  • Una columna que contiene solo números enteros pequeños no necesita ser representada como int64.
  • Una columna categórica con unos pocos valores únicos no debería ser almacenada como object.

En un conjunto de datos pequeño, esto no es un problema para los equipos actuales, por lo que no es necesario optimizar. Pero, cuando los registros se cuentan por millones sí que es un problema y optimizar la memoria es algo necesario para reducir el consumo de memoria y mejorar el rendimiento, especialmente al cargar o manipular grandes conjuntos de datos.

En esta entrada, explicaremos cómo ajustar los tipos de datos en Pandas para optimizar el uso de memoria. Explicando cómo identificar el problemas, aplicar soluciones y evaluar las mejoras con ejemplos prácticos.

Tabla de contenidos

  • 1 Identificar el consumo de memoria inicial
  • 2 Ajustar tipos de datos para optimizar memoria
    • 2.1 Reducir enteros (int)
    • 2.2 Reducir coma flotante (float)
    • 2.3 Convertir columnas categóricas (object a category)
  • 3 Verificar el impacto en memoria
  • 4 Conclusiones

Identificar el consumo de memoria inicial

Antes de poder optimizar, es importante evaluar cuánto espacio ocupa un conjunto de datos en memoria. Esta información se puede obtener fácilmente mediante el método DataFrame.info(). Por ejemplo,

import pandas as pd
import numpy as np

# Crear un DataFrame ejemplo
data = {
    "id": np.random.randint(1, 6, 1000),
    "edad": np.random.randint(20, 55, 1000),
    "salario": np.round(np.random.uniform(1000, 10000, 1000), 2),
    "genero": np.random.choice(['H', 'M'], 1000)
}

df = pd.DataFrame(data)

# Ver información inicial del DataFrame
print(df.info())
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 1000 entries, 0 to 999
Data columns (total 4 columns):
# Column Non-Null Count Dtype
--- ------ -------------- -----
0 id 1000 non-null int64
1 edad 1000 non-null int64
2 salario 1000 non-null float64
3 genero 1000 non-null object
dtypes: float64(1), int64(2), object(1)
memory usage: 31.4+ KB

Al ejecutar, se puede ver que este pequeño conjunto de datos ocupa 31,4 KB (kilobytes) como se puede ver en la salida.

Curiosidad: El origen del análisis exploratorio de datos y el papel de John Tukey
En Analytics Lane
Curiosidad: El origen del análisis exploratorio de datos y el papel de John Tukey

Además, se puede observar que Pandas asignó int64, float64 y object como tipos de datos predeterminados, lo cual es completamente innecesario en este caso.

Publicidad


Ajustar tipos de datos para optimizar memoria

Una vez identificado el problema, se pueden ajustar los tipos de datos para reducir el tamaño del DataFrame.

Reducir enteros (int)

Si los valores de una columna entera son pequeños, puedes usar tipos como int8, int16 o int32 en lugar de int64. Pasando a usar 8, 16 o 32 bits respectivamente por registro en lugar de los 64 de int64. Esto se puede hacer simplemente cambiándooslo el tipo de dato.

df["id"] = df["id"].astype("int8")
df["edad"] = df["edad"].astype("int8")

Antes de seleccionar un tipo de datos, es necesario recordar que int8 soporta rangos entre -128 y 127, int16 rangos entre -32.768 y 32767 y int32 rangos entre -2.147.483.648 y 2.147.483.647.

Publicidad


Reducir coma flotante (float)

Para columnas de tipos en coma flotante, utiliza float32 en lugar de float64.

df["salario"] = df["salario"].astype("float32")

Convertir columnas categóricas (object a category)

Las columnas de tipo object que contienen valores categóricos (como genero) pueden convertirse al tipo category, que almacena los valores de forma mucho más eficiente.

df["genero"] = df["genero"].astype("category")

Publicidad


Verificar el impacto en memoria

Una vez realizadas las optimizaciones, se puede usar de nuevo DataFrame.info() para comparar el consumo de memoria.

print(df.info())
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 1000 entries, 0 to 999
Data columns (total 4 columns):
# Column Non-Null Count Dtype
--- ------ -------------- -----
0 id 1000 non-null int8
1 edad 1000 non-null int8
2 salario 1000 non-null float32
3 genero 1000 non-null category
dtypes: category(1), float32(1), int8(2)
memory usage: 7.1 KB

En la salida se observa que el consumo de memoria se ha reducido significativamente, pasando de 31,4 KB a 7,1 KB, lo que representa una disminución del 77%. Aunque en este conjunto de datos la mejora no es crítica —ya que 30 KB no supone un problema para un equipo actual—, en escenarios con grandes volúmenes de datos esta optimización puede ser clave para mejorar el rendimiento de los programas.

Conclusiones

Optimizar tipos de datos en Pandas es una técnica esencial para trabajar con grandes volúmenes de datos de manera eficiente. Ajustar enteros, flotantes y columnas categóricas puede reducir drásticamente el uso de memoria y mejorar el rendimiento.

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicidad


Publicaciones relacionadas

  • Curiosidad: El origen del análisis exploratorio de datos y el papel de John Tukey
  • Cómo calcular el tamaño de la muestra para encuestas
  • Curiosidad: La Ley de Twyman y la trampa de los datos “interesantes”
  • Copias de seguridad automáticas en SQL Server con rotación de archivos
  • Curiosidad: La Paradoja de Simpson, o por qué no siempre debes fiarte de los promedios
  • Error npm ERR! code EACCES al instalar paquetes en Node.js: Cómo solucionarlo paso a paso
  • Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
  • ¿Está concentrado el MSCI World? Un análisis con Gini, Lorenz y leyes de potencia
  • Curiosidad: ¿Por qué usamos p < 0.05? Un umbral que cambió la historia de la ciencia

Publicado en: Python Etiquetado como: Pandas

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Curiosidad: ¿Por qué usamos p < 0.05? Un umbral que cambió la historia de la ciencia

octubre 2, 2025 Por Daniel Rodríguez

¿Está concentrado el MSCI World? Un análisis con Gini, Lorenz y leyes de potencia

septiembre 30, 2025 Por Daniel Rodríguez

Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo

septiembre 25, 2025 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Copiar y pegar Activar copiar y pegar en VirtualBox publicado el mayo 1, 2019 | en Herramientas
  • Gráficos de barras en Matplotlib publicado el julio 5, 2022 | en Python
  • Diferencias entre CPU, GPU, TPU y NPU publicado el abril 19, 2023 | en Herramientas
  • Cerca La regresión logística publicado el julio 23, 2018 | en Ciencia de datos
  • Cómo solucionar problemas de red en VirtualBox: Guía completa publicado el junio 11, 2025 | en Herramientas

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.5 (10)

Diferencias entre var y let en JavaScript

Publicidad

Comentarios recientes

  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown
  • Daniel Rodríguez en Tutorial de Mypy para Principiantes

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2025 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto