• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Estadística
      • Calculadora del Tamaño Muestral en Encuestas
      • Calculadora de estadísticos descriptivos
      • Test de normalidad
      • Calculadora de contrastes de hipotesis
      • Calculadora de tamano del efecto
      • Simulador de Regresión Lineal con Ruido
      • Visualizador de PCA
      • Visualizador de Series Temporales
      • Simulador de Regresión Logística
      • Simulador de K-Means
      • Simulador de DBSCAN
      • Detector de la Ley de Benford
    • Probabilidad
      • Calculadora de Probabilidad de Distribuciones
      • Calculadora de Probabilidades de Lotería
      • Simulador del Problema de Monty Hall
      • Simulador de la Estrategia Martingala
    • Finanzas
      • Calculadora de Préstamos e Hipotecas
      • Conversor TIN ↔ TAE
      • Calculadora DCA con ajuste por inflación
      • Simulador FIRE (Financial Independence, Retire Early)
    • Herramientas
      • Formateador / Minificador de JSON
      • Comparador y Formateador de Texto y JSON
      • Formateador y Tester de Expresiones Regulares
      • Inspector de JWT
      • Generador y verificador de hashes
      • Codificador / Decodificador Base64 y URL
      • Conversor de bases numericas
      • Conversor de Timestamp Unix
      • Conversor de colores
      • Generador de UUIDs
    • Juegos
      • Tres en Raya
      • Nim con Q-Learning
    • Más
      • Método D’Hondt
      • Generador de Contraseñas Seguras
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • R
  • Excel

Uso de Parquet para guardar los conjuntos de datos de forma eficiente en Pandas

diciembre 20, 2021 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 5 minutos

Los formatos de archivo para el intercambio de datos más populares actualmente son CSV y Microsoft Excel. Resultando ambos poco eficientes a la hora trabajar con grandes conjuntos de datos. CSV es un formato basado en archivos de texto plano, lo que permite su edición con cualquier editor de texto, sin la necesidad de emplear un programa específico. Aunque esto también se traduce en archivos de gran tamaño y cuyo proceso es lento. Por otro lado, Microsoft Excel es un formato diseñado para trabajar con hojas de cálculo. Actualmente, para poder trabajar de forma eficiente con grandes conjuntos de datos, se han diseñado nuevos formatos como Feather o Parquet que ofrecen archivos más pequeños, lo que ofrece importantes ahorros a la hora de almacenar los datos, y cuyas operaciones de lectura y escritura son también más rápidas, lo que reduce el tiempo de procesado.

El formato de archivo Parquet

Apache Parquet es un formato de archivo para el almacenamiento de datos orientado a columnas de código abierto del ecosistema Apache Hadoop. Por lo que es compatible con la mayoría de frameworks para el procesado de datos. En este formato, los valores de cada columna se almacenan físicamente en posiciones de contiguas, lo que consigue que la compresión de los datos sea más eficiente al ser los datos contiguos similares. Permitiendo además usar diferentes técnicas de compresión para cada columna, pudiendo adaptar esta al tipo de dato.

Nuevo simulador FIRE en el laboratorio de aplicaciones de Analytics Lane
En Analytics Lane
Nuevo simulador FIRE en el laboratorio de aplicaciones de Analytics Lane

Parquet en Pandas

Pandas cuenta con herramientas para trabajar con archivos Parquet, por lo que no es necesario importar ningún paquete adicional. Para importar archivos Parquet en objetos DataFrame de Pandas se puede recurrir a la función read_parquet(), la cual funciona de manera similar a otras funciones como read_csv(). Además de esto los objetos DataFrame cuenta con la propiedad to_parquet(), con la que es posible volcar cualquier conjunto de datos en un archivo Parquet.

Así para guardar un conjunto de datos en este formato solamente se debería escribir

df.to_parquet('data.parquet')

asumiendo en este caso que df es un objeto DataFrame. La función permite trabajar con tres algoritmos de compresión: snappy, gzip y brotli. Por defecto se usa snappy, aunque es posible seleccionar el algoritmo usado mediante el parámetro compression. Por otro lado, la importación de los datos desde el archivo se puede conseguir simplemente con

pd.read_parquet('data.parquet')

Publicidad


Ventajas del formato Parquet

La utilización de Parquet, al igual que Feather, ofrece importantes ventajas frente al uso de los populares archivos CSV. Por otro lado, el uso de una estructura de datos en columnas, en lugar de en filas, hace que los procesos de lectura y escritura sean más eficientes. Además de esto, el uso nativo de compresión hace que los archivos resultantes sean mucho más pequeños. Ahorrando tanto espacio a la hora de almacenar los datos como tiempo a la hora de transferirlos a través de la red.

Comparación Parquet con Feather y CSV

Para comparar el rendimiento de los diferentes formatos se puede crear un conjunto de datos aleatorio para guardarlo y recuperar desde el disco. De forma análoga a como se ha hecho con el formato Feather.

En esta ocasión la comparación de rendimiento se va a realizar con un conjunto de datos aleatorio con 5 columnas y 2,5 millones de registros. Este conjunto de datos se guardará en un formato CSV, CSV con compresión BZ2, Feather y Parquet con compresión tipo snappy, gzip y brotli. Lo que se puede hacer con el siguiente código.

import pandas as pd
import numpy as np
import time

cols = 5
rows = 2500000

np.random.seed(0)

df = pd.DataFrame(np.random.rand(rows, cols),
                  columns=["A", "B", "C", "D", "E"])

# CSV
tic = time.process_time()
df.to_csv('data.csv')
csv_write = time.process_time() - tic

tic = time.process_time()
csv = pd.read_csv('data.csv')
csv_read = time.process_time() - tic

# bz2
tic = time.process_time()
df.to_csv('data.csv.bz2', compression='bz2')
bz2_write = time.process_time() - tic

tic = time.process_time()
csv = pd.read_csv('data.csv.bz2', compression='bz2')
bz2_read = time.process_time() - tic

# Feather
tic = time.process_time()
df.to_feather('data.feather')
feather_write = time.process_time() - tic

tic = time.process_time()
feather = pd.read_feather('data.feather')
feather_read = time.process_time() - tic

# Parquet: snappy
tic = time.process_time()
df.to_parquet('data.parquet')
parquet_write = time.process_time() - tic

tic = time.process_time()
csv = pd.read_parquet('data.parquet')
parquet_read = time.process_time() - tic

# Parquet: gzip
tic = time.process_time()
df.to_parquet('data.parquet.gzip', compression='gzip')
gzip_write = time.process_time() - tic

tic = time.process_time()
csv = pd.read_parquet('data.parquet.gzip')
gzip_read = time.process_time() - tic

# Parquet: brotli
tic = time.process_time()
df.to_parquet('data.parquet.brotli', compression='brotli')
brotli_write = time.process_time() - tic

tic = time.process_time()
csv = pd.read_parquet('data.parquet.brotli')
brotli_read = time.process_time() - tic

# Comparación de tiempos
times = pd.DataFrame({'write': [csv_write, bz2_write, feather_write, parquet_write, gzip_write, brotli_write],
                      'read': [csv_read, bz2_read, feather_read, parquet_read, gzip_read, brotli_read]},
                     index=['CSV', 'bz2', 'Feather', 'Parquet', 'gzip', 'Brotli'])

Con el que se obtienen los siguientes resultados.

FormatoEscritura (s)Lectura(s)Tamaño (MB)
CSV20,531,94259,8
CSV bz243,0617,72103,6
Feather0,390,14100,0
Parquet (snappy)0,440,28101,4
Parquet (gzip)3,970.7595,5
Parquet (brotli)2,321,1195,1

En este caso se puede apreciar como CSV es el formato más lento de todos, especialmente cuando se comprime para ahorrar espacio. Por otro lado, en la tabla también se puede apreciar que Parquet con compresión tipo snappy ofrece un rendimiento en tareas de escritura y lectura similares a Feather. Incluso con archivos de tamaños similares. Aunque cuando se usan los tipos de compresión gzip o brotli los archivos se reducen de tamaño a costa de un mayor tiempo de procesado, el cual está aún muy lejos de CSV.

Conclusiones

En esta ocasión hemos visto una nueva alternativa a los archivos CSV que intenta solucionar los problemas de estos: El tamaño de los archivos y la lentitud en las operaciones de escritura y lectura. Defectos que no son visibles cuando se trabaja con pequeños conjuntos de datos, pero sin con los grandes.

Al igual que Feather, la desventaja de estos archivos es que son binarios, por lo que no se pueden leer con un simple editor de textos. Aunque en conjuntos de datos grandes tampoco es habitual la edición manual. Por lo que, en estas situaciones son una buena opción.

Respecto a Feather, el formato Parquet permite reducir aún más el tamaño de los archivos, a costa de aumentar ligeramente el tiempo de procesado. Por lo que, en la mayoría de las aplicaciones el formato Parquet sea la mejor opción para almacenar los conjuntos de datos.

Imagen de 4639459 en Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 5 / 5. Votos emitidos: 1

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicidad


Publicaciones relacionadas

  • Nuevo simulador FIRE en el laboratorio de aplicaciones de Analytics Lane
  • Nueva calculadora de préstamos e hipotecas en el laboratorio de aplicaciones de Analytics Lane
  • Hardening avanzado de NGINX: CSP, OCSP Stapling y defensa en profundidad
  • Nuevo generador y verificador de hashes en el laboratorio de aplicaciones de Analytics Lane
  • Nueva simulación de la estrategia Martingala en ruleta en el laboratorio de aplicaciones de Analytics Lane
  • Exactitud, precisión, recall… y los errores que cometemos al interpretarlas en proyectos reales
  • Nuevo simulador del problema de Monty Hall en el laboratorio de aplicaciones de Analytics Lane
  • Nuevo simulador interactivo de K-Means en el laboratorio de aplicaciones de Analytics Lane
  • Por qué los chatbots de inteligencia artificial parecen estar siempre de acuerdo contigo – Conversar con una inteligencia artificial – Parte I

Publicado en: Python Etiquetado como: Apache Arrow, Pandas, Parquet

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Nueva herramienta: Comparador y Formateador de Texto y JSON en el laboratorio de Analytics Lane

abril 21, 2026 Por Daniel Rodríguez

Chatbots vs redes sociales: la diferencia clave entre la inteligencia artificial y los algoritmos de recomendación – Conversar con una inteligencia artificial – Parte II

abril 21, 2026 Por Daniel Rodríguez

Nueva Calculadora de Estadísticos Descriptivos en el laboratorio de aplicaciones de Analytics Lane

abril 20, 2026 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Buscar en Excel con dos o más criterios publicado el septiembre 7, 2022 | en Herramientas
  • Gráfica con los datos y las anomalías detectadas con OneClass SVM One-Class SVM: Detección de anomalías con máquinas de vector soporte publicado el marzo 15, 2024 | en Ciencia de datos
  • Nueva herramienta: Comparador y Formateador de Texto y JSON en el laboratorio de Analytics Lane publicado el abril 21, 2026 | en Noticias
  • Método del codo (Elbow method) para seleccionar el número óptimo de clústeres en K-means publicado el junio 9, 2023 | en Ciencia de datos
  • Cómo desinstalar Oracle Database 19c en Windows publicado el noviembre 25, 2022 | en Herramientas

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.9 (11)

Pandas: Cambiar los tipos de datos en los DataFrames

Comentarios recientes

  • M. Pilar en Cómo eliminar las noticias en Windows 11 y recuperar tu concentración
  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2026 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto