• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • Python
  • Pandas
  • NumPy
  • Matlab
  • Julia
  • JavaScript
  • Excel

Importar archivos CSV en Node con csv-parser

marzo 17, 2021 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 4 minutos

Los archivos de valores separados por comas (CSV) es uno de los formatos más utilizados para el intercambio de información entre sistemas. Incluyendo también aquellos en los que los valores son separados por otros caracteres. Ya que, al ser simplemente archivos de texto plano, es posible leerlos e interpretarlos sin la necesidad de un programa específico. De hecho, en el caso de Node, como en otras plataformas, se puede hacer simplemente con las funciones estándar. Aunque, el uso de módulos como csv-parser facilita mucho el trabajo a la hora de importar archivos CSV en Node.

Instalación de csv-parser

El módulo csv-parser se puede instalar en cualquier proyecto Node utilizando el comando npm, para lo que solamente se debería escribir en la terminal

npm install csv-parser

A partir de este punto ya se puede impostar en cualquiera de nuestros archivos mediante require

Conjunto de datos

Para trabajar en este caso vamos a usar un archivo CSV que ya hemos usado en otras ocasiones. Un archivo que contiene el nombre, apellido, edad y la cantidad de diferentes clientes. Archivo que se puede ver a continuación.

Publicidad


first_name,last_name,age,amount
Sigrid,Mannock,27,7.17
Joe,Hinners,31,1.90
Theodoric,Rivers,36,1.11
Kennedy,Donnell,53,1.41
Beatrix,Parlett,48,6.69
Olimpia,Guenther,36,4.62
Grange,Douce,40,1.01
Sallee,Johnstone,34,4.88

Carga básica del archivo CSV

La importación del archivo no se hace directamente con el módulo csv-parser, sino que fs. Ya que csv-parser, como su nombre indica, se usa para procesar el contenido del archivo. Así, en primer lugar se importará el archivo con el método fs.createReadStream() y posteriormente se procesa cómo se muestra a continuación.

const fs = require('fs');
const parser = require('csv-parser');

fs.createReadStream('base.csv')
    .pipe(parser())
    .on('data', console.log)

En el que se ha importado el módulo csv-parser como parser y este se ha pasado en una tubería. De modo que se puede acceder a dos nuevos eventos. El evento data que se lanza cada vez que se procesa una línea de archivo y envía un objeto con el contenido de línea. Por otro lado, existe el evento header, el cual no se ha utilizado en el ejemplo, que se lanza al procesar la cabecera.

El código de ejemplo devuelve cada una de las filas, no necesariamente en orden, de la siguiente forma.

{
  first_name: 'Sigrid',
  last_name: 'Mannock',
  age: '27',
  amount: '7.17'
}

En el caso de querer guardar los datos en un objeto se pude usar un código como el siguiente.

Publicidad


const fs = require('fs');
const parser = require('csv-parser');

const data = [];

fs.createReadStream('base.csv')
    .pipe(parser({
        separator: ',',
        newline: '\n',
        skipLines: 3,
        headers: ['name', 'surname', 'age', 'sale'],
    }))
    .on('data', row => data.push(row))
    .on('end', () => console.log(data))

Recordando qué es necesario esperar al evento end para poder acceder al contenido del archivo. Ya que el código se ejecuta de manera asíncrona.

Opciones de csv-parser

El método parser() cuenta con múltiples opciones que se pueden pasar en un objeto, entre las que se puede destacar:

  • separator: en el caso de que el separador de los valores no sea la coma, se puede indicar mediante este parámetro cuál es el carácter utilizado.
  • newline: también es posible cambiar el carácter de salto de línea empleado en el archivo, el cual es por defecto \n.
  • skipLines: en el caso de que sea necesario omitir unas líneas se pude hacer indicando en este parámetro el número. Aunque hay que tener en cuenta que esto también omitiría las cabeceras en el caso de que existiesen.
  • headers: si el archivo no cuenta con cabeceras estas se pueden indicar manualmente como un vector en esta propiedad. O alternativamente, pasando un vector como único parámetro.

Por ejemplo, si se desea omitir las tres primeras líneas e indicar las cabeceras manualmente esto se puede hacer con el siguiente ejemplo. En el que también se han indicado explícitamente los valores para el separador de valores y salto de línea.

const fs = require('fs');
const parser = require('csv-parser');

fs.createReadStream('base.csv')
    .pipe(parser({
        separator: ',',
        newline: '\n',
        skipLines: 3,
        headers: ['name', 'surname', 'age', 'sale'],
    }))
    .on('data', console.log)

Procesado de las cabeceras

Otra propiedad que puede ser interesante es mapHeaders, propiedad que admite una función que se ejecutará sobre la cabecera. Lo que es posible emplear para, por ejemplo, convertir la cabecera en mayúsculas.

Publicidad


const fs = require('fs');
const parser = require('csv-parser');

fs.createReadStream('base.csv')
    .pipe(parser({
        mapHeaders: ({ header, index }) => header.toUpperCase()
    }))
    .on('data', console.log);

Procesado de los valores

De manera análoga, también edite la propiedad mapValues que admite una función que se aplicará sobre cada uno de los valores. Función que tiene como parámetros de entrada el nombre de la cabecera, el índice y valor. Propiedad que se puede utilizar para convertir los valores numéricos en números, siempre y cuando se conozca qué columnas contienen valores numéricos

const fs = require('fs');
const parser = require('csv-parser');

fs.createReadStream('base.csv')
    .pipe(parser({
        mapValues: ({ header, index, value }) => {
            if (header == 'age' || header == 'amount') {
                return parseFloat(value);
            } else {
                return value;
            }
        }
    }))
    .on('data', console.log);

Conclusiones

El módulo csv-parser es de gran utilidad para procesar los archivos de valores separados por comas. Facilitando en gran medida la importación de archivos CSV en Node.

Image by StockSnap from Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

Publicidad


¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • computer
    Agregando logs al API con Winston (6ª parte de…
  • pier
    Creación de imagen Docker para Node y Express
  • JavaScript
    Creación de una librería JavaScript
  • laptop
    Guardar archivos CSV en Node
  • computer
    Ejecutar la aplicación en producción con PM2 (10ª…
  • compass
    Creación de una librería TypeScript

Publicado en: JavaScript Etiquetado como: Node

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Publicidad





Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Facebook
  • GitHub
  • Instagram
  • Pinterest
  • RSS
  • Twitter
  • Tumblr
  • YouTube

Publicidad

Entradas recientes

Mantener un sistema de alta disponibilidad con PostgreSQL y repmgr

diciembre 1, 2023 Por Daniel Rodríguez

Diferencias entre los errores 401 y 403 del estándar HTTP

noviembre 29, 2023 Por Daniel Rodríguez

Ver el código de cualquier función en Python

noviembre 27, 2023 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Duplicado Eliminar registros duplicados en pandas publicado el junio 20, 2018 | en Python
  • Gráficos de barras en Matplotlib publicado el julio 5, 2022 | en Python
  • ¿Cómo cambiar el nombre de las columnas en Pandas? publicado el mayo 6, 2019 | en Python
  • El método Sainte-Laguë y su implementación en Python publicado el septiembre 22, 2023 | en Ciencia de datos
  • Numpy básico: eliminar elementos en arrays de Numpy publicado el octubre 30, 2019 | en Python

Publicidad

Lo mejor valorado

4.9 (22)

Seleccionar filas y columnas en Pandas con iloc y loc

4.7 (12)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.6 (15)

Archivos JSON con Python: lectura y escritura

4.5 (10)

Diferencias entre var y let en JavaScript

4.4 (13)

Ordenación de diccionarios en Python mediante clave o valor

Publicidad

Comentarios recientes

  • Anto en Rendimiento al iterar en JavaScript sobre un vector
  • Daniel Rodríguez en Creación de un certificado Let’s Encrypt en Windows con Win-Acme
  • Guillermo en Creación de un certificado Let’s Encrypt en Windows con Win-Acme
  • Daniel Rodríguez en ¿Cómo eliminar columnas y filas en un dataframe pandas?
  • Miguel en ¿Cómo eliminar columnas y filas en un dataframe pandas?

Publicidad

Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2023 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto