• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Estadística
      • Calculadora del Tamaño Muestral en Encuestas
      • Calculadora de estadísticos descriptivos
      • Test de normalidad
      • Calculadora de contrastes de hipotesis
      • Calculadora de tamano del efecto
      • Simulador de Regresión Lineal con Ruido
      • Visualizador de PCA
      • Visualizador de Series Temporales
      • Simulador de Regresión Logística
      • Simulador de K-Means
      • Simulador de DBSCAN
      • Detector de la Ley de Benford
    • Probabilidad
      • Calculadora de Probabilidad de Distribuciones
      • Calculadora de Probabilidades de Lotería
      • Simulador del Problema de Monty Hall
      • Simulador de la Estrategia Martingala
    • Finanzas
      • Calculadora de Préstamos e Hipotecas
      • Conversor TIN ↔ TAE
      • Calculadora DCA con ajuste por inflación
      • Calculadora XIRR con Flujos Irregulares
      • Simulador FIRE (Financial Independence, Retire Early)
    • Riesgo
      • Constructor de Scorecards de Crédito
      • Aplicar Scorecard de Crédito
    • Herramientas
      • Formateador / Minificador de JSON
      • Conversor CSV ↔ JSON
      • Comparador y Formateador de Texto y JSON
      • Formateador y Tester de Expresiones Regulares
      • Inspector de JWT
      • Generador y verificador de hashes
      • Codificador / Decodificador Base64 y URL
      • Conversor de bases numericas
      • Conversor de Timestamp Unix
      • Conversor de colores
      • Generador de UUIDs
    • Juegos
      • Tres en Raya
      • Nim con Q-Learning
    • Más
      • Método D’Hondt
      • Generador de Contraseñas Seguras
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • R
  • Excel

Instalación de PySpark en Anaconda y primeros pasos

enero 25, 2019 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 4 minutos

Apache Spark es una solución de código abierto desarrollado para analizar y procesar datos a gran escala. Para utilizar esta herramienta en Python es necesario utilizar el API PySpark. En esta entrada se explicará cómo realizar la instalación de PySpark en Anaconda y cómo utilizar este desde un Notebook.

Tabla de contenidos

  • 1 ¿Qué es Apache Spark y PySpark?
  • 2 Instalación de Anaconda
  • 3 Instalación de Spark y PySpark
  • 4 Acceder a Apache Spark desde un Notebook
    • 4.1 Configurando PySpark para que lance automáticamente un Notebook
    • 4.2 Instalación del paquete findSpark
  • 5 Conclusiones

¿Qué es Apache Spark y PySpark?

Apache Spark es un motor de código abierto desarrollado para gestionar y procesar datos en un entorno Big Data. Spark permite acceder a datos procedentes de diferentes fuentes como puede ser el sistema de archivos distribuidos de Hadoop (HDFS, “Hadoop Distributed File System”), OpenStack Swift, Amazon S3 o Cassandra.

Originalmente Apache Spark se diseño para hacer más fáciles los procesos analíticos en Hadoop. Al tiempo de proporcionar un conjunto completo de herramientas complementarias entre los que se incluyen la biblioteca de aprendizaje automático (MLlib) y el motor de procesamiento de gráficos (GraphX).

Por otro lado, PySpark es un API que permite utiliza Apache Spark desde Python. Siendo necesaria la instalación de PySpark en Anaconda si deseamos trabajar con esta herramienta en nuestro sistema.

Instalación de Anaconda

Antes de proceder a la instalación PySpark en Anaconda es necesario disponer de una distribución del entorno de trabajo con Python 3. En caso de no contar con ella lo más fácil es descargar el instalador desde la página de descargas del fabricante. Por otro lado, en el caso de que disponga de un entorno de Anaconda con Python 2 se ha de crear un nuevo entorno. El proceso para la creación de un nuevo entorno con Python 3 se explica en la entrada instalación de varias versiones de Python en Anaconda.

Nuevo test de normalidad interactivo en el laboratorio de Analytics Lane
En Analytics Lane
Nuevo test de normalidad interactivo en el laboratorio de Analytics Lane

Publicidad


Instalación de Spark y PySpark

La mejor opción para instalar Spark y PySpark es descargar el paquete desde la página de escargas del proyecto. En esta página hay varias opciones, se puede seleccionar la versión y el tipo de paquete. Para nuestro ejemplo seleccionaremos la última versión estable. En cuanto al tipo de paquete la opción que nos interesa es “Pre-built for Apache Hadoop 2.7 and later”. Una vez realizada la selección descargamos el archivo tgz para desde uno de los mirror disponibles.

Una vez descargado el archivo en nuestro ordenador hemos de descomprimirlo. Se generará una carpeta que hemos de situar en una ubicación accesible del disco duro. En mi caso la situaré en la carpeta raíz de mi usuario.

Ahora es necesario configurar las rutas de acceso hacia la instalación de Spark. Para ello se ha de modificar el archivo .bash_profile (o dependiendo de la configuración .bashrc o .zshrc) en Mac o Linux. Para ello se añadirán las siguientes líneas:

# Spark configurartion
export SPARK_HOME=~/spark-2.4.0-bin-hadoop2.7
export PATH=$SPARK_HOME/bin:$PATH
export PYSPARK_PYTHON=python3

En el caso de Windows se han de configurar las variables de usuario SPARK_HOME con la ruta hacia Spark y la variable de sistema PATH.

Una vez realizado estas tareas se ha de reiniciar la termina y lanzar el comando pyspark. Debiéndose observar en el terminal un resultado como el siguiente.

Welcome to
      ____	          __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /__ / .__/\_,_/_/ /_/\_\   version 2.4.0
      /_/
 
Using Python version 3.6.6 (default, Jun 28 2018 11:07:29)
SparkSession available as 'spark'.

Acceder a Apache Spark desde un Notebook

Existen dos maneras para poder utilizar Apache Spark desde un Notebook.

  • Configurando PySpark para que lance automáticamente un Notebook.
  • Instalar el paquete findSpark para acceder a Spark desde cualquier entorno de trabajo Python.

Configurando PySpark para que lance automáticamente un Notebook

Esta es la manera más fácil de utilizar Spark desde un Notebook Python. Simplemente se ha de añadir las siguientes opciones al archivo de configuración del sistema.

export PYSPARK_DRIVER_PYTHON=jupyter
export PYSPARK_DRIVER_PYTHON_OPTS='notebook'

En este punto tras reiniciar la consola y llamar al comando pyspark se abrirá un nuevo Notebook. En este ya es posible utilizar PySpark. Por ejemplo, para comprobar que funciona se puede calcular el valor de Pi con Spark mediante el siguiente código.

import random

num_samples = 100000000

def inside(p):
    x, y = random.random(), random.random()
    return x*x + y*y < 1

count = sc.parallelize(range(0, num_samples)).filter(inside).count()
pi = 4 * count / num_samples

print(pi)

sc.stop()

Publicidad


Instalación del paquete findSpark

La otra opción para acceder a Spark desde un Notebook es instalar el paquete findSpark. Este se puede instalar desde con pip utlizando el siguiente comando

pip install findspark

Ahora se puede abrir un nuevo Notebook, o cualquier otro entrono de desarrollo de Python, para utilizar PySpark. En este caso el código para calcular Pi visto anteriormente se ha de modificad de la siguiente forma.

import findspark
findspark.init()

import pyspark
import random

sc = pyspark.SparkContext()

num_samples = 100000000
def inside(p):
    x, y = random.random(), random.random()
    return x*x + y*y < 1

count = sc.parallelize(range(0, num_samples)).filter(inside).count()

pi = 4 * count / num_samples

print(pi)

sc.stop()

Obsérvese que ahora en primer lugar se ha de importar findspark e inicializarlo con findspark.init(). Una vez hecho esto se ha de importar el paquete pyspark, el cual no era necesario previamente. Posteriormente con se ha de inicializar un contexto mediante el comando sc = pyspark.SparkContext() antes de proceder con el código. Aunque requiere un par de pasos más que el ejemplo anterior, este método es más flexible ya que no solo se puede utilizar en Notebooks.

Conclusiones

En esta entrada se ha visto como como realizar la instalación de PySpark en Anaconda y utilizar ese desde un Notebook. Permitiendo así trabajar con Spark desde Python y guardando los resultados en Notebooks.

Muchas gracias por el tiempo dedicado a leer este artículo. ¿Te ha resultado útil e interesante el contenido? Puedes evaluarlo más abajo, compartirlo en redes sociales o dejar un comentario sobre el mismo. Para recibir actualizaciones con nuevo contenido puedes darte de alta en el boletín de noticias o seguirnos en redes sociales.

Imágenes: Pixabay (PublicDomainPictures)

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 5 / 5. Votos emitidos: 2

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • Nuevo test de normalidad interactivo en el laboratorio de Analytics Lane
  • Nuevo conversor de timestamp Unix en el laboratorio de Analytics Lane
  • Calculadora de Contrastes de Hipótesis: interpreta correctamente el p-valor y toma decisiones estadísticas con confianza
  • Calculadora de Tamaño del Efecto: la herramienta clave para entender cuánto importa realmente una diferencia
  • Simulador de DBSCAN: descubre cómo encontrar clusters reales (y ruido) sin fijar K
  • Conversor de Colores: convierte, compara y valida cualquier color en tiempo real
  • Analytics Lane lanza su Generador de UUIDs: identificadores únicos, seguros y listos para producción en segundos
  • 1200 publicaciones en Analytics Lane
  • Analytics Lane lanza su Conversor TIN ↔ TAE: la herramienta definitiva para entender el coste real de depósitos, préstamos e hipotecas

Publicado en: Python Etiquetado como: Spark

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

WOE e IV: La Base Matemática del Credit Scoring

mayo 5, 2026 Por Daniel Rodríguez

Noticias

Lanzamiento de la versión 1.0 del laboratorio de Analytics Lane con nuevas herramientas de scoring

mayo 2, 2026 Por Daniel Rodríguez

Analytics Lane

¡Analytics Lane cumple ocho años!

mayo 2, 2026 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Copiar y pegar Activar copiar y pegar en VirtualBox publicado el mayo 1, 2019 | en Herramientas
  • Comparar archivos en Visual Studio Code publicado el enero 10, 2024 | en Herramientas
  • Noticias Mejores mensajes de error en Python 3.10 publicado el octubre 11, 2021 | en Python
  • Codificación JSON Archivos JSON con Python: lectura y escritura publicado el julio 16, 2018 | en Python
  • Uso de múltiples ejes en Matplotlib publicado el agosto 4, 2022 | en Python

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.9 (11)

Pandas: Cambiar los tipos de datos en los DataFrames

Comentarios recientes

  • M. Pilar en Cómo eliminar las noticias en Windows 11 y recuperar tu concentración
  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2026 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto