• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Encuestas: Tamaño de Muestra
    • Lotería: Probabilidad de Ganar
    • Reparto de Escaños (D’Hondt)
    • Tres en Raya con IA
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • R
  • Excel

La distancia de Mahalanobis

abril 19, 2024 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 4 minutos

Dentro del aprendizaje automático, es habitual tener que trabajar con conjuntos de datos multidimensionales donde las variables están interrelacionadas. En estos casos, para cuantificar la similitud entre puntos, es aconsejable tener en cuenta la estructura de los propios datos. Algo que no sucede en las distancias usadas habitualmente como la Euclídea. Una métrica que si tiene en cuenta la estructura de los datos es la distancia de Mahalanobis. Para lo que utiliza la covarianza entre las variables. En esta entrada, se explicará en qué consiste la distancia de Mahalanobis y se verá cómo implementarla en Python.

En qué consiste la distancia de Mahalanobis

La distancia de Mahalanobis es una medida estadística utilizada para cuantificar la separación entre dos puntos. Teniendo en cuenta no sólo la separación entre estos, sino también la covarianza entre las variables del conjunto de datos. A diferencia de la distancia Euclídea, en la que se asume independencia entre las variables, la distancia de Mahalanobis ajusta la separación entre las variables con su correlación. Esto la hace especialmente útil cuando el conjunto de datos donde las diferentes variables están correlacionadas entre sí.

Al tener en cuenta la correlación que existe entre las variables, esta es especialmente adecuada para la detección de anomalías. Pudiendo capturar relaciones complejas entre las diferentes características. Gracias a lo que puede identificar patrones anómalos que suelen pasar desapercibidos al usar otras medidas de distancia. Esto hace que sea una herramienta esencial en aplicaciones donde las anomalías pueden estar influenciadas por múltiples variables interrelacionadas, como en la detección de fraudes financieros o en la monitorización de la salud.

¿Qué métrica deberías mirar: exactitud, precisión o recall? Elegir bien empieza por entender el problema
En Analytics Lane
¿Qué métrica deberías mirar: exactitud, precisión o recall? Elegir bien empieza por entender el problema

Formalismos matemáticos de la distancia de Mahalanobis

La distancia de Mahalanobis entre los puntos \mathbf{x} e \mathbf{y} de un conjunot de datos se puede obtener usando la siguiente expresión: d(\mathbf{x}) = \sqrt{(\mathbf{x} - \mathbf{y})^T \Sigma^{-1} (\mathbf{x} - \mathbf{y})}, donde \Sigma es la matriz de covarianza del conjunto de datos.

Tal como se puede apreciar en la expresión, la fórmula utiliza la inversa de la matriz de covarianza \Sigma^{-1} para “normalizar” las diferencias entre las variables, compensando de esta forma las diferencias de escala entre las diferentes dimensiones y teniendo en cuenta las correlaciones entre ellas.

Es fácil ver que la fórmula anterior cumple las propiedades básicas de una distancia:

  1. No negatividad: La distancia de Mahalanobis siempre es no negativa. Es decir, para cualquier par de puntos \mathbf{x} y \mathbf{y} en un espacio métrico, la distancia de Mahalanobis entre ellos es siempre mayor o igual a cero: d(\mathbf{x}, \mathbf{y}) \geq 0.
  2. Identidad de los indiscernibles: La distancia de Mahalanobis entre dos puntos es cero si y sólo si los puntos son idénticos. Es decir, si \mathbf{x} = \mathbf{y}, entonces d(\mathbf{x}, \mathbf{y}) = 0.
  3. Simetría: La distancia de Mahalanobis es simétrica, lo que significa que la distancia de Mahalanobis entre dos puntos es la misma sin importar el orden en que se consideren los puntos. Es decir, d(\mathbf{x}, \mathbf{y}) = d(\mathbf{y}, \mathbf{x}).
  4. Desigualdad triangular: La distancia de Mahalanobis satisface la desigualdad triangular. Esto significa que la distancia de Mahalanobis entre dos puntos es siempre menor o igual a la suma de las distancias de esos dos puntos a un tercer punto. Es decir, para cualquier punto \mathbf{z}, se cumple que d(\mathbf{x}, \mathbf{y}) \leq d(\mathbf{x}, \mathbf{z}) + d(\mathbf{z}, \mathbf{y}).

Por lo que la distancia de Mahalanobis es medida de distancia válida.

Publicidad


Implementación en Python

Aunque existe una implementación en SciPy de la distancia de Mahalanobis, es relativamente fácil implementar una versión gracias a las funciones de NumPy. Una posible implementación es la que se muestra en el siguiente código:

import numpy as np

def mahalanobis_distance(point1, point2, data):
    """
    Calcula la distancia de Mahalanobis entre dos puntos en un conjunto de datos.

    Parámetros:
    -----------
    point1 : array_like
        El primer punto para el cual se desea calcular la distancia de Mahalanobis.
    point2 : array_like
        El segundo punto para el cual se desea calcular la distancia de Mahalanobis.
    data : array_like
        El conjunto de datos con el que se calculará la distancia.

    Devuelve:
    --------
    distance : float
        La distancia de Mahalanobis entre los dos puntos en el conjunto de datos.
    """
    # Calcula la matriz de covarianza del conjunto de datos
    cov_matrix = np.cov(data, rowvar=False)
    
    # Calcula la inversa de la matriz de covarianza
    inv_cov_matrix = np.linalg.inv(cov_matrix)
    
    # Calcula la diferencia entre los dos puntos
    diff = np.array(point1) - np.array(point2)
    
    # Calcula la distancia de Mahalanobis
    distance = np.sqrt(np.dot(np.dot(diff, inv_cov_matrix), diff.T))
    

En este código se pasa como parámetro dos puntos (point y point2) y el conjunto de datos. Lo primero que se hace es calcular la matriz de covarianza del conjunto de datos y obtener su inversa. Una vez hecho esto se calcula la diferencia entre los dos vectores. Finalmente, se puede usar la fórmula anterior para calcular la distancia. A continuación, se puede ver cómo funciona con un conjunto de datos de ejemplo.

data = [[1.2, 1500, 42],
        [1.5, 1600, 35],
        [1.7, 1550, 40],
        [1.8, 1750, 50],
        [2.0, 1700, 55]]

mahalanobis_distance(data[0], data[1], data)    
2.6457513110645903

Usando la función de SciPy mahalanobis() se puede verificar si el resultado es correcto. Esta función necesita los dos puntos y la inversa de la matriz de correlación para obtener el mismo resultado.

from scipy.spatial import distance

cov_matrix = np.cov(data, rowvar=False)
inv_cov_matrix = np.linalg.inv(cov_matrix)

distance.mahalanobis(data[0], data[1], inv_cov_matrix) 
2.6457513110645903

Verificando que la distancia se ha implementado correctamente.

Conclusiones

La distancia de Mahalanobis es una herramienta clave cuando se trabaja con conjuntos de datos multidimensionales. Al tener en cuenta la covarianza entre las variables, proporciona una medida precisa de la similitud entre los puntos del espacio que puede ser de gran utilidad en aplicaciones de detección de anomalías. Aunque existe una implantación en SciPy, haber escrito una función ayuda a comprender mejor el funcionamiento de la métrica.

Imagen de Joe en Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • ¿Qué métrica deberías mirar: exactitud, precisión o recall? Elegir bien empieza por entender el problema
  • Nueva calculadora DCA ajustada por inflación en el laboratorio de aplicaciones de Analytics Lane
  • Nuevo simulador FIRE en el laboratorio de aplicaciones de Analytics Lane
  • Nueva calculadora de préstamos e hipotecas en el laboratorio de aplicaciones de Analytics Lane
  • Hardening avanzado de NGINX: CSP, OCSP Stapling y defensa en profundidad
  • Nuevo generador y verificador de hashes en el laboratorio de aplicaciones de Analytics Lane
  • Nueva simulación de la estrategia Martingala en ruleta en el laboratorio de aplicaciones de Analytics Lane
  • Exactitud, precisión, recall… y los errores que cometemos al interpretarlas en proyectos reales
  • Nuevo simulador del problema de Monty Hall en el laboratorio de aplicaciones de Analytics Lane

Publicado en: Ciencia de datos Etiquetado como: Estadística, Machine learning

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Nuevo simulador de regresión lineal con ruido en el laboratorio de aplicaciones de Analytics Lane

abril 16, 2026 Por Daniel Rodríguez

Nuevo detector de la Ley de Benford en el laboratorio de aplicaciones de Analytics Lane

abril 15, 2026 Por Daniel Rodríguez

Por qué los chatbots de inteligencia artificial parecen estar siempre de acuerdo contigo – Conversar con una inteligencia artificial – Parte I

abril 14, 2026 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Copiar y pegar Activar copiar y pegar en VirtualBox publicado el mayo 1, 2019 | en Herramientas
  • Programador de tareas de Windows: Guía definitiva para automatizar tu trabajo (BAT, PowerShell y Python) publicado el octubre 7, 2025 | en Herramientas, Productividad
  • La pantalla del sistema operativo anfitrión no se adapta al de la pantalla en VirtualBox Configuración del tamaño de pantalla en VirtualBox publicado el noviembre 11, 2022 | en Herramientas
  • pandas Eliminar las filas con valores nulos en Pandas publicado el abril 24, 2023 | en Python
  • Seleccionar filas y columnas en Pandas con iloc y loc publicado el junio 21, 2019 | en Python

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.9 (11)

Pandas: Cambiar los tipos de datos en los DataFrames

Comentarios recientes

  • M. Pilar en Cómo eliminar las noticias en Windows 11 y recuperar tu concentración
  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2026 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto