• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Estadística
      • Calculadora del Tamaño Muestral en Encuestas
      • Calculadora de estadísticos descriptivos
      • Test de normalidad
      • Calculadora de contrastes de hipotesis
      • Calculadora de tamano del efecto
      • Simulador de Regresión Lineal con Ruido
      • Visualizador de PCA
      • Visualizador de Series Temporales
      • Simulador de Regresión Logística
      • Simulador de K-Means
      • Simulador de DBSCAN
      • Detector de la Ley de Benford
    • Probabilidad
      • Calculadora de Probabilidad de Distribuciones
      • Calculadora de Probabilidades de Lotería
      • Simulador del Problema de Monty Hall
      • Simulador de la Estrategia Martingala
    • Finanzas
      • Calculadora de Préstamos e Hipotecas
      • Conversor TIN ↔ TAE
      • Calculadora DCA con ajuste por inflación
      • Calculadora XIRR con Flujos Irregulares
      • Simulador FIRE (Financial Independence, Retire Early)
    • Riesgo
      • Constructor de Scorecards de Crédito
      • Aplicar Scorecard de Crédito
    • Herramientas
      • Formateador / Minificador de JSON
      • Conversor CSV ↔ JSON
      • Comparador y Formateador de Texto y JSON
      • Formateador y Tester de Expresiones Regulares
      • Inspector de JWT
      • Generador y verificador de hashes
      • Codificador / Decodificador Base64 y URL
      • Conversor de bases numericas
      • Conversor de Timestamp Unix
      • Conversor de colores
      • Generador de UUIDs
    • Juegos
      • Tres en Raya
      • Nim con Q-Learning
    • Más
      • Método D’Hondt
      • Generador de Contraseñas Seguras
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • R
  • Excel

Detectando anomalías con Angle-Based Outlier Detection (ABOD)

junio 21, 2024 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 6 minutos

La detección de anomalías (también conocidos por su nombre en inglés outliers) son métodos de aprendizaje automático claves en múltiples sectores. Facilitando la identificación de eventos como fraudes, errores en los datos o eventos raros. Entre los métodos existentes para ello, Angle-Based Outlier Detection (ABOD) destaca con un enfoque único al usar los ángulos entre los puntos en el espacio de características. Un enfoque que resulta bastante robusto. En esta entrada, se analizará sus fundamentos, las ventajas y desventajas que ofrece, y cómo usar este método en Python utilizando la biblioteca pyod.

Tabla de contenidos

  • 1 ¿Qué es Angle-Based Outlier Detection (ABOD)?
    • 1.1 Base matemática de ABOD
    • 1.2 Ventajas y desventajas de Angle-Based Outlier Detection
  • 2 Hiperparámetros clave de ABOD
  • 3 Uso de Angle-Based Outlier Detection en Python
    • 3.1 Creación de un conjunto de datos de ejemplo
    • 3.2 Entrenar un modelo de ABOD para la detección de anomalías
  • 4 Conclusiones

¿Qué es Angle-Based Outlier Detection (ABOD)?

ABOD es un método de detección de anomalías que emplea los ángulos entre los puntos en el espacio de características para identificar los puntos anómalos. Una diferencia clave frente a otros métodos que se basan en el uso de distancias (One-Class SVM) o densidades (LOF o HBOS).

Los fundamentos clave que diferencia a ABOD de otros métodos son los siguientes:

  1. Ángulos en lugar de distancias: ABOD analiza los ángulos formados por tripletas de puntos en el espacio de características. La idea detrás de ellos es que las anomalías tienden a formar ángulos más extremos (más pequeños o grandes) respecto a otros puntos en comparación con los registros normales.
  2. Robustez frente a cambios en la dimensionalidad: Debido a que se basa en ángulos y no en distancias, ABOD es menos susceptible a los problemas causados por la ”maldición de la dimensionalidad”. Permitiendo que funcione mejor en conjuntos de datos con muchas dimensiones.

Base matemática de ABOD

Para entender ABOD, se puede considerar un conjunto de datos X = {x_1, x_2, \ldots, x_n} en un espacio d-dimensional.

Nuevo test de normalidad interactivo en el laboratorio de Analytics Lane
En Analytics Lane
Nuevo test de normalidad interactivo en el laboratorio de Analytics Lane

  1. Diferencia de vectores: Para un punto x_i, consideramos los vectores de diferencia con otros puntos x_j y x_k: \overrightarrow{v_{ij}} = x_j - x_i \quad \text{y} \quad \overrightarrow{v_{ik}} = x_k - x_i
  2. Ángulo entre vectores: El coseno del ángulo \theta entre estos vectores se calcula como: \cos(\theta) = \frac{\overrightarrow{v_{ij}} \cdot \overrightarrow{v_{ik}}}{|\overrightarrow{v_{ij}}| |\overrightarrow{v_{ik}}|}, donde \cdot representa el producto punto y | \cdot | es la norma del vector.
  3. Varianza angular: Para cada punto x_i, se calcula la varianza de los ángulos formados con todos los pares posibles de puntos en el conjunto de datos: \text{Var}(\theta_i) = \frac{1}{n(n-1)/2} \sum_{j \neq k} \left(\theta_{ijk} - \bar{\theta_i}\right)^2, donde \theta_{ijk} es el ángulo entre los vectores \overrightarrow{v_{ij}} y \overrightarrow{v_{ik}}, y \bar{\theta_i} es el ángulo medio para el punto x_i.
  4. Puntuación de anomalía: Los puntos con alta varianza angular son considerados anomalías. La puntuación de anomalía (outlier score) se define como el inverso de la varianza angular, es decir, a mayor varianza, mayor es la probabilidad de que el punto sea una anomalía.

Publicidad


Ventajas y desventajas de Angle-Based Outlier Detection

Entre las ventajas que ofrece el enfoque de ABOD se encuentran las siguientes:

  • Rendimiento en datos de alta dimensionalidad: Generalmente funciona mejor en conjuntos de datos de alta dimensionalidad en comparación con los métodos basados en la distancia.
  • Independiente de la distribución de datos: Al no realizar suposiciones sobre la distribución de los datos puede funcionar correctamente con cualquier conjunto de datos.

A pesar de esto, ABOD también tiene algunas desventajas respecto a otros métodos para la detección de anomalías:

  • Computacionalmente intensivo: El método es costoso en términos de tiempo de cómputo y memoria.
  • Resultados menos intuitivos: La interpretación puede ser menos intuitiva respecto a los métodos basados en distancia.

Hiperparámetros clave de ABOD

Al implementar ABOD, se debe prestar especial atención a la determinación de los siguientes hiperparámetros:

  • contamination: Proporción de anomalías en el conjunto de datos. Este parámetro es crucial para ajustar el umbral de decisión.
  • n_neighbors: Número de vecinos a considerar en el caso de versiones aproximadas como FastABOD. Un parámetro que afecta la precisión y el rendimiento del modelo.
  • method: Enfoque empleado para calcular el cálculo de la puntuación de anomalía (u outlier score). Existen dos opciones 'default' y ’fast’.

Uso de Angle-Based Outlier Detection en Python

Para poder usar ABOD en Python, se puede utilizar la biblioteca pyod, que ofrece una amplia gama de algoritmos para la detección de anomalías. Biblioteca que es necesario instalar en la mayoría de las distribuciones. Para lo que se puede usar el siguiente comando:

pip install pyod

Alternativamente también se puede instalar a través de conda con el siguiente comando:

conda install -c conda-forge pyod

Una vez instalado PyOD ya se puede usar ABOD, y otros algoritmos para detectar anomalías

Publicidad


Creación de un conjunto de datos de ejemplo

Antes de poder continuar es necesario contar con un conjunto de datos de ejemplo, para lo que se puede usar el método make_moons de Scikit-learn y agregarle ruido. Un método que ya se usó anteriormente en las entradas de explicar One-Class SVM, Elliptic Envelope o Local Outlier Factor. Para obtener el conjunto de datos se puede ejecutar el siguiente código:

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_moons

# Generar el conjunto de datos de moons con ruido
X, _ = make_moons(n_samples=1000, noise=0.1, random_state=42)

# Agregar algunas anomalías artificiales
outliers = np.random.uniform(low=-2, high=3, size=(50, 2))
X = np.vstack([X, outliers])

# Visualizar el conjunto de datos
plt.figure(figsize=(8, 6))
plt.scatter(X[:, 0], X[:, 1], s=10)
plt.title("Conjunto de Datos de Moons con Anomalías")
plt.xlabel("Feature 1")
plt.ylabel("Feature 2")
plt.show()
Gráfica con los datos creados para la detección de anomalías
Conjunto de datos para la detección de anomalías

Entrenar un modelo de ABOD para la detección de anomalías

Ahora que ya se dispone de un conjunto de datos se pueden buscar las anomalías en este. Para ello solamente se debe importar la clase ABOD de pyod, instancia está con los hiperparametros y entrenar el clasificador con los datos. Las puntuaciones de anomalías del conjunto de datos de entrenamiento se pueden obtener a través de la propiedad decision_scores_. Por otro lado, la etiqueta de cada uno de los puntos se puede extraer de la propiedad labels_. En el siguiente ejemplo, se muestran cómo se pueden detectar las anomalías con ABOD.

from pyod.models.abod import ABOD

# Inicializar y ajustar el modelo ABOD
abod_model = ABOD(method='fast', contamination=0.1, n_neighbors=10)
abod_model.fit(X)

# Obtener las puntuaciones de anomalía
anomaly_scores = abod_model.decision_scores_

# Etiquetar los puntos de datos como anomalías o no anomalías
labels = abod_model.labels_

# Visualizar el conjunto de datos con las anomalías detectadas
plt.figure(figsize=(8, 6))
plt.scatter(X[:, 0], X[:, 1], c=labels, cmap='coolwarm', s=10)
plt.title("Conjunto de Datos de Moons con Anomalías Detectadas (ABOD)")
plt.xlabel("Feature 1")
plt.ylabel("Feature 2")
plt.show()
Anomalías detectadas con Angle-Based Outlier Detection (ABOD)  en el conjunto de datos creado anteriormente.
Anomalías identificadas con Angle-Based Outlier Detection (ABOD) en el conjunto de datos anterior.

Como se puede ver en la gráfica resultante, donde las anomalías se marcan en rojo, el algoritmo detecta bastante bien los datos que son anomalías.

Conclusiones

Angle-Based Outlier Detection (ABOD) es un método único para la detección de anomalías debido a su enfoque. A diferencia de otros métodos se basa en los ángulos, lo que hace que sea adecuado para conjuntos de datos de alta dimensionalidad, aunque puede ser computacionalmente costoso. En Python, se puede encontrar una implementación del método en la biblioteca pyod, haciendo su uso sea bastante sencillo.

Imagen de Светлана en Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicidad


Publicaciones relacionadas

  • Nuevo test de normalidad interactivo en el laboratorio de Analytics Lane
  • Nuevo conversor de timestamp Unix en el laboratorio de Analytics Lane
  • Calculadora de Contrastes de Hipótesis: interpreta correctamente el p-valor y toma decisiones estadísticas con confianza
  • Calculadora de Tamaño del Efecto: la herramienta clave para entender cuánto importa realmente una diferencia
  • Simulador de DBSCAN: descubre cómo encontrar clusters reales (y ruido) sin fijar K
  • Conversor de Colores: convierte, compara y valida cualquier color en tiempo real
  • Analytics Lane lanza su Generador de UUIDs: identificadores únicos, seguros y listos para producción en segundos
  • 1200 publicaciones en Analytics Lane
  • Analytics Lane lanza su Conversor TIN ↔ TAE: la herramienta definitiva para entender el coste real de depósitos, préstamos e hipotecas

Publicado en: Ciencia de datos Etiquetado como: Aprendizaje no supervisado, Detección de anomalías, Machine learning, PyOD

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Costes hundidos en ciencia de datos: cuándo mantener un modelo y cuándo migrar

mayo 7, 2026 Por Daniel Rodríguez

WOE e IV: La Base Matemática del Credit Scoring

mayo 5, 2026 Por Daniel Rodríguez

Noticias

Lanzamiento de la versión 1.0 del laboratorio de Analytics Lane con nuevas herramientas de scoring

mayo 2, 2026 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Gráficos de barras en Matplotlib publicado el julio 5, 2022 | en Python
  • Truco SQL: La distancia de Levenshtein en SQL Server publicado el diciembre 11, 2020 | en Herramientas
  • Gráficos de correlación en Seaborn: Mapas de calor y gráficos de pares publicado el julio 27, 2023 | en Python
  • Reglas de asociación y market-basket analysis publicado el agosto 31, 2018 | en Ciencia de datos
  • Exactitud, precisión, recall… qué mide realmente cada métrica (y qué no) publicado el marzo 3, 2026 | en Ciencia de datos

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.9 (11)

Pandas: Cambiar los tipos de datos en los DataFrames

Comentarios recientes

  • M. Pilar en Cómo eliminar las noticias en Windows 11 y recuperar tu concentración
  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2026 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto