• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Encuestas: Tamaño de Muestra
    • Lotería: Probabilidad de Ganar
    • Reparto de Escaños (D’Hondt)
    • Tres en Raya con IA
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • Excel
  • Matlab

Explorando Local Outlier Factor (LOF): Un enfoque eficaz para la detección de anomalías

abril 12, 2024 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 5 minutos

Los modelos de detección de anomalías es una parte del aprendizaje automático en la que cada vez existe un mayor interés. Siendo una tarea crítica en diferentes áreas como la seguridad informática, el mantenimiento predictivo o el monitoreo de la salud. Uno de los algoritmos más populares para esta tarea es Local Outlier Factor (LOF). Este algoritmo identifica las anomalías de un conjunto de datos mediante el análisis de la densidad local y cómo se relaciona con sus vecinos más cercanos. En esta entrada se analizará los fundamentos de LOF y se explicará cómo se puede usar la clase de Scikit-learn para la detección de anomalías.

Tabla de contenidos

  • 1 Fundamentos de Local Outlier Factor (LOF)
  • 2 Funcionamiento de LOF
  • 3 Parámetros importantes de LOF
      • 3.0.1 Utilización LOF en Scikit-learn
  • 4 Interpretación de los Resultados
  • 5 Caso práctico con Local Outlier Factor en Scikit-learn
  • 6 Conclusiones

Fundamentos de Local Outlier Factor (LOF)

Local Outlier Factor (LOF) es un algoritmo de detección de anomalías que se basa en el concepto de densidad local. La idea fundamental detrás de LOF es que las anomalías se encuentran en los puntos del espacio de datos que tienen una densidad local significativamente menor que sus vecinos. LOF calcula un valor de anomalía para cada punto del espacio de datos en función de la desviación su densidad local con respecto a la de sus vecinos.

Publicidad


Funcionamiento de LOF

El funcionamiento de Local Outlier Factor se puede resumir en los siguientes pasos:

  1. Cálculo de la densidad local: Para cada punto del conjunto de datos, se calcula la densidad local como la inversa de la distancia promedio a sus vecinos más cercanos.
  2. Cálculo del factor de anomalía local: Se calcula el factor de anomalía local para cada punto del conjunto de datos como la razón entre la densidad local del punto y la densidad local promedio de sus vecinos. Los puntos de datos con un factor de anomalía local significativamente mayor que 1 se consideran anomalías.

Parámetros importantes de LOF

Antes de usar LOF, es importante conocer los parámetros clave que afecta al rendimiento del modelo:

Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
En Analytics Lane
Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo

  • Número de vecinos (n_neighbors): Especifica el número de vecinos que se consideran al calcular la densidad local de cada punto de datos. Un valor más alto puede capturar mejor la estructura local del conjunto de datos, pero puede aumentar los requerimientos computacionales.
  • Contaminación (contamination): Indica la proporción esperada de anomalías en el conjunto de datos. Un valor más bajo resultará en una mayor sensibilidad a las anomalías, pero también puede aumentar el riesgo de falsos positivos.

Utilización LOF en Scikit-learn

En Python la biblioteca de referencia para aprendizaje automático, Scikit-learn, cuenta con una implementación de Local Outlier Factor. Al igual que Isolation Forest y One-Class SVM se debe importar la clase y entrenar esta con el conjunto de datos, un uso básico sería el que se muestra a continuación

from sklearn.neighbors import LocalOutlierFactor

# Crear el modelo Local Outlier Factor
lof = LocalOutlierFactor(n_neighbors=20, contamination=0.1)

# Entrenar el modelo
lof.fit(data)

# Predicción de anomalías
anomaly_scores = lof.negative_outlier_factor_

En este ejemplo, tras importar la clase LocalOutlierFactor se crea una instancia de un clasificador (lof) con donde se fija el número de vecinos a 20 y la contaminación a 0,1. A continuación, como es habitual, se entrena el clasificado con el método fit(). Para detectar las anomalías del conjunto de datos de entrenamiento se debe acceder a la propiedad negative_outlier_factor_ de la instancia.

A diferencia de los algoritmos de Isolation Forest y One-Class SVM, por defecto no se puede usar el método predict() para obtener las predicciones una vez entrenado el modelo. Esto es así porque LOF es un algoritmo de detección de anomalías basado en densidad que no clasifica explícitamente los puntos de datos como normales o anómalos, sino que calcula un puntaje de anomalía para cada punto. Si se desea usar el método predict() es necesario fijar la propiedad novelty a verdadero. Aunque hay que tener en cuenta que en este caso el método predict() se debe de usar únicamente con valores nuevos, no usados en entrenamiento. No se deben utilizar en el conjunto de datos de entrenamiento, ya que esto podría llevar a resultados incoherentes.

Publicidad


Interpretación de los Resultados

Los resultados de Local Outlier Factor se pueden interpretar utilizando los puntajes de anomalía calculados. Cuanto más negativo sea el puntaje, más anómalo se considera el punto de datos. Los puntos de datos con puntajes más bajos son más probables de ser anomalías.

Una vez entrenado el modelo, en la clase además de las puntuaciones se encuentra el offset_ que representa el umbral para distinguir entre puntos de datos anómalos y normales. Valor que se calcula en base a la contaminación indicada.

Caso práctico con Local Outlier Factor en Scikit-learn

Ahora se puede crear un conjunto de datos sintéticos para analizar cómo funciona la implementación de LOF de Scikit-learn. Para ello se puede usar el mismo ejemplo usado en One-Class SVM. Usando la función make_moons() para crear un conjunto de datos aleatorios al que se puede agregar anomalías con random.uniform() de NumPy

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_moons
from sklearn.svm import OneClassSVM

# Generar datos sintéticos con make_moons
X, _ = make_moons(n_samples=1000, noise=0.1, random_state=42)

# Introducir algunas anomalías
anomalies = np.random.uniform(low=-1.5, high=2.5, size=(100, 2))

# Combinar datos normales y anomalías
data = np.vstack([X, anomalies])

# Visualizar los datos con las anomalías en un color diferente
plt.figure(figsize=(8, 6))
plt.scatter(data[:, 0], data[:, 1], alpha=0.7, c='blue', label='Datos')
plt.scatter(anomalies[:, 0], anomalies[:, 1], color='red', label='Anomalías')
plt.xlabel('Feature 1')
plt.ylabel('Feature 2')
plt.title('Datos Generados con Anomalías')
plt.legend()
plt.show()
Conjunto de datos creado con make_moons para la detección de anomalías
Conjunto de datos en el que se muestran dos lunas y un conjunto de datos aleatorios que se pueden considerar anomalías

Una vez obtenido el conjunto de datos sintéticos, se puede entrenar un modelo LOG y combinar los valores que se muestran en la propiedad negative_outlier_factor_ con offset_ para identificar los datos anómalos.

from sklearn.neighbors import LocalOutlierFactor

# Crear el modelo Local Outlier Factor
lof = LocalOutlierFactor(n_neighbors=20, contamination=0.1)

# Entrenar el modelo
lof.fit(data)

# Puntuaje de anomalías
anomaly_scores = lof.negative_outlier_factor_

# Predicción de anomalías
anomalies = lof.negative_outlier_factor_ < lof.offset_

# Visualizar los resultados con círculos sobre las anomalías
plt.figure(figsize=(8, 6))
plt.scatter(data[:, 0], data[:, 1], alpha=0.7, c='blue', label='Datos')
plt.scatter(data[anomalies][:, 0], data[anomalies][:, 1],
            facecolors='none', edgecolors='r', s=100, label='Anomalías Detectadas')
plt.xlabel('Feature 1')
plt.ylabel('Feature 2')
plt.title('Detención de Anomalías con Local Outlier Factor')
plt.legend()
plt.show()
Gráfica con los datos y las anomalías detectadas con Local Outlier Factor
Anomalías detectadas por Local Outlier Factor en el conjunto de datos sintético creado anteriormente

En la gráfica resultante se puede ver que el algoritmo detecta bastante bien los datos anómalos. Solamente existe una zona en la parte superior derecha donde la densidad de anomalías es alta y por lo tanto el modelo los considera como datos normales. Por contra, sí que se identifican algunos datos entre las dos lunas como anómalos, cosa que no sucedía con One-Class SVM.

Publicidad


Conclusiones

Local Outlier Factor es un excelente algoritmo basado en la densidad local para la detección de anomalías. Su capacidad para identificar puntos de datos anómalos en base a la densidad local lo convierte en una excelente opción en múltiples aplicaciones. Siendo un complemento y alternativa a Isolation Forest y One-Class SVM.

Imagen de Manfred Richter en Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
  • ¿Está concentrado el MSCI World? Un análisis con Gini, Lorenz y leyes de potencia
  • Curiosidad: ¿Por qué usamos p < 0.05? Un umbral que cambió la historia de la ciencia
  • Programador de tareas de Windows: Guía definitiva para automatizar tu trabajo (BAT, PowerShell y Python)
  • La Paradoja del Cumpleaños, o por qué no es tan raro compartir fecha de nacimiento
  • Cómo abrir una ventana de Chrome con tamaño y posición específicos desde la línea de comandos en Windows
  • Curiosidad: El sesgo de supervivencia, o por qué prestar atención sólo a los que “llegaron” puede engañarte
  • Documentar tu API de Express con TypeScript usando OpenAPI (Swagger)
  • Data Lake y Data Warehouse: diferencias, usos y cómo se complementan en la era del dato

Publicado en: Ciencia de datos Etiquetado como: Aprendizaje no supervisado, Detección de anomalías, Machine learning, Scikit-Learn

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Data Lake y Data Warehouse: diferencias, usos y cómo se complementan en la era del dato

octubre 23, 2025 Por Daniel Rodríguez

Documentar tu API de Express con TypeScript usando OpenAPI (Swagger)

octubre 21, 2025 Por Daniel Rodríguez

Curiosidad: El sesgo de supervivencia, o por qué prestar atención sólo a los que “llegaron” puede engañarte

octubre 16, 2025 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Procesadores cuánticos en Machine Learning e Inteligencia Artificial Procesadores cuánticos en Machine Learning e Inteligencia Artificial: Transformando el futuro de la tecnología publicado el febrero 12, 2025 | en Ciencia de datos, Criptografía, Opinión
  • Gráficos de barras en Matplotlib publicado el julio 5, 2022 | en Python
  • Método del codo (Elbow method) para seleccionar el número óptimo de clústeres en K-means publicado el junio 9, 2023 | en Ciencia de datos
  • Hoja de cálculo para repartir los escaños en base al método D’Hont Aplicar el método D’Hondt en Excel publicado el abril 14, 2021 | en Herramientas
  • El método de Muller e implementación en Python publicado el marzo 24, 2023 | en Ciencia de datos

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.5 (10)

Diferencias entre var y let en JavaScript

Publicidad

Comentarios recientes

  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown
  • Daniel Rodríguez en Tutorial de Mypy para Principiantes

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2025 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto