• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Encuestas: Tamaño de Muestra
    • Lotería: Probabilidad de Ganar
    • Reparto de Escaños (D’Hondt)
    • Tres en Raya con IA
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • Excel
  • Matlab

Isolation Forest: Detectando Anomalías con Eficacia

marzo 1, 2024 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 6 minutos

La detección de anomalías es uno de los desafíos más intrigantes del aprendizaje automático. Ya sea en el campo de la seguridad informática, la detección de fraudes financieros o en tareas de mantenimiento predictivo, identificar valores anómalos dentro de grandes conjuntos de datos es clave para evitar problemas en las operaciones. En esta entrada se explicará el algoritmo de Isolation Forest, una de las herramientas más populares para la detección de anomalías.

Tabla de contenidos

  • 1 Fundamentos de Isolation Forest
    • 1.1 El algoritmo de Isolation Forest
  • 2 Aplicaciones de Isolation Forest
  • 3 Isolation Forest en Scikit-learn
    • 3.1 Parámetros del modelo
    • 3.2 Utilización de Isolation Forest en Scikit-learn
      • 3.2.1 Medida de la anormalidad de los registros
  • 4 Conclusiones

Fundamentos de Isolation Forest

Isolation Forest, un algoritmo introducido por Liu, Ting y Zhou en la conferencia IEEE ICDM’08, se basa en la idea intuitiva de que las anomalías son datos muy diferentes del resto. Llevándolo a un caso práctico, normalmente, las operaciones fraudulentas suelen realizarse por cantidades y en frecuencias muy diferentes de las normales. En base a esta idea, Isolation Forest crea múltiples árboles de decisión de forma aleatoria para aislar las anomalías. Asumiendo que los datos anómalos son poco habituales, debería ser necesario realizar más divisiones para separar estos del resto. Lo que facilita su aislamiento de forma eficiente.

Publicidad


El algoritmo de Isolation Forest

El funcionamiento básico del algoritmo de Isolation Forest se puede describir en los siguientes tres pasos:

  1. Construcción aleatoria de árboles de decisión: Isolation Forest construye árboles de decisión de forma completamente aleatoria. Selecciona de forma aleatoria en cada rama del árbol la característica y el valor que se usará para dividir el conjunto de datos.
  2. División recursiva del espacio de características: El árbol de decisión se divide recursivamente en subespacios más pequeños, utilizando criterios como la ganancia de información o la reducción de la impureza en cada paso. Este proceso continúa hasta que se alcanza el criterio de parada predefinido, como alcanzar un número máximo de divisiones o que el tamaño del subconjunto de datos sea demasiado pequeño.
  3. Calcular el nivel de aislamiento de cada punto: Una vez que se ha construido el conjunto de árboles de decisión, se evalúa cuántas divisiones se necesitan para aislar cada uno de los puntos individualmente. Los puntos que requieren menos divisiones se consideran que son los que tienen más probabilidades de ser anomalías.

Aplicaciones de Isolation Forest

Isolation Forest tiene una amplia gama de aplicaciones debido a su capacidad para detectar anomalías de manera eficiente en grandes conjuntos de datos. Algunas de las aplicaciones más habituales son:

Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
En Analytics Lane
Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo

  • Detección de fraudes financieros: Identificar transacciones fraudulentas en datos financieros.
  • Seguridad informática: Detectar actividades maliciosas en redes informáticas.
  • Mantenimiento predictivo: Identificar anomalías en el funcionamiento de maquinaria para prevenir fallos.
  • Monitoreo de datos de salud: Detectar anomalías en los signos vitales de las personas para realizar una atención médica preventiva.

Publicidad


Isolation Forest en Scikit-learn

En la biblioteca Scikit-learn se puede encontrar una implementación de Isolation Forest, como es habitual, eficiente y fácil de usar. La clase que implementa el algoritmo se llama IsolationForest y se puede encontrar dentro de sklearn.ensemble.

Isolation Forest es un algoritmo de aprendizaje no supervisado, por lo que se debe entrenar únicamente con un conjunto de datos. Una vez entrenado el modelo se puede llamar al método predict() para preguntar si los registros son anómalos o no. El valor que se obtiene será 1 para los valores que se consideran normales y -1 para los que etiqueta como anómalos.

Parámetros del modelo

Al utilizar IsolationForest, es importante conocer los parámetros clave que afectan al rendimiento del algoritmo:

  • Contaminación (contamination): Este parámetro indica la proporción esperada de anomalías en el conjunto de datos. Puede ser establecido manualmente por el usuario o dejarse como 'auto' para que el algoritmo lo determine automáticamente.
  • Número de árboles (n_estimators): Especifica el número de árboles de decisión que se construirán en el bosque. Un mayor número de árboles puede mejorar la precisión, pero aumentará el tiempo de entrenamiento.

Publicidad


Utilización de Isolation Forest en Scikit-learn

A continuación, se muestra cómo usar la implementación de Isolation Forest de Scikit-learn. Para lo que primero se puede crear un conjunto de datos aleatorios que simulan el monto y el tiempo de transacciones normales y otro anómalas. Uniendo ambos en un único conjunto de datos. Este conjunto de datos se puede representar gráficamente para ver como las operaciones fraudulentas son diferentes a las normales.

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt

# Generar datos sintéticos de transacciones financieras
np.random.seed(42)

# Generar transacciones normales
normal_transactions = np.random.normal(loc=100, scale=20, size=(1000, 2))

# Generar transacciones fraudulentas (anomalías)
fraudulent_transactions = np.random.uniform(low=300, high=500, size=(50, 2))

# Combinar transacciones normales y fraudulentas
transactions = np.vstack((normal_transactions, fraudulent_transactions))

# Etiquetar transacciones (0 para normal, 1 para anomalía)
labels = np.zeros(len(transactions), dtype=int)
labels[-50:] = 1

# Crear un DataFrame de pandas
data = pd.DataFrame(transactions, columns=['Monto', 'Tiempo'])

# Visualizar los datos
plt.scatter(data['Monto'], data['Tiempo'], c=labels, cmap='coolwarm', alpha=0.7)
plt.xlabel('Monto')
plt.ylabel('Tiempo')
plt.title('Transacciones Financieras')
plt.show()
Datos aleatorios para usar con Isolation Forest
Conjunto de datos que simulan operaciones financieras con anomalías

El conjunto de datos se crea con la semilla 42, por lo que siempre que se ejecute el código se obtendrá exactamente el mismo conjunto. El ejercicio se puede repetir con otras semillas para generar datos diferentes. Ahora se puede importar IsolationForest y entrenar un modelo para detectar los datos anómalos en este conjunto de datos.

from sklearn.ensemble import IsolationForest

# Aplicar IsolationForest para detectar anomalías
model = IsolationForest(contamination=0.05, random_state=42)
model.fit(transactions)

# Predecir anomalías
predictions = model.predict(transactions)
anomaly_indices = np.where(predictions == -1)[0]

# Visualizar las anomalías detectadas
plt.scatter(data['Monto'], data['Tiempo'], c=labels, cmap='coolwarm', alpha=0.7)
plt.scatter(data.iloc[anomaly_indices]['Monto'], data.iloc[anomaly_indices]['Tiempo'],
            facecolors='none', edgecolors='g', s=100, label='Anomalías')
plt.xlabel('Monto')
plt.ylabel('Tiempo')
plt.title('Transacciones Financieras con Anomalías Detectadas')
plt.legend()
plt.show()
Gráfico en el que se muestra los valores que ha identificados Isolation Forest como anomalías
Anomalías detectadas con Isolation Forest en el conjunto de datos aleatorios

Lo que se hace en este código es importar la clase y entrenar un modelo con los datos. Nótese que el modelo no ha visto la variable labels donde se guardan las diferentes clases para su representación. El modelo ha identificado correctamente todas las anomalías y ha generado tres falsos positivos. Algo normal, ya que en este caso se ha indicado que el número de anomalías es de un 5%, mientras que los datos anómalos son un algo menos del 5% (50/1050 ≅ 0,0476).

Medida de la anormalidad de los registros

Además del método predict(), la clase IsolationForest de Scikit-learn también cuenta con el método decision_function() para obtener la puntuación de decisión para cada registro. Una medida que indica la anormalidad o rareza de cada registro en comparación con el resto del conjunto de datos. Cuanto menor sea la puntuación, más probable es que los registros sean anómalos. Por otro lado, los registros con mayor puntuación son los más consistentes con el resto de los datos.

Los valores de la puntuación de decisión se pueden representar en un histograma.

decision_scores = model.decision_function(transactions)

# Visualizar las puntuaciones de decisión
plt.hist(decision_scores, bins=50)
plt.xlabel('Puntuación de Decisión')
plt.ylabel('Frecuencia')
plt.title('Histograma de Puntuaciones de Decisión')
plt.show()
Histograma con los valores de la puntuación de decisión
Histograma con los valores de la puntuación de decisión para los datos del ejemplo

Conclusiones

Isolation Forest es un algoritmo con el que se puede detectar de forma eficiente anomalías en conjuntos de datos de gran tamaño. Aislando rápidamente los datos que no son consistentes con el resto. Por esto, es un algoritmo ampliamente utilizado en diferentes aplicaciones prácticas en las que es necesario detectar datos que no son normales.

Imagen de Gerd Altmann en Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicidad


Publicaciones relacionadas

  • Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
  • ¿Está concentrado el MSCI World? Un análisis con Gini, Lorenz y leyes de potencia
  • Curiosidad: ¿Por qué usamos p < 0.05? Un umbral que cambió la historia de la ciencia
  • Programador de tareas de Windows: Guía definitiva para automatizar tu trabajo (BAT, PowerShell y Python)
  • La Paradoja del Cumpleaños, o por qué no es tan raro compartir fecha de nacimiento
  • Cómo abrir una ventana de Chrome con tamaño y posición específicos desde la línea de comandos en Windows
  • Curiosidad: El sesgo de supervivencia, o por qué prestar atención sólo a los que “llegaron” puede engañarte
  • Documentar tu API de Express con TypeScript usando OpenAPI (Swagger)
  • Data Lake y Data Warehouse: diferencias, usos y cómo se complementan en la era del dato

Publicado en: Ciencia de datos Etiquetado como: Aprendizaje no supervisado, Detección de anomalías, Machine learning, Scikit-Learn

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Data Lake y Data Warehouse: diferencias, usos y cómo se complementan en la era del dato

octubre 23, 2025 Por Daniel Rodríguez

Documentar tu API de Express con TypeScript usando OpenAPI (Swagger)

octubre 21, 2025 Por Daniel Rodríguez

Curiosidad: El sesgo de supervivencia, o por qué prestar atención sólo a los que “llegaron” puede engañarte

octubre 16, 2025 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Procesadores cuánticos en Machine Learning e Inteligencia Artificial Procesadores cuánticos en Machine Learning e Inteligencia Artificial: Transformando el futuro de la tecnología publicado el febrero 12, 2025 | en Ciencia de datos, Criptografía, Opinión
  • Gráficos de barras en Matplotlib publicado el julio 5, 2022 | en Python
  • Método del codo (Elbow method) para seleccionar el número óptimo de clústeres en K-means publicado el junio 9, 2023 | en Ciencia de datos
  • Hoja de cálculo para repartir los escaños en base al método D’Hont Aplicar el método D’Hondt en Excel publicado el abril 14, 2021 | en Herramientas
  • El método de Muller e implementación en Python publicado el marzo 24, 2023 | en Ciencia de datos

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.5 (10)

Diferencias entre var y let en JavaScript

Publicidad

Comentarios recientes

  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown
  • Daniel Rodríguez en Tutorial de Mypy para Principiantes

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2025 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto