• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Estadística
      • Calculadora del Tamaño Muestral en Encuestas
      • Calculadora de estadísticos descriptivos
      • Test de normalidad
      • Calculadora de contrastes de hipotesis
      • Calculadora de tamano del efecto
      • Simulador de Regresión Lineal con Ruido
      • Visualizador de PCA
      • Visualizador de Series Temporales
      • Simulador de Regresión Logística
      • Simulador de K-Means
      • Simulador de DBSCAN
      • Detector de la Ley de Benford
    • Probabilidad
      • Calculadora de Probabilidad de Distribuciones
      • Calculadora de Probabilidades de Lotería
      • Simulador del Problema de Monty Hall
      • Simulador de la Estrategia Martingala
    • Finanzas
      • Calculadora de Préstamos e Hipotecas
      • Conversor TIN ↔ TAE
      • Calculadora DCA con ajuste por inflación
      • Calculadora XIRR con Flujos Irregulares
      • Simulador FIRE (Financial Independence, Retire Early)
    • Herramientas
      • Formateador / Minificador de JSON
      • Conversor CSV ↔ JSON
      • Comparador y Formateador de Texto y JSON
      • Formateador y Tester de Expresiones Regulares
      • Inspector de JWT
      • Generador y verificador de hashes
      • Codificador / Decodificador Base64 y URL
      • Conversor de bases numericas
      • Conversor de Timestamp Unix
      • Conversor de colores
      • Generador de UUIDs
    • Juegos
      • Tres en Raya
      • Nim con Q-Learning
    • Más
      • Método D’Hondt
      • Generador de Contraseñas Seguras
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • R
  • Excel

Método del codo (Elbow method) para seleccionar el número óptimo de clústeres en K-means

junio 9, 2023 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 3 minutos

Posiblemente la técnica más utilizada para identificar el número óptimo de clústeres en los que dividir un conjunto de datos con K-means sea el método del codo (elbow method). Lo que se explica porque es un método intuitivo y fácil de implementar. Solamente hay que identificar el punto en el que la disminución de la varianza intra-clúster se desacelera, lo que indica que aumentar el número de clústeres no mejorará la compactación de estos. Permitiendo encontrar el equilibrio entre la cantidad de clústeres y la compactación de los datos.

Fundamentos del método del codo

El método del codo es una técnica que se emplea para determinar el número óptimo de clústeres para el algoritmo de K-means. La idea detrás de este método es bastante sencilla. Identificar el número de clústeres para el que se observa un cambio significativo en la tasa de disminución de la varianza intra-cluster (también conocido como suma total de las distancias al cuadrado).

Para ello se debe ejecutar el algoritmo de k-means con diferentes números de clústeres (k) y calcular la suma de las distancias al cuadrado de cada punto respecto a su centroide. Usando los resultados para crear una gráfica con los valores de k en el eje x y la suma de las distancias al cuadrado en el eje y. En esta gráfica se busca el punto donde se produce un cambio brusco en la disminución de la suma de las distancias al cuadrado. Punto en el que la curva muestra la forma de un codo. El número óptimo de clústeres se corresponde con este punto que se conoce como el “codo”.

Nuevo visualizador interactivo de PCA en el laboratorio de Analytics Lane
En Analytics Lane
Nuevo visualizador interactivo de PCA en el laboratorio de Analytics Lane

Sin embargo, es importante tener en cuenta que el método del codo no siempre proporciona una elección clara. Para algunos conjuntos de datos, la curva puede ser suave y no mostrar un codo bien definido. En tales casos es necesario usar otros métodos para seleccionar el número de clústeres óptimo.

Implementación del método del codo en Python

El método del codo es realmente fácil de implementar. Usando un bucle se puede iterar sobre el número de clústeres y entrenar en cada paso un modelo de k-means para obtener la varianza intra-cluster. Una vez hecho esto se representan los datos para buscar la posición del codo. Por ejemplo, se puede implementar con la siguiente función.

import matplotlib.pyplot as plt
from sklearn.cluster import KMeans

def elbow_method(data, max_clusters=10):
    """
    Aplica el método del codo para seleccionar el número óptimo de clusters en k-means.

    Parámetros:
    ----------
    data : matriz o matriz dispersa, forma (n_samples, n_features)
        Los datos de entrada.

    max_clusters : int, opcional (por defecto=10)
        El número máximo de clusters a considerar.
    """

    sum_of_squared_distances = []

    for k in range(1, max_clusters+1):
        kmeans = KMeans(n_clusters=k)
        kmeans.fit(data)
        sum_of_squared_distances.append(kmeans.inertia_)

    # Graficar la curva del codo
    plt.plot(range(1, max_clusters+1), sum_of_squared_distances, 'bx-')
    plt.xlabel('Número de Clusters (k)')
    plt.ylabel('Suma de las Distancias al Cuadrado')
    plt.title('Curva del Codo')
    plt.show()

En esta función se puede ver que únicamente se itera el valor de k entre 1 y max_clusters para entrenar un modelo y obtener el valor del parámetro inertia_. Valor en el que KMeans almacena la suma de distancias al cuadrado que se obtienen durante el entrenamiento. Lo que se puede probar con un conjunto de datos aleatorios.

from sklearn.datasets import make_blobs

# Genera un conjunto de datos de ejemplo con 4 clusters
data, _ = make_blobs(n_samples=500, centers=4, n_features=2, random_state=42)

# Aplica el método del codo
elbow_method(data)
Ejemplo del método del codo aplicado a un conjunto de datos generado de forma aleatoria
Ejemplo del método del codo aplicado a un conjunto de datos generado de forma aleatoria.

En la gráfica se puede ver como un codo que indica cuatro como el número óptimo de clústeres. El valor esperado tal como se han construido los datos.

Publicidad


Conclusiones

El método del codo es una técnica intuitiva y sencilla para obtener el número óptimo de clústeres en los que se debe separar un conjunto de datos. Por eso es una de las más utilizadas. Aunque, en algunos casos, puede que el resultado no sea fácil de interpretar. Lo que obligaría a usar otras opciones como el método de la silueta (silhouette), gap statistics o el índice de Calinski-Harabasz.

Imagen de David Mark en Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • Nuevo visualizador interactivo de PCA en el laboratorio de Analytics Lane
  • Analytics Lane lanza su Conversor TIN ↔ TAE: la herramienta definitiva para entender el coste real de depósitos, préstamos e hipotecas
  • 1200 publicaciones en Analytics Lane
  • El mayor riesgo de la inteligencia artificial conversacional: cuando la IA confirma lo que ya pensabas – Conversar con una inteligencia artificial – Parte III
  • Analytics Lane lanza su Generador de UUIDs: identificadores únicos, seguros y listos para producción en segundos
  • Conversor de Colores: convierte, compara y valida cualquier color en tiempo real
  • Simulador de DBSCAN: descubre cómo encontrar clusters reales (y ruido) sin fijar K
  • Calculadora de Tamaño del Efecto: la herramienta clave para entender cuánto importa realmente una diferencia
  • Calculadora de Contrastes de Hipótesis: interpreta correctamente el p-valor y toma decisiones estadísticas con confianza

Publicado en: Ciencia de datos Etiquetado como: Machine learning

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Analytics Lane lanza su Conversor TIN ↔ TAE: la herramienta definitiva para entender el coste real de depósitos, préstamos e hipotecas

abril 29, 2026 Por Daniel Rodríguez

Analytics Lane

1200 publicaciones en Analytics Lane

abril 28, 2026 Por Daniel Rodríguez

El mayor riesgo de la inteligencia artificial conversacional: cuando la IA confirma lo que ya pensabas – Conversar con una inteligencia artificial – Parte III

abril 28, 2026 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Analytics Lane lanza su Conversor TIN ↔ TAE: la herramienta definitiva para entender el coste real de depósitos, préstamos e hipotecas publicado el abril 29, 2026 | en Noticias
  • Codificación JSON Archivos JSON con Python: lectura y escritura publicado el julio 16, 2018 | en Python
  • Creación de paquetes de Python publicado el febrero 21, 2020 | en Python
  • Modificar los atajos de teclado en máquinas virtuales Modificar los atajos de teclado en máquinas virtuales VirtualBox publicado el octubre 1, 2018 | en Herramientas
  • ¿Qué es la estadística y por qué todos deberíamos comprenderla? publicado el noviembre 22, 2024 | en Opinión

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.9 (11)

Pandas: Cambiar los tipos de datos en los DataFrames

Comentarios recientes

  • M. Pilar en Cómo eliminar las noticias en Windows 11 y recuperar tu concentración
  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2026 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto