• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Encuestas: Tamaño de Muestra
    • Lotería: Probabilidad de Ganar
    • Reparto de Escaños (D’Hondt)
    • Tres en Raya con IA
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • Python
  • Pandas
  • NumPy
  • Matlab
  • Julia
  • Excel
  • IA Generativa

Softmax para un problema Bandido Multibrazo (Multi-Armed Bandit)

marzo 19, 2021 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 8 minutos

Epsilon-Greedy es una estrategia que ofrece buenos resultados en la optimización de un problema Bandido Multibrazo (Multi-Armed Bandit). Aunque durante la fase de exploración selecciona todos los bandidos con la misma probabilidad. Algo que se puede optimizar seleccionando en esta fase los bandidos en base al valor de su recompensa esperada. Con lo que el agente solamente se centrará en identificar a los mejores bandidos. Ignorando aquellos en los que sabe que la recompensa es inferior. Esto es algo que soluciona la estrategia Softmax, en la que el agente selecciona los bandidos en proporción al conocimiento que tiene en cada momento de su recompensa esperada. Veamos en esta entrada como implementar Softmax para un problema Bandido Multibrazo (Multi-Armed Bandit).

Tabla de contenidos

  • 1 El problema de Epsilon-Greedy en la fase de exploración
  • 2 Softmax para un problema Bandido Multibrazo
  • 3 Selección del hiperparámetro \tau.
  • 4 Implementación en Python Softmax para un problema Bandido Multibrazo
  • 5 Comparación de los resultados
  • 6 Efecto de \tau. en los resultados
  • 7 Conclusiones
  • 8 Apéndice: refactorización de las clases

El problema de Epsilon-Greedy en la fase de exploración

En la fase de exploración Epsilon-Greedy selecciona los bandidos aleatoriamente. Algo que sucede independientemente del uso de un factor de decaimiento o no. Esto hace que, en caso de tener tres bandidos con una recompensa esperada de 1, 2 y 3 experimente con todos ellos con la misma probabilidad. Por otro lado, en caso de que las recompensas sean 1, 20 y 21, hará exactamente lo mismo. Siendo mejor en este segundo que se centre en el segundo y tercer bandido para saber con certeza cuál de ellos es el mejor. Lo que puede hacer que tarde un número mayor de tiradas en seleccionar el tercero.

Nuevo video en el canal: Cómo eliminar duplicados de una lista en Python
En Analytics Lane
Nuevo video en el canal: Cómo eliminar duplicados de una lista en Python

A medida que el conocimiento de la recompensa de cada uno de los bandidos aumenta una posible mejora es centrarse únicamente en los ofrecen mayor recompensa. Una mejora que implementa Softmax.

Publicidad


Softmax para un problema Bandido Multibrazo

El algoritmo Sofmax propone seleccionar a cada uno de los bandidos con una probabilidad proporcional al valor de su recompensa esperada actualmente. Probabilidad que se calculará con la siguiente expresión

P_i = \frac{e^{\frac{r_i}{\tau}}}{\sum e^{\frac{r_j}{\tau}}}

donde r_i es la recompensa promedio actual del bandido i y \tau. es un hiperparámetro que indica la proporción con la que se selecciona aleatoriamente un bandido.

Así, en cada una de las tiradas se selecciona al bandido con el que se jugará proporcionalmente a P_i. Siendo de este modo más probable jugar con los mejores bandidos y menos con los peores. Evitando seleccionar las peores opciones. Lo que aumenta las esperanza de obtener mejores recompensas que explorando los bandidos de una forma completamente aleatoria.

Selección del hiperparámetro \tau.

En Softmax, la selección del valor de \tau. es clave, ya que es el valor que determina el porcentaje de veces que se selecciona un bandido al azar. Esto es, determina las tiradas dedicadas a la exploración. Teniendo un efecto similar al de épsilon en Epsilon-Greedy.

Al aumentar el valor de \tau., el porcentaje de veces que se selecciona un bandido al azar aumenta. Por otro lado, si se reduce el valor de \tau., la fase de exploración se reduce. Por lo que la recompensa esperada aumentará.

Esto se puede ver con un ejemplo, si tenemos bandidos con una recompensa promedio de 0,02, 0,06 y 0.10 se puede obtener la probabilidad de jugar con el siguiente código

import numpy as np

mean = [0.02, 0.06, 0.10]

for tau in [1, 0.1, 0.01]:
    prob = [np.exp(m / tau) for m in mean]
    prob /= np.sum(prob)
    
    print(f'tau: {tau} recompensas: {prob}')
tau: 1 recompensas: [0.32009241 0.33315563 0.34675197]
tau: 0.1 recompensas: [0.21198272 0.31624106 0.47177622]
tau: 0.01 recompensas: [3.29320439e-04 1.79802867e-02 9.81690393e-01]

Lo que indica que, si el valor de \tau. es 1, prácticamente jugará con todos los bandidos con la misma probabilidad. Por otro lado, si el valor es 0.1 seleccionará el mejor un 47%. Algo que no es lo óptimo para este problema. Finalmente, si el valor es 0.01 el 98% de las veces seleccionará al mejor de los bandidos, seleccionado menos del 2% de las veces al resto. Una solución que aumenta la probabilidad de maximizar la recompensa total obtenida.

Publicidad


Implementación en Python Softmax para un problema Bandido Multibrazo

En este caso vamos a crear una clase Softmax para implementar este algoritmo. Clase que vamos a basar en la clase Epsilon empleada en la entrada anterior sobre valores iniciales optimistas. Además, como implementación del bandido se usará la clase Bandit de esta entrada.

En la nueva clase Softmax es necesario cambiar el método de inicialización, ya que los parámetros han cambiado, y el método run() en el que se selecciona y juega con un bandido. Esta es la clase que se muestra a continuación.

class Softmax(Epsilon):
    def __init__(self, bandits, tau):
        self.bandits = bandits
        self.tau = tau
        
        self.reset()
    
    
    def run(self, episodes=1):
        for i in range(episodes):
            prob = [np.exp(m / self.tau) for m in self._mean]
            prob /= np.sum(prob)
            prob = np.cumsum(prob)
            
            bandit = np.where(prob > np.random.random())[0][0]
            
            # Obtención de una nueva recompensa
            reward = bandits[bandit].pull()
            
            # Agregación de la recompensa al listado
            self._rewards.append(reward)
            
            # Actualización de la media
            self._plays[bandit] += 1
            self._mean[bandit] = (1 - 1.0/self._plays[bandit]) * self._mean[bandit] \
                                 + 1.0/self._plays[bandit] * reward
            
            
        return self.average_reward()
        
    
    def reset(self):
        self._rewards = []
        self._plays = [0] * len(self.bandits)
        self._mean = [0] * len(self.bandits)

Lo primero que vemos es que ahora, además del parámetro con los bandidos, solamente hay un parámetro tau. Con lo que se simplifica los métodos __init__() y run() de la nueva clase.

Los cambios más importantes se encuentran en método run(), donde se cambia el algoritmo de selección. Ahora se calcula la probabilidad de jugar con cada uno de los bandidos utilizando la expresión Softmax y posteriormente se selecciona el bandido aleatoriamente.

Comparación de los resultados

Ahora que tenemos la clase con la implementación del Softmax se puede comparar con los resultados obtenidos anteriormente. Lo que se puede hacer con el siguiente código (es necesario importar previamente las clases Bandit y Epsilon de la entrada anterior o usar la refactorización incluida en el apéndice de esta entrada).

np.random.seed(0)

bandits = [Bandit(0.02), Bandit(0.06), Bandit(0.10)]

epsilon = Epsilon(bandits)
decay = Epsilon(bandits, epsilon=1, decay=0.999)
optimistic = Epsilon(bandits, initial=[0.2, 0.2, 0.2])
softmax = Softmax(bandits, 0.01)

epsilon.run(20000)
decay.run(20000)
optimistic.run(20000)
softmax.run(20000)

epsilon.plot(True, label='Epsilon')
decay.plot(True, label='Decay')
optimistic.plot(True, label='Optimistic')
softmax.plot(True, True, label='Softmax')
plt.legend()

Lo que da como resultado el siguiente gráfico.

Comparación de la recompensa media obtenida en función del número de tiradas con Epsilon-Greedy, valores iniciales optimistas y Softmax
Comparación de la recompensa media obtenida en función del número de tiradas con Epsilon-Greedy, valores iniciales optimistas y Softmax

En este gráfico se puede ver que softmax es claramente el algoritmo que antes llega a una solución óptima, ya que desde las primeras tiradas usa la información disponible para seleccionar los bandidos.

Publicidad


Efecto de \tau. en los resultados

Aunque en el caso de Softmax es importante seleccionar correctamente el valor de \tau., ya que una selección incorrecta puede llevar soluciones que no son óptimas. Algo que se puede ver con el siguiente ejemplo.

np.random.seed(0)

bandits = [Bandit(0.02), Bandit(0.06), Bandit(0.10)]

softmax_a = Softmax(bandits, 0.1)
softmax_b = Softmax(bandits, 0.02)
softmax_c = Softmax(bandits, 0.01)

softmax_a.run(20000)
softmax_b.run(20000)
softmax_c.run(20000)

softmax_a.plot(True, label='0.1')
softmax_b.plot(True, label='0.02')
softmax_c.plot(True, True, label='0.01')
plt.legend()

Lo que da como resultado el siguiente gráfico.

Recompensa media obtenida en función del número de tiradas con Softmax en para diferentes valores de tau
Recompensa media obtenida en función del número de tiradas con Softmax en para diferentes valores de tau

Cuando se selecciona el valor de \tau. igual a 0,1 la solución no es óptima, es necesario bajar el valor hasta 0,02 o 0,01 para que esta sea la óptima. Valores que dependen de la relación entre los valores de las recompensas esperadas de los diferentes bandidos.

Conclusiones

En esta entrada hemos visto el uso de Softmax para un problema Bandido Multibrazo. Una estrategia que permite mejorar los resultados explorando los bandidos en base a su recompensa esperada, no aleatoriamente como es el caso de Epsilon-Greedy. Aunque los resultados dependen de una selección correcta del hiperparámetro, ya que como hemos visto una mala selección produce resultados que no son óptimos.

Publicidad


Apéndice: refactorización de las clases

Al sobrescribir el método run() de la clase Epsilon en Softmax nos podemos dar cuenta que se ha repetido el código de evaluación. Por lo que es una buena idea dividir este método en dos, para que no sean necesario repetir este código en futuras ocasiones. Así que se puede crear un método select() con el que se implemente el algoritmo y run() pueda ser el mismo para las dos clases. Así se puede rescindir el código como:

import numpy as np
import matplotlib.pyplot as plt

class Bandit:
    """
    Implementación de un Bandido Multibrazo (Multi-Armed Bandit) basado
    en una distribución binomial

    Parámetros
    ----------
    number: integer
        Número de recompensas que puede devolver el agente
    probability : float
        Probabilidad de que el objeto devuelva una recompensa
    
    Métodos
    -------
    pull :
        Realiza una tirada en el bandido
        
    """
    def __init__(self, probability, number=1):
        self.number = number
        self.probability = probability
        
        self.reward = self.number * self.probability
        
        
    def pull(self):        
        return np.random.binomial(self.number, self.probability)
    
    
class Epsilon:
    """
    Agente que soluciona el problema del el Bandido Multibrazo
    (Multi-Armed Bandit) mediante el uso de una estrategia Epsilon
    Greedy
    
    Parámetros
    ----------
    bandits : array of Bandit
        Vector con los bandidos con los que se debe jugar
    epsilon : float
        Porcentaje de veces en las que el agente jugada de forma
        aleatoria
    decay : float
        Velocidad con la que decae la probabilidad de seleccionar una
        jugada al azar
    initial: array of float
        Valor inicial de la recompensa esperada para cada uno de
        bandidos
        
    Métodos
    -------
    run :
        Realiza una tirada en el bandido
    select :
        Selecciona un bandido para jugar en la próxima tirada
    average_reward :
        Obtención de la recompensa promedio
    plot :
        Representación gráfica del histórico de jugadas
    reset :
        Reinicia el agente
    """
    
    def __init__(self, bandits, epsilon=0.05, decay=1, initial=None):
        self.bandits = bandits
        self.epsilon = epsilon
        self.decay = decay
        
        self.reset(initial)
        
        
    def run(self, episodes=1):
        for i in range(episodes):
            # Selección del bandido
            bandit = self.select()
            
            # Obtención de una nueva recompensa
            reward = bandits[bandit].pull()
            
            # Agregación de la recompensa al listado
            self._rewards.append(reward)
            
            # Actualización de la media
            self._plays[bandit] += 1
            self._mean[bandit] = (1 - 1.0/self._plays[bandit]) * self._mean[bandit] \
                                 + 1.0/self._plays[bandit] * reward
        
        return self.average_reward()
    

    def select(self):
        prob = np.random.random()
            
        # Selección entre la jugada aleatoria o avariciosa
        if prob < self._epsilon:
            bandit = np.random.choice(len(bandits))
        else:
            max_bandits = np.where(self._mean == np.max(self._mean))[0]
            bandit = np.random.choice(max_bandits)
        
        # Decaimiento del parámetro epsilon
        self._epsilon *= self.decay
        
        return bandit
    
                
    def average_reward(self):
        return np.mean(self._rewards)
    
    
    def plot(self, log=False, reference=False, label=None):
        cumulative_average = np.cumsum(self._rewards) / (np.arange(len(self._rewards)) + 1)
        
        if label is None:
            plt.plot(range(len(self._rewards)), cumulative_average)
        else:
            plt.plot(range(len(self._rewards)), cumulative_average, label=label)
            
        if reference:
            for reward in [b.reward for b in self.bandits]:
                plt.plot([0, len(self._rewards)], [reward, reward],
                         label=f'reward={reward}')
                
        if log:
            plt.xscale('log')
    
    
    def reset(self, initial=None):
        self._rewards = []
        
        if initial is None:
            self._epsilon = self.epsilon
            self._plays = [0] * len(self.bandits)
            self._mean = [0] * len(self.bandits)
        else:
            self._epsilon = 0
            self._plays = [1] * len(self.bandits)
            self._mean = initial
            
            
class Softmax(Epsilon):
    """
    Agente que soluciona el problema del el Bandido Multibrazo
    (Multi-Armed Bandit) mediante el uso de una estrategia Softmax
    
    Parámetros
    ----------
    bandits : array of Bandit
        Vector con los bandidos con los que se debe jugar
    tau : float
        Hiperparámetro empleado para seleccionar al bandido 
        
    Métodos
    -------
    run :
        Realiza una tirada en el bandido
    select :
        Selecciona un bandido para jugar en la próxima tirada
    average_reward :
        Obtención de la recompensa promedio
    plot :
        Representación gráfica del histórico de jugadas
    reset :
        Reinicia el agente
    """
    def __init__(self, bandits, tau=0.01):
        self.bandits = bandits
        self.tau = tau
        
        self.reset()
    
    
    def select(self):
        # Calculo de la probabilidad de seleccionar un bandido
        prob = [np.exp(m / self.tau) for m in self._mean]
        prob /= np.sum(prob)
        prob = np.cumsum(prob)
        
        # Selección del bandido
        return np.where(prob > np.random.random())[0][0] 

    
    def reset(self, initial=None):
        self._rewards = []
        self._plays = [0] * len(self.bandits)
        self._mean = [0] * len(self.bandits)

Image by Larisa Koshkina from Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • Nuevo video en el canal: Cómo eliminar duplicados de una lista en Python
  • Nuevo video en YouTube: Trabajando con archivos JSON en Python
  • Nuevo video: Leer y guardar archivos Excel y CSV en Python
  • Nuevo video: cómo activar copiar y pegar en VirtualBox fácilmente
  • Cómo extender el tamaño de un disco en Rocky Linux 9 usando growpart y LVM
  • Curiosidad: El origen del análisis exploratorio de datos y el papel de John Tukey
  • Cómo calcular el tamaño de la muestra para encuestas
  • Curiosidad: La Ley de Twyman y la trampa de los datos “interesantes”
  • Copias de seguridad automáticas en SQL Server con rotación de archivos

Publicado en: Ciencia de datos Etiquetado como: Aprendizaje por refuerzo, Machine learning, Multi-Armed Bandit

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Curiosidad: La Paradoja de Simpson, o por qué no siempre debes fiarte de los promedios

septiembre 18, 2025 Por Daniel Rodríguez

Copias de seguridad automáticas en SQL Server con rotación de archivos

septiembre 16, 2025 Por Daniel Rodríguez

Curiosidad: La Ley de Twyman y la trampa de los datos “interesantes”

septiembre 11, 2025 Por Daniel Rodríguez

Publicidad

Es tendencia

  • pandas Pandas: Seleccionar las primeras o últimas filas de un DataFrame Pandas con head() o tail() publicado el marzo 8, 2021 | en Python
  • Desempaquetado en Python de una tupla o lista publicado el septiembre 12, 2022 | en Python
  • Diferencias entre CPU, GPU, TPU y NPU publicado el abril 19, 2023 | en Herramientas
  • Descubriendo anomalías con HBOS (Histogram-Based Outlier Score) publicado el mayo 10, 2024 | en Ciencia de datos
  • Identificar y eliminar duplicados en Excel publicado el marzo 13, 2019 | en Herramientas

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.5 (10)

Diferencias entre var y let en JavaScript

Publicidad

Comentarios recientes

  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown
  • Daniel Rodríguez en Tutorial de Mypy para Principiantes

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2025 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto