• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Encuestas: Tamaño de Muestra
    • Lotería: Probabilidad de Ganar
    • Reparto de Escaños (D’Hondt)
    • Tres en Raya con IA
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • Excel
  • Matlab

UCB1-Normal para un problema Bandido Multibrazo (Multi-Armed Bandit)

abril 23, 2021 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 5 minutos

En entradas anteriores de esta serie se han visto diferentes versiones de las estrategias UCB aplicadas a la resolución de un problema tipo Bandido Multibrazo: UCB1, UCB2 y UCB-Tuned. Estrategias que han demostrado unos excelentes resultados. Otra versión de UCB con la que se suele obtener buenos resultados es UCB1-Normal, una modificación de UCB1 en la que se asume una distribución normal de las recompensas. Veamos a continuación cómo se puede implementar esta estrategia en Python.

UCB1-Normal

El método UCB1-Normal es una mejora de UCB1 en el que se asume que las recompensas de cada uno de los bandidos son generadas mediante una distribución normal. Lo que permite seleccionar al mejor bandido en base al nivel de confianza que se deduce de esta distribución. Minimizando de este modo el número de tiradas en fase de exploración.

En UCB1-Normal en primer lugar se fija un número mínimo de tiradas para cada bandido. Número que dependerá del número de tiradas totales realizadas hasta el momento. Así, si en alguno de los bandidos se han realizado menos tiradas que

n_{min} = \lceil 8 \log N \rceil,

donde N es el número total de tiradas, se jugará con este.

Por otro lado, en el caso de que todos los bandidos superen este valor umbral se jugará con aquel que maximice la siguiente expresión.

Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
En Analytics Lane
Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo

X_{UCB1-Normal} = \bar{X_j} + \sqrt{16 \frac{q_j - n_j \bar{X_j}^2}{n_j-1} \frac{\ln(N-1)}{n_j}},

donde X_j es la media de las recompensas obtenidas por el bandido j, q_j es la suma de los cuadrados de las recompensas obtenidas por el bandido j y n_j son las veces que se ha jugado con el bandido j.

Una de las características de este UCB1-Normal es el hecho de garantizar un mínimo de jugadas para cada uno de los bandidos. Evitando de este modo que algunos de los bandidos no se exploren debido a una mala racha inicial. Aunque esto puede conllevar una menor explotación de los resultados.

Publicidad


Implementación de UCB1-Normal en Python

Para implementar el método UCB1-Normal en Python nos basaremos en la clase Epsilon implementada en su momento para Epsilon-Greedy con decaimiento. En este caso es necesario agregar una nueva propiedad a la clase en la que se guarde el cuadrado de las recompensas obtenidas en cada bandido, propiedad a la que llamaremos _rewards2. Además es necesario modificar los métodos run() para guardar este valor y select() para seleccionar el bandido. La implementación que se propone se puede ver en el siguiente código.

class UCBNormal(Epsilon):
    def __init__(self, bandits):
        self.bandits = bandits
        
        self.reset()
    
    def run(self, episodes=1):
        for i in range(episodes):
            # Selección del bandido
            bandit = self.select()
            
            # Obtención de una nueva recompensa
            reward = bandits[bandit].pull()
            
            # Agregación de la recompensa al listado
            self._rewards.append(reward)
            
            # Actualización de la media
            self._rewards2[bandit] += reward ** 2
            self._plays[bandit] += 1
            self._mean[bandit] = (1 - 1.0/self._plays[bandit]) * self._mean[bandit] \
                                 + 1.0/self._plays[bandit] * reward
        
        return self.average_reward()
    
    
    def select(self):
        num_bandits = len(self.bandits)
        total = len(self._rewards)
        
        # Número de veces mínimo que debe jugar cada bandido
        if total > 0:
            min_plays = np.ceil(8 * np.log(total))
        else:
            min_plays = 1
        
        # En caso de que algún bandido no jugase el mínimo de veces se selecciona ese
        if np.any(np.array(self._plays) < min_plays):
            min_bandit = np.where(np.array(self._plays) < min_plays)[0]
            bandit = np.random.choice(min_bandit)
        else:
            ucb = [0] * num_bandits
            
            for i in range(num_bandits):
                if self._plays[i] > 1:
                    bonus = 16 * (self._rewards2[i] - self._plays[i] * self._mean[i]**2) / (self._plays[i] - 1)
                    bonus *= np.log(total - 1) / self._plays[i]
                    bonus = np.sqrt(bonus)
                    ucb[i] = self._mean[i] + bonus
                else:
                    ucb[i] = self._mean[i]
                    
            max_bandits = np.where(ucb == np.max(ucb))[0]
            bandit = np.random.choice(max_bandits)
            
        return bandit
    
    
    def reset(self, initial=None):
        self._rewards = []
        self._plays = [0] * len(self.bandits)
        self._mean = [0] * len(self.bandits)
        self._rewards2 = [0] * len(self.bandits)

Como se puede ver el método run() solamente se ha agregado una línea para agregar el cuadrado de la recompensa obtenida por cada bandido. Más interés tienen los cambios introducidos en el método select(). En este método en primer lugar se calcula el mínimo de veces que se debe jugar con cada bandido antes de pasar a una fase de explotación, valor que se guarda en la variable min_plays. Solamente en el caso de que se hubiese jugado con todos los bandidos por lo menos min_plays veces se usará el algoritmo para seleccionar el bandido, en caso contrario la selección sería aleatoria aquellos que no superan el umbral. Al igual que en las ocasiones anteriores, se calcula el bonus definido por el algoritmo y se agrega este a la media para seleccionar el bandido.

Resultados

Una vez implementado el algoritmo se puede comparar el rendimiento de UCB1-Normal con UCB1 empleando para ello los bandidos basados en una distribución binomial. Para lo que se puede utilizar el siguiente código.

np.random.seed(0)

bandits = [Bandit(0.02), Bandit(0.06), Bandit(0.10)]

ucb_n = UCBNormal(bandits)
ucb_1 = UCB1(bandits)

ucb_n.run(200000)
ucb_1.run(200000)
ucb_n.plot(True, label='UCB1-Normal')
ucb_1.plot(True, True, label='UCB-1')
plt.legend()

Obteniendo como resultado la rugiente gráfica.

En esta ocasión se puede ver que UCB1-Normal selecciona el primer más rápidamente el mejor bandido que UCB. Aunque, como en otros casos, a largo plazo los resultados la recompensa media obtenida es similar a la de UCB1. La mejora también se puede apreciar comparando el número de veces que el UCB1-Normal ha jugado con cada bandido respecto a UCB1. En el caso de UCB1-Normal solamente ha seleccionado 494 veces el primer frente a las 2.883 de UCB1, por lo que ha jugado con este bandido no óptimo solamente un quinto de las veces. Por otro lado, para el segundo bandido la diferencia es menor a 5.854 en el caso de UCB1-Normal frente a las 8.807 de UCB1. Lo que indica que UCB1-Normal ha seleccionado el bandido óptimo en más ocasiones que UCB1.

Evolución de la recompensa promedio con el número de tiradas para UCB1-Normal y UCB1 con tres bandidos basados en una distribución binomial
Evolución de la recompensa promedio con el número de tiradas para UCB1-Normal y UCB1 con tres bandidos basados en una distribución binomial

Nótese que los resultados obtenidos son buenos, aunque no se cumple uno de los supuestos de UCB1-Normal, que las recompensas obtenidas vienen de una distribución normal. Los bandidos empleados para comparar los resultados se basan en una distribución binomial.

Publicidad


Conclusiones

En esta ocasión hemos visto una nueva modificación de UCB1 con la que se obtiene experimentalmente unos resultados aún mejores.

Imagen de Jörg Vieli en Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
  • ¿Está concentrado el MSCI World? Un análisis con Gini, Lorenz y leyes de potencia
  • Curiosidad: ¿Por qué usamos p < 0.05? Un umbral que cambió la historia de la ciencia
  • Programador de tareas de Windows: Guía definitiva para automatizar tu trabajo (BAT, PowerShell y Python)
  • La Paradoja del Cumpleaños, o por qué no es tan raro compartir fecha de nacimiento
  • Cómo abrir una ventana de Chrome con tamaño y posición específicos desde la línea de comandos en Windows
  • Curiosidad: El sesgo de supervivencia, o por qué prestar atención sólo a los que “llegaron” puede engañarte
  • Documentar tu API de Express con TypeScript usando OpenAPI (Swagger)
  • Data Lake y Data Warehouse: diferencias, usos y cómo se complementan en la era del dato

Publicado en: Ciencia de datos Etiquetado como: Aprendizaje por refuerzo, Machine learning, Multi-Armed Bandit

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Data Lake y Data Warehouse: diferencias, usos y cómo se complementan en la era del dato

octubre 23, 2025 Por Daniel Rodríguez

Documentar tu API de Express con TypeScript usando OpenAPI (Swagger)

octubre 21, 2025 Por Daniel Rodríguez

Curiosidad: El sesgo de supervivencia, o por qué prestar atención sólo a los que “llegaron” puede engañarte

octubre 16, 2025 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Hoja de cálculo para repartir los escaños en base al método D’Hont Aplicar el método D’Hondt en Excel publicado el abril 14, 2021 | en Herramientas
  • Cómo solucionar problemas de red en VirtualBox: Guía completa publicado el junio 11, 2025 | en Herramientas
  • Cómo calcular el tamaño de la muestra para encuestas publicado el septiembre 9, 2025 | en Ciencia de datos
  • La tabla de la web finalmente importada en Excel Importar tablas desde la web en Excel publicado el octubre 21, 2020 | en Herramientas
  • Diferencias entre CPU, GPU, TPU y NPU publicado el abril 19, 2023 | en Herramientas

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.5 (10)

Diferencias entre var y let en JavaScript

Publicidad

Comentarios recientes

  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown
  • Daniel Rodríguez en Tutorial de Mypy para Principiantes

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2025 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto