Ciencia de datos

El Bandido Multibrazo (Multi-Armed Bandit)

El bandido multibrazo (multi-armed bandit) es uno de los problemas clásicos del aprendizaje por refuerzo. En este problema a un agente se le ofrece la posibilidad de jugar con N máquinas tragaperras, a las que se les suele llamar “bandidos” o “brazos”, que ofrecen diferentes recompensas. La recompensa que ofrece cada uno de los bandidos viene dada por una distribución de probabilidad que es diferente. Distribución que el agente no conoce a priori. El objetivo es maximizar el beneficio obtenido después de jugar una cantidad dada fijada de antemano. Esto es, descubrir el bandido que ofrece la recompensa promedio mayor en el menor número de jugadas. Para, de este modo, maximizar el beneficio jugando la mayor cantidad de veces posible únicamente con este bandido.

Exploración frente a explotación

El problema de identificar el mejor bandido es un problema más complejo de lo que parece al principio. Dado que la recompensa viene dada por una distribución de probabilidad, es posible que uno de los peores agentes de grandes recompensas en las primeras jugadas. De forma análoga, el mejor bandido puede que no obtenga ningún premio en las primeras tiradas. Por los que si el agente no realiza las suficientes tiradas de prueba es posible que se decante por un bandido que no sea el óptimo. En el lado opuesto se encuentra el problema de jugar demasiado veces con un bandido no óptimo en la fase de exploración. Siendo esto lo que se conoce como el dilema Exploración frente a Explotación (Exploration vs. Exploitation). Esto es, cuando debemos parar de explorar para explotar el conocimiento adquirido.

Rechazo acumulado

Ahora para jugar a este juego se ha de crear un algoritmo que seleccione con cuál de los bandidos debe jugar en cada tirada y medir su éxito. Para lo que se puede definir una métrica que sea la diferencia entre la recompensa máxima que se podría obtener y la obtenida realmente, a la que se conoce con el nombre de rechazo acumulado (cumulative regret).

El valor de esta métrica es cero si el algoritmo empleado selecciona siempre el mejor bandido. Aumentado el valor a medida que el algoritmo juegue con los bandidos que no son óptimos.

El rechazo acumulado es un indicador que en un caso real es difícil de calcular, ya que solamente se observa la recompensa obtenida. No observándose la recompensa de los bandidos en los que no se ha jugado. Por eso es más habitual utilizar en su lugar el pseudo rechazo (pseudo regret) que es la diferencia entre la recompensa esperada para el mejor bandido frente a la esperada por el algoritmo.

Es importante notar que el valor del pseudo rechazo es inferior al valor del rechazo acumulado. Ya que el pseudo rechazo compara el resultado con el mejor bandido en general, mientras que el rechazo acumulado lo hace con el mejor bandido para cada una de las jugadas.

Conclusiones

En esta ocasión hemos visto un problema clásico de aprendizaje por refuerzo: el bandido multibrazo (multi-armed bandit). Un problema que veremos en futuras entradas diferentes estrategias para resolver. Estrategias basadas en fundamentos estadísticos como puede ser una prueba A/B o basados en diferentes estrategias como pueden se Epsilon-greedy, valores iniciales optimistas, UCB1 o Bayes.

Imagen de Aidan Howe en Pixabay

¿Te ha parecido de utilidad el contenido?

Daniel Rodríguez

Share
Published by
Daniel Rodríguez

Recent Posts

Cómo calcular el tamaño de la muestra para encuestas

Calcular adecuadamente el tamaño de la muestra es una parte esencial en el diseño de…

2 días ago

Curiosidad: El origen del análisis exploratorio de datos y el papel de John Tukey

Hoy en día, cuando pensamos en ciencia de datos, lo primero que nos viene a…

7 días ago

Cómo extender el tamaño de un disco en Rocky Linux 9 usando growpart y LVM

Ampliar el espacio de almacenamiento en un sistema Linux es una tarea habitual y crítica…

1 semana ago

Nuevo video: cómo activar copiar y pegar en VirtualBox fácilmente

¿Sabías que puedes copiar y pegar texto, archivos o imágenes entre tu sistema operativo principal…

2 semanas ago

Nuevo video: Leer y guardar archivos Excel y CSV en Python

Hoy publicamos un nuevo video en el canal de YouTube de Analytics Lane basado en…

2 semanas ago

Nuevo video en YouTube: Trabajando con archivos JSON en Python

En el canal de YouTube de Analytics Lane hemos publicado un nuevo video donde explicamos…

3 semanas ago

This website uses cookies.