La correlación de Pearson es una medida estadística que evalúa la relación lineal entre dos variables continuas. Su valor puede variar entre -1 y 1, donde -1 indica una correlación negativa perfecta, 0 ninguna correlación, y 1 una correlación positiva perfecta. Siendo una herramienta fundamental en el campo de la estadística para determinar la fuerza y la dirección de la … [Leer más...] acerca de La correlación de Pearson
Estadística
Significado de p-value en Machine Learning
Una duda habitual que me suelen plantear los alumnos al comenzar en Machine Learning, y también no tan novatos, es que significan los p-value. Además de por qué se deben rechazar los resultados cuando estos superan 0,05. Básicamente este valor es la probabilidad de que, con los datos disponibles, la hipótesis nula, la opuesta a la que deseamos rechazar, sea verdadera. Por eso, … [Leer más...] acerca de Significado de p-value en Machine Learning
Test A/B para el Bandido Multibrazo (Multi-Armed Bandit)
Recientemente hemos visto el problema del Bandido Multibrazo (Multi-Armed Bandit). Una de las posibles soluciones que tenemos en nuestra mano para resolver este problema es utilizar un Test A/B. Esto es, evaluar durante un periodo de tiempo todos los bandidos por igual y decidir una vez finalizado este periodo de prueba cuál es el óptimo. O, si los datos no son concluyentes, … [Leer más...] acerca de Test A/B para el Bandido Multibrazo (Multi-Armed Bandit)
¿Es más probable que te caiga un rayo a que te toque la lotería?
Seguramente hemos escuchado la afirmación "es más probable que te caiga un rayo a que te toque la lotería" más de una vez. Una afirmación que se usa para poner de manifiesto lo poco probable que es obtener un premio en la lotería. Por lo menos un premio importante. Pero ¿es cierta esta afirmación? Veamos cómo podemos salir de dudas.Probabilidad de que nos caiga un … [Leer más...] acerca de ¿Es más probable que te caiga un rayo a que te toque la lotería?
Prueba exacta de Fisher
La semana pasada hemos vistos la prueba de independencia de Chi-cuadrado, con la que se puede comprobar la independencia de dos variables cuantitativas. En dicha entrada se comentó que cuando la frecuencia de alguna de las categorías de las variables es pequeña no es aconsejable emplear esta prueba, sino que se debería usar la prueba exacta de Fisher. La cual vamos a explicar … [Leer más...] acerca de Prueba exacta de Fisher
Test de causalidad de Wiener-Granger
El test de causalidad de Wiener-Granger, o causalidad de Granger, es una prueba estadística empleada para determinar si una serie temporal puede predecir a otra. Para ello se basa en la idea de que si una serie temporal X causa otra Y, los modelos de Y en los que se emplean datos retrasados de X e Y deben funcionar mejor los basados únicamente en datos retrasados de Y. … [Leer más...] acerca de Test de causalidad de Wiener-Granger
Los conceptos de sesgo y varianza en aprendizaje automáticos
El sesgo y varianza son dos conceptos importantes a la hora de medir el error en los modelos de aprendizaje automático. Por eso es necesario comprender su significado para evaluar correctamente lo que nos dicen.Sesgo y varianza en estadísticaLa estadística es un área en la que se intenta extraer conclusiones de las poblaciones utilizando únicamente los datos de una … [Leer más...] acerca de Los conceptos de sesgo y varianza en aprendizaje automáticos
El problema de desequilibrio de clases en conjuntos de datos de entrenamiento
Al enfrentarse a la situación de crear un modelo de clasificación es habitual que las clases no se encuentran balanceadas. Esto es, el número de registros para una de las clases es inferior al resto. Cuando el desequilibrio es pequeño, uno a dos, esto no supone un problema, pero cuando es grande es un problema para la mayoría de los modelos de clasificación. Esta situación se … [Leer más...] acerca de El problema de desequilibrio de clases en conjuntos de datos de entrenamiento