La semana pasada hemos vistos la prueba de independencia de Chi-cuadrado, con la que se puede comprobar la independencia de dos variables cuantitativas. En dicha entrada se comentó que cuando la frecuencia de alguna de las categorías de las variables es pequeña no es aconsejable emplear esta prueba, sino que se debería usar la prueba exacta de Fisher. La cual vamos a explicar en esta entrada.
La prueba exacta de Fisher se basa en las mismas ideas que la prueba de independencia de Chi-cuadrado, es decir, asume como hipótesis nula (H_0) e hipótesis alternativa (H_1) las siguientes:
La diferencia con vistos la prueba de independencia de Chi-cuadrado es que en lugar de utilizar la distribución de Chi-cuadrado para determinar el valor crítico de los datos emplea la distribución hipergeométrica. Para ello se asume que los sumatorios de las tablas de contingencia son fijos, es decir, el total de filas y columnas. A partir de lo que se puede conocer el número de ocurrencias para cada uno de los niveles.
Ahora se pueden pesar en una tabla de contingencia como la que se muestra a continuación
| Variable 1 – Verdadero | Variable 1 – Falso | Total | |
| Variable 2 – Verdadero | n_{11} | n_{12} | n_{11} + n_{12} |
| Variable 2 – Falso | n_{21} | n_{22} | n_{21} + n_{22} |
| Total | n_{11} + n_{21} | n_{12} + n_{22} | n_{11} + n_{12} + n_{21} + n_{22} = n |
en donde n_{ij} indica el número de ocurrencias. La probabilidad de obtener cualquier conjunto de valores en de este tipo se puede obtener mediante la distribución hipergeométrica. Así la probabilidad de esta combinación es
p = \frac{ {{n_{11} + n_{12}}\choose{n_{11}}} {{n_{21} + n_{22}}\choose{n_{21}}} }{ {n}\choose{n_{11} + n_{21}} }donde {n}\choose{m} representa el coeficiente binomial. Con lo que la probabilidad se puede despejar como
p = \frac{(n_{11} + n_{12})! (n_{21} + n_{22})! (n_{11} + n_{21})! (n_{21} + n_{22})!}{n_{11}! n_{12}! n_{21}! n_{22}! n!}donde el símbolo ! representa al operador factorial. Esta es la probabilidad para esta matriz, para obtener el p-valor es necesario sumar las probabilidades de todas la matrices que tiene un probabilidad por debajo de esta con la misma suma para las columnas y filas.
Ahora se puede ver como aplicar la prueba exacta de Fisher. En primer lugar, necesitamos una matriz de confusión, la que por ejemplo puede ser:
| Variable 1 – Verdadero | Variable 1 – Falso | Total | |
| Variable 2 – Verdadero | 5 | 0 | 5 |
| Variable 2 – Falso | 2 | 7 | 9 |
| Total | 7 | 7 | 14 |
En este caso, si se calcula la La semana pasada, en la entrada sobre la prueba de independencia de Chi-cuadrado se explicó cómo obtener la frecuencia esperada. Si se repite el ejercicio para esta matriz de confusión se puede ver que el valor obtenido es el siguiente
| Variable 1 – Verdadero | Variable 1 – Falso | Total | |
| Variable 2 – Verdadero | 2,5 | 2,5 | 5 |
| Variable 2 – Falso | 4,5 | 4,5 | 9 |
| Total | 7 | 7 | 14 |
Lo primero que se puede ver es que el valor esperado es menor de cinco en todos los casos. indicando que no es aconsejable usar la prueba de independencia de Chi-cuadrado para saber si las variables son independientes o no. Siendo aconsejable usar la prueba exacta de Fisher en este caso.
Para obtener la probabilidad de la prueba exacta de Fisher es calcular la probabilidad de la matriz con la expresión deducida en la sección anterior. Lo que nos da un valor para esta matriz de 0,01049.
Ahora, para obtener el p valor es necesario calcular la probabilidad del resto de matrices que reproduce la misma suma total de valores. Esto es, tenemos cinco matrices más con sus correspondientes probabilidades.
| Variable 1 – Verdadero | Variable 1 – Falso | Total | |
| Variable 2 – Verdadero | 4 | 1 | 5 |
| Variable 2 – Falso | 3 | 6 | 9 |
| Total | 7 | 7 | 14 |
| Variable 1 – Verdadero | Variable 1 – Falso | Total | |
| Variable 2 – Verdadero | 3 | 2 | 5 |
| Variable 2 – Falso | 4 | 5 | 9 |
| Total | 7 | 7 | 14 |
| Variable 1 – Verdadero | Variable 1 – Falso | Total | |
| Variable 2 – Verdadero | 2 | 3 | 5 |
| Variable 2 – Falso | 5 | 4 | 9 |
| Total | 7 | 7 | 14 |
| Variable 1 – Verdadero | Variable 1 – Falso | Total | |
| Variable 2 – Verdadero | 1 | 4 | 5 |
| Variable 2 – Falso | 6 | 3 | 9 |
| Total | 7 | 7 | 14 |
| Variable 1 – Verdadero | Variable 1 – Falso | Total | |
| Variable 2 – Verdadero | 0 | 5 | 5 |
| Variable 2 – Falso | 7 | 2 | 9 |
| Total | 7 | 7 | 14 |
Los cuales, como es de esperar, suman 1. A partir de esto se puede ver que e
Lo primero que se puede ver en este caso es que la suma de todas las probabilidades es igual a 1. Algo que valida la expresión utilizada. El p-valor para este caso será la probabilidad de nuestra matiz más todas aquellas que tienen una probabilidad igual o menor. En el ejemplo solo hay otra matriz que tiene la misma probabilidad, por lo que el p-valor será 0,02098.
Este valor se puede comprobar fácilmente en R utilizando la función fisher.test y extrayendo el p-valor. Algo que se puede hacer fácilmente con el siguiente ejemplo.
> fisher.test(rbind(c(5,0),c(2,7)))$p.value [1] 0.02097902
En esta entrada se ha visto la prueba exacta de Fisher que se puede utilizar para determinar si dos variables cualitativas son independientes o no, cuando no se puede utilizar la prueba de independencia de Chi-cuadrado.
Imagen de Quốc Huy Dương en Pixabay
En la era del dato, las organizaciones se enfrentan al reto de gestionar volúmenes masivos…
En la serie Creación de una API REST con Express y TypeScript construimos una API…
Durante la Segunda Guerra Mundial, la Fuerza Aérea de Estados Unidos quería reforzar sus aviones…
En muchas situaciones —ya sea para grabar un tutorial, tomar capturas de pantalla profesionales, probar…
Imagínate en una sala con un grupo de personas, por ejemplo, en una oficina, un…
En el trabajo diario con ordenadores, es común encontrarse con tareas repetitivas: realizar copias de…
This website uses cookies.