• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Encuestas: Tamaño de Muestra
    • Lotería: Probabilidad de Ganar
    • Reparto de Escaños (D’Hondt)
    • Tres en Raya con IA
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • Excel
  • Matlab

Prueba exacta de Fisher

mayo 13, 2020 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 4 minutos

La semana pasada hemos vistos la prueba de independencia de Chi-cuadrado, con la que se puede comprobar la independencia de dos variables cuantitativas. En dicha entrada se comentó que cuando la frecuencia de alguna de las categorías de las variables es pequeña no es aconsejable emplear esta prueba, sino que se debería usar la prueba exacta de Fisher. La cual vamos a explicar en esta entrada.

Fundamentos de la prueba exacta de Fisher

La prueba exacta de Fisher se basa en las mismas ideas que la prueba de independencia de Chi-cuadrado, es decir, asume como hipótesis nula (H_0) e hipótesis alternativa (H_1) las siguientes:

  • H_0: las variables son independientes, por lo que no existe una relación entre las dos variables categóricas. Así, conocer el valor de una variable no ayuda a predecir el valor de la otra variable.
  • H_1: las variables son dependientes, existiendo una relación entre las dos variables categóricas. De este modo, conocer el valor de una variable ayuda a predecir el valor de la otra variable.

La diferencia con vistos la prueba de independencia de Chi-cuadrado es que en lugar de utilizar la distribución de Chi-cuadrado para determinar el valor crítico de los datos emplea la distribución hipergeométrica. Para ello se asume que los sumatorios de las tablas de contingencia son fijos, es decir, el total de filas y columnas. A partir de lo que se puede conocer el número de ocurrencias para cada uno de los niveles.

Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
En Analytics Lane
Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo

Publicidad


Deducción del p-valor

Ahora se pueden pesar en una tabla de contingencia como la que se muestra a continuación

Variable 1 – VerdaderoVariable 1 – FalsoTotal
Variable 2 – Verdaderon_{11}n_{12}n_{11} + n_{12}
Variable 2 – Falson_{21}n_{22}n_{21} + n_{22}
Totaln_{11} + n_{21}n_{12} + n_{22}n_{11} + n_{12} + n_{21} + n_{22} = n

en donde n_{ij} indica el número de ocurrencias. La probabilidad de obtener cualquier conjunto de valores en de este tipo se puede obtener mediante la distribución hipergeométrica. Así la probabilidad de esta combinación es

p = \frac{ {{n_{11} + n_{12}}\choose{n_{11}}} {{n_{21} + n_{22}}\choose{n_{21}}} }{ {n}\choose{n_{11} + n_{21}} }

donde {n}\choose{m} representa el coeficiente binomial. Con lo que la probabilidad se puede despejar como

p = \frac{(n_{11} + n_{12})! (n_{21} + n_{22})! (n_{11} + n_{21})! (n_{21} + n_{22})!}{n_{11}! n_{12}! n_{21}! n_{22}! n!}

donde el símbolo ! representa al operador factorial. Esta es la probabilidad para esta matriz, para obtener el p-valor es necesario sumar las probabilidades de todas la matrices que tiene un probabilidad por debajo de esta con la misma suma para las columnas y filas.

Ejemplo de uso de la prueba exacta de Fisher

Ahora se puede ver como aplicar la prueba exacta de Fisher. En primer lugar, necesitamos una matriz de confusión, la que por ejemplo puede ser:

Variable 1 – VerdaderoVariable 1 – FalsoTotal
Variable 2 – Verdadero505
Variable 2 – Falso279
Total7714

En este caso, si se calcula la La semana pasada, en la entrada sobre la prueba de independencia de Chi-cuadrado se explicó cómo obtener la frecuencia esperada. Si se repite el ejercicio para esta matriz de confusión se puede ver que el valor obtenido es el siguiente

Variable 1 – VerdaderoVariable 1 – FalsoTotal
Variable 2 – Verdadero2,52,55
Variable 2 – Falso4,54,59
Total7714

Lo primero que se puede ver es que el valor esperado es menor de cinco en todos los casos. indicando que no es aconsejable usar la prueba de independencia de Chi-cuadrado para saber si las variables son independientes o no. Siendo aconsejable usar la prueba exacta de Fisher en este caso.

Para obtener la probabilidad de la prueba exacta de Fisher es calcular la probabilidad de la matriz con la expresión deducida en la sección anterior. Lo que nos da un valor para esta matriz de 0,01049.

Publicidad


Obtener el p-valor

Ahora, para obtener el p valor es necesario calcular la probabilidad del resto de matrices que reproduce la misma suma total de valores. Esto es, tenemos cinco matrices más con sus correspondientes probabilidades.

Variable 1 – VerdaderoVariable 1 – FalsoTotal
Variable 2 – Verdadero415
Variable 2 – Falso369
Total7714
probabilidad = 0,12237
Variable 1 – VerdaderoVariable 1 – FalsoTotal
Variable 2 – Verdadero325
Variable 2 – Falso459
Total7714
probabilidad = 0,36713
Variable 1 – VerdaderoVariable 1 – FalsoTotal
Variable 2 – Verdadero235
Variable 2 – Falso549
Total7714
probabilidad = 0,36713
Variable 1 – VerdaderoVariable 1 – FalsoTotal
Variable 2 – Verdadero145
Variable 2 – Falso639
Total7714
probabilidad = 0,12237
Variable 1 – VerdaderoVariable 1 – FalsoTotal
Variable 2 – Verdadero055
Variable 2 – Falso729
Total7714
probabilidad = 0,01049

Los cuales, como es de esperar, suman 1. A partir de esto se puede ver que e

Lo primero que se puede ver en este caso es que la suma de todas las probabilidades es igual a 1. Algo que valida la expresión utilizada. El p-valor para este caso será la probabilidad de nuestra matiz más todas aquellas que tienen una probabilidad igual o menor. En el ejemplo solo hay otra matriz que tiene la misma probabilidad, por lo que el p-valor será 0,02098.

Validación del resultado con R

Este valor se puede comprobar fácilmente en R utilizando la función fisher.test y extrayendo el p-valor. Algo que se puede hacer fácilmente con el siguiente ejemplo.

> fisher.test(rbind(c(5,0),c(2,7)))$p.value
[1] 0.02097902

Publicidad


Conclusiones

En esta entrada se ha visto la prueba exacta de Fisher que se puede utilizar para determinar si dos variables cualitativas son independientes o no, cuando no se puede utilizar la prueba de independencia de Chi-cuadrado.

Imagen de Quốc Huy Dương en Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
  • ¿Está concentrado el MSCI World? Un análisis con Gini, Lorenz y leyes de potencia
  • Curiosidad: ¿Por qué usamos p < 0.05? Un umbral que cambió la historia de la ciencia
  • Programador de tareas de Windows: Guía definitiva para automatizar tu trabajo (BAT, PowerShell y Python)
  • La Paradoja del Cumpleaños, o por qué no es tan raro compartir fecha de nacimiento
  • Cómo abrir una ventana de Chrome con tamaño y posición específicos desde la línea de comandos en Windows
  • Curiosidad: El sesgo de supervivencia, o por qué prestar atención sólo a los que “llegaron” puede engañarte
  • Documentar tu API de Express con TypeScript usando OpenAPI (Swagger)
  • Data Lake y Data Warehouse: diferencias, usos y cómo se complementan en la era del dato

Publicado en: Ciencia de datos Etiquetado como: Estadística

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Data Lake y Data Warehouse: diferencias, usos y cómo se complementan en la era del dato

octubre 23, 2025 Por Daniel Rodríguez

Documentar tu API de Express con TypeScript usando OpenAPI (Swagger)

octubre 21, 2025 Por Daniel Rodríguez

Curiosidad: El sesgo de supervivencia, o por qué prestar atención sólo a los que “llegaron” puede engañarte

octubre 16, 2025 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Copiar y pegar Activar copiar y pegar en VirtualBox publicado el mayo 1, 2019 | en Herramientas
  • pandas Pandas: Cómo iterar sobre las filas de un DataFrame en Pandas publicado el septiembre 13, 2021 | en Python
  • Hoja de cálculo para repartir los escaños en base al método D’Hont Aplicar el método D’Hondt en Excel publicado el abril 14, 2021 | en Herramientas
  • Identificar el número de clústeres con Calinski-Harabasz en k-means e implementación en Python publicado el junio 16, 2023 | en Ciencia de datos
  • Gráficos de barras en Matplotlib publicado el julio 5, 2022 | en Python

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.5 (10)

Diferencias entre var y let en JavaScript

Publicidad

Comentarios recientes

  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown
  • Daniel Rodríguez en Tutorial de Mypy para Principiantes

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2025 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto