• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Encuestas: Tamaño de Muestra
    • Lotería: Probabilidad de Ganar
    • Reparto de Escaños (D’Hondt)
    • Tres en Raya con IA
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • Excel
  • Matlab

Prueba de independencia de Chi-cuadrado

mayo 6, 2020 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 4 minutos

En unas entradas anteriores hemos visto los efectos de la multicolinealidad en las variables cuantitativas y como identificar la relación mediante el uso de VIF. Para las variables categóricas también existen pruebas para comprobar si existe relación entre dos, es decir, si los valores de una variable cualitativa dependen de otra. Uno de la prueba más populares es la prueba de independencia de Chi-cuadrado (\chi^2). Si la prueba no muestra relación entre las dos variables, esto indica que conocer el valor de una variable no proporciona información de la otra. Esto es, no se puede obtener información de una a partir de otra. Por el contrario, cuando la prueba muestra relación entre las variables, esto indica que el valor de una se puede deducir a partir de la otra.

Fundamentos de la prueba de independencia de Chi-cuadrado

En la prueba de independencia de Chi-cuadrado se establecen una hipótesis nula (H_0) y otra alternativa (H_1), siendo estas:

  • H_0: las variables son independientes, por lo que no existe una relación entre las dos variables categóricas. Así, conocer el valor de una variable no ayuda a predecir el valor de la otra variable.
  • H_1: las variables son dependientes, existiendo una relación entre las dos variables categóricas. De este modo, conocer el valor de una variable ayuda a predecir el valor de la otra variable.

Estas hipótesis las evalúa comparando las frecuencias observadas en la muestra de datos con las esperadas si no existiese relación, esto es, la frecuencia esperada si la hipótesis nula es cierta. Cuando la diferencia entre la frecuencia observada y la esperada es pequeña, la hipótesis nula no se puede rechazar. No pudiéndose rechazar así el hecho de que las dos variables no estén relacionadas. Por otro lado, si existe una diferencia grande entre la frecuencia observada y la esperada, es posible rechazar la hipótesis nula. Concluyendo de este modo que las dos variables están relacionadas.

Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
En Analytics Lane
Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo

Publicidad


Determinación del valor crítico

El valor umbral, al que se llama valor crítico, para saber si la diferencia entre las frecuencias observadas en el conjunto de datos y las esperadas son grandes o pequeñas se calcula a partir de la distribución de Chi-cuadrado. Lo que da el nombre a la prueba. El valor crítico que dependerá del nivel de significancia deseo para la prueba y los grados de libertad.

Ejemplo de cálculo

En el caso de que tengamos un conjunto de datos con dos variables categóricas, para aplicar la prueba de independencia de Chi-cuadrado en primer lugar es necesario resumir los datos en una tabla de contingencia. Así para el siguiente ejemplo:

Variable 1 – VerdaderoVariable 1 – FalsoTotal
Variable 2 – Verdadero12416
Variable 2 – Falso21012
Total141428

Publicidad


Frecuencias esperada

Ahora es necesario calcular las frecuencias esperadas en la tabla de contingencia si se asume que las dos variables fuesen independientes. Valores que se necesitan para comparar con los observados. Lo que se puede obtener multiplicando el número de ocurrencias para un nivel de la primera variable por el número de ocurrencias para un nivel de la segunda variable, dividendo por el total de ocurrencias. Es decir, se puede usar la siguiente expresión:

E_{ij} = \frac{n_1(i) * n_2(k)}{n}

donde n_1(i) es el número de ocurrencias de la categoría i en la variable 1, n_2(j) es el número de ocurrencias de la categoría j en la variable 2 y n es el número de ocurrencias totales. Así se puede obtener la tabla con los valores esperados

Variable 1 – VerdaderoVariable 1 – FalsoTotal
Variable 2 – Verdadero8816
Variable 2 – Falso6612
Total141428

Es necesario tener en cuenta que la prueba de independencia de Chi-cuadrado solamente se debe aplicar si las frecuencias esperadas en todos los niveles sean iguales o mayores a 5. Lo que se cumple en nuestro ejemplo donde la frecuencia mínima esperada es 6. Cuando no se cumpla esta condición es preferible usar la prueba exacta de Fisher.

Cálculo del valor crítico

Para comparar las frecuencias esperadas con las observadas usaremos el siguiente estadístico

\chi^2 = \sum_{i,j} \frac{\left(O_{ij} – E_{ij}\right)^2}{E_{ij}}

donde O son los valores observados y E los esperados. En nuestro ejemplo este valor es de 9,3. Para saber si este valor es grande o no deberemos compáralo con el que da la distribución de Chi-cuadrado en función a los grados de libertad y el grado de significancia (generalmente de 0.05). Los grados de libertad se pueden calcular utilizando como el producto de los niveles menos uno de la primera variable por los niveles menos uno de la segunda, es decir, utilizando la siguiente expresión

df = (niveles_1 - 1)(niveles_2 - 1)

En nuestro caso, se puede ver fácilmente que el número de grados de libertad para el ejemplo es uno. Así, con la distribución inversa de Chi-cuadrado con grado de libertad 1 se puede obtener el valor crítico para nuestro ejemplo que es 3.8. Como el valor obtenido anteriormente 9,3 es mayor que el valor crítico se puede rechazar la hipótesis nula y concluir que las variables son dependientes

Publicidad


Conclusiones

En esta entrada hemos visto una prueba para determinar si dos variables cualitativas son independientes o no. Pudiendo identificar así las variables que son independientes en un conjunto de datos. El único problema de la prueba de independencia de Chi-cuadrado es que requiere que la frecuencia esperada se los datos sean mayor de 5, ya que en caso contrario el resultado no sería significativo. Siendo preferible en estos casos usar la prueba exacta de Fisher.

Imagen de Pepper Mint en Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
  • ¿Está concentrado el MSCI World? Un análisis con Gini, Lorenz y leyes de potencia
  • Curiosidad: ¿Por qué usamos p < 0.05? Un umbral que cambió la historia de la ciencia
  • Programador de tareas de Windows: Guía definitiva para automatizar tu trabajo (BAT, PowerShell y Python)
  • La Paradoja del Cumpleaños, o por qué no es tan raro compartir fecha de nacimiento
  • Cómo abrir una ventana de Chrome con tamaño y posición específicos desde la línea de comandos en Windows
  • Curiosidad: El sesgo de supervivencia, o por qué prestar atención sólo a los que “llegaron” puede engañarte
  • Documentar tu API de Express con TypeScript usando OpenAPI (Swagger)
  • Data Lake y Data Warehouse: diferencias, usos y cómo se complementan en la era del dato

Publicado en: Ciencia de datos

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Data Lake y Data Warehouse: diferencias, usos y cómo se complementan en la era del dato

octubre 23, 2025 Por Daniel Rodríguez

Documentar tu API de Express con TypeScript usando OpenAPI (Swagger)

octubre 21, 2025 Por Daniel Rodríguez

Curiosidad: El sesgo de supervivencia, o por qué prestar atención sólo a los que “llegaron” puede engañarte

octubre 16, 2025 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Hoja de cálculo para repartir los escaños en base al método D’Hont Aplicar el método D’Hondt en Excel publicado el abril 14, 2021 | en Herramientas
  • Cómo solucionar problemas de red en VirtualBox: Guía completa publicado el junio 11, 2025 | en Herramientas
  • Cómo calcular el tamaño de la muestra para encuestas publicado el septiembre 9, 2025 | en Ciencia de datos
  • La tabla de la web finalmente importada en Excel Importar tablas desde la web en Excel publicado el octubre 21, 2020 | en Herramientas
  • Diferencias entre CPU, GPU, TPU y NPU publicado el abril 19, 2023 | en Herramientas

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.5 (10)

Diferencias entre var y let en JavaScript

Publicidad

Comentarios recientes

  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown
  • Daniel Rodríguez en Tutorial de Mypy para Principiantes

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2025 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto