• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • Python
  • Pandas
  • NumPy
  • Matlab
  • Julia
  • JavaScript
  • Excel

Multicolinealidad

abril 15, 2020 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 3 minutos

La multicolinealidad es un problema que puede afectar negativamente al rendimiento de los modelos de regresión. Afectando tanto a modelos de regresión lineal como logísticos. El problema aparece cuando existe relación entre las variables independientes empleadas en los modelos. Siendo esta correlación un problema porque las variables independientes deberían de ser independientes entre sí. Cuando el grado de la relación entre las variables es lo suficientemente grande puede provocar problemas tanto en el proceso de ajuste como en la interpretación de los datos.

En esta entrada se va a explicar que es la multicolinealidad. En el caso de que esté interesado en resolver el problema puede consultar el Factor de Inflación de Varianza (VIF, Variance Inflation Factors).

¿Por qué es un problema?

Al entrenar un modelo de regresión lineal que se busca es la relación entre cada una de las variables independientes con la variable dependiente. Cada uno de los coeficientes de regresión indica el cambio que se espera observar en la variable dependiente al modificar una unidad en la variable independiente si se mantienen constantes todas las demás variables independientes. Pero, si dos o más variables independiente están relacionadas esto no se observa en los datos.

A medida que aumenta la relación entre las variables, el grado de multicolinealidad es mayor, se hace más complicado observar cambios en una variable sin que se modifique la otra. Lo que hace difícil para el modelo estimar la relación que existe entre cada una de las variables independiente y la dependiente ya que las algunas de las independientes cambian a la vez.

Tipos de multicolinealidad

Básicamente existen dos tipos de multicolinealidad

  • Multicolinealidad estructural: es la que se produce cuando se crea una nueva variable en base a otras. Por ejemplo, si se realiza una normalización de los datos. En este caso es fácil identificar las variables en las que existe multicolinealidad y para eliminar las que no son necesarias.
  • Multicolinealidad de datos: esta es la que se observa de forma natural en los datos. Por ejemplo, variables que están claramente relacionadas como la edad y la experiencia. Siendo esta la que es más difícil de identificar y eliminar.

¿Qué problemas genera?

El primer problema que aparece cuando existe multicolinealidad en el conjunto de datos de entrenamiento es la dificultad de entrenar el modelo. Ya que los coeficientes se vuelven muy sensibles a pequeños cambios. Esto es así porque si se modifica un parámetro, los de las variables relacionadas también ser verán afectados.

Publicidad


Otro problema es una reducción de la precisión de los coeficientes, lo que debilita el modelo. Provocando que los p-valores no indique que sean estadísticamente significativos.

Esto se puede ver a la hora de ajustar un modelo. En estos casos lo más probable es que los valores de los coeficientes cambian de forma significativa, llegando incluso a cambiar de signo, a incluir o algunas de las variables independientes en el modelo. Siendo algo desconcertante que modelos ligeramente diferentes nos ofrecen conclusiones completamente diferente. Por ejemplo, que en un modelo la variable dependiente aumenta con la edad mientras que se reduzca, ofreciendo una explicación completamente diferente.

Además de esto, se hace complicado confiar en los p-valores para seleccionar aquellas variables que se deben incluir en el modelo. Haciendo complicado tanto la definición como la posterior justificación de este.

¿Cuándo es necesario eliminar la multicolinealidad en los conjuntos de datos?

Es importante notar que la multicolinealidad afecta los valores de los coeficientes, los p-valores, pero no suele afectar a la precisión de las predicciones ni a las estadísticas de bondad del ajuste. Por lo que si el objetivo es solamente obtener un modelo de “caja negra” puede que no sea necesario eliminar el problema. Aunque renunciar a la capacidad de explicación que ofrece los modelos de regresión reduce la utilidad y reduce la accionabilidad de estos.

Por otro lado, este es un problema que solamente afecta a un parte de las variables del conjunto de datos. Así, si no existe multicolinealidad en los datos que son de interés para la creación del modelo, puede que no sea necesario eliminar las variables. Por ejemplo, si en un conjunto de datos existen variables de control relacionadas entre sí que no se usan estas no son un problema.

Publicidad


Conclusiones

En esta entrada hemos visto porque la existencia de multicolinealidad es un problema a la hora de definir un modelo de regresión. Un problema que se puede resolver por ejemplo con el Factor de Inflación de Varianza (VIF, Variance Inflation Factors).

Imagen de Wonita Janzen en Pixabay

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 5 / 5. Votos emitidos: 1

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • Solucionar la multicolinealidad con VIF
    Solucionar la multicolinealidad con VIF
  • Implementar modelos de aprendizaje automático con ChatGPT
    Implementar modelos de aprendizaje automático con ChatGPT
  • Cuatro aplicaciones de la Inteligencia Artificial en el Deporte
    Cuatro aplicaciones de la Inteligencia Artificial en el…
  • La interpretación de las redes neuronales
    La interpretación de las redes neuronales
  • Comparación entre la regresión logística y SVM (máquinas de vectores de soporte)
    Comparación entre la regresión logística y SVM (máquinas de…
  • Precio
    Optimizar el precio para maximizar los beneficios

Publicado en: Ciencia de datos Etiquetado como: Machine learning

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Publicidad




Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Facebook
  • GitHub
  • Instagram
  • Pinterest
  • RSS
  • Twitter
  • Tumblr
  • YouTube

Publicidad

Entradas recientes

El método de Hare-Niemeyer y su implementación en Python

septiembre 29, 2023 Por Daniel Rodríguez

Redimensionar una partición de disco LVM con espacio no asignado en Linux

septiembre 27, 2023 Por Daniel Rodríguez

¿Cómo saber la versión de Pandas o cualquier otra librería en Python?

septiembre 25, 2023 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas publicado el mayo 10, 2019 | en Python
  • ¿Cómo eliminar columnas y filas en un dataframe pandas? publicado el marzo 25, 2019 | en Python
  • pandas Pandas: Cómo crear un DataFrame vacío y agregar datos publicado el noviembre 16, 2020 | en Python
  • Sistema de ecuaciones Sistemas de ecuaciones lineales con numpy publicado el octubre 29, 2018 | en Python
  • Seleccionar filas y columnas en Pandas con iloc y loc publicado el junio 21, 2019 | en Python

Publicidad

Lo mejor valorado

4.9 (22)

Seleccionar filas y columnas en Pandas con iloc y loc

4.7 (12)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.6 (15)

Archivos JSON con Python: lectura y escritura

4.5 (10)

Diferencias entre var y let en JavaScript

4.3 (12)

Ordenación de diccionarios en Python mediante clave o valor

Publicidad

Comentarios recientes

  • Daniel Rodríguez en ¿Cómo eliminar columnas y filas en un dataframe pandas?
  • Miguel en ¿Cómo eliminar columnas y filas en un dataframe pandas?
  • alberto en Resolver problema de credenciales en Bitbucket
  • Pablo en Aplicar el método D’Hondt en Excel
  • Agapito en Creación de un EXE desde un archivo Python en Windows

Publicidad

Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2023 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto