• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Encuestas: Tamaño de Muestra
    • Lotería: Probabilidad de Ganar
    • Reparto de Escaños (D’Hondt)
    • Tres en Raya con IA
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad
    • Tiendas afiliadas
      • AliExpress
      • Amazon
      • Banggood
      • GeekBuying
      • Lenovo

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • Excel
  • Matlab

Curiosidad: ¿Por qué usamos p < 0.05? Un umbral que cambió la historia de la ciencia

octubre 2, 2025 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 3 minutos

En casi cualquier análisis estadístico —ya sea en medicina, psicología, economía o ciencia de datos— hay un valor que aparece como juez supremo: el famoso p < 0.05.

Si el valor p es menor que 0.05, decimos que el resultado es ”estadísticamente significativo”. Pero… ¿por qué ese número y no otro como 0.01 o 0.10? ¿Tiene algún fundamento teórico o fue elegido al azar?

La historia es más curiosa (y más humana) de lo que parece.

Un poco de historia: Ronald Fisher y el 0.05

El origen del umbral de 0.05 se remonta a los años 1920, gracias al estadístico británico Ronald A. Fisher, considerado uno de los padres de la estadística moderna.

En su libro “Statistical Methods for Research Workers” (1925), Fisher propuso que un valor p menor a 0.05 podría considerarse evidencia razonable contra la hipótesis nula. No fue una imposición rígida, sino más bien una sugerencia pragmática: un punto de referencia cómodo para decidir cuándo un resultado merecía atención.

¿Y por qué 0.05? No hay una razón matemática sagrada detrás del número. Fisher lo eligió por conveniencia: era un compromiso entre ser demasiado estricto (como p < 0.01) y demasiado permisivo (como p < 0.10). Además, permitía detectar efectos reales sin exigir cantidades enormes de datos, algo muy importante en una época donde no existan las computadoras.

Curiosidad: El origen del análisis exploratorio de datos y el papel de John Tukey
En Analytics Lane
Curiosidad: El origen del análisis exploratorio de datos y el papel de John Tukey

Sin embargo, lo que comenzó como una guía flexible se transformó con el tiempo en una regla rígida. A lo largo de las décadas, p < 0.05 se convirtió en el estándar informal para juzgar la validez de resultados científicos. En muchos campos, obtener un valor p por debajo de 0.05 se volvió prácticamente obligatorio para publicar un estudio.

Publicidad


¿Qué significa realmente p < 0.05?

El valor p (o valor de probabilidad) representa la probabilidad de obtener un resultado igual o más extremo que el observado, bajo la suposición de que la hipótesis nula es cierta.

Así que cuando decimos que p < 0.05, estamos aceptando una probabilidad del 5 % de cometer un error tipo I: es decir, rechazar una hipótesis verdadera por puro azar. Es como decir: “Estoy dispuesto a correr un pequeño riesgo —del 5 %— de equivocarme si eso me permite detectar un efecto real”.

Pero esto también significa que 1 de cada 20 resultados “significativos” podría ser simplemente ruido estadístico. Y cuando se hacen miles de pruebas —como en genética, estudios clínicos o pruebas de hipótesis múltiples— ese pequeño margen se acumula rápidamente.

Una reflexión final: ¿debemos seguir usando p < 0.05?

Aunque el p-valor sigue siendo una herramienta útil, muchos expertos en estadística y ciencia han cuestionado la obsesión con el 0.05. Algunos proponen ajustar el umbral según el contexto, otros sugieren emplear directamente los tamaños del efecto y los intervalos de confianza, y hay quien pide dejar de usar el p-valor como único criterio de decisión.

Después de todo, la significación estadística no implica relevancia práctica, y un resultado “no significativo” no siempre significa que no haya un efecto. Como tantas cosas en ciencia, la interpretación exige juicio, contexto y pensamiento crítico.

En resumen: p < 0.05 cambió la forma en que hacemos ciencia, pero entender sus límites es tan importante como saber calcularlo.

Nota: La imagen de este artículo fue generada utilizando un modelo de inteligencia artificial.

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicidad


Publicaciones relacionadas

  • Curiosidad: El origen del análisis exploratorio de datos y el papel de John Tukey
  • Cómo calcular el tamaño de la muestra para encuestas
  • Curiosidad: La Ley de Twyman y la trampa de los datos “interesantes”
  • Copias de seguridad automáticas en SQL Server con rotación de archivos
  • Curiosidad: La Paradoja de Simpson, o por qué no siempre debes fiarte de los promedios
  • Error npm ERR! code EACCES al instalar paquetes en Node.js: Cómo solucionarlo paso a paso
  • Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo
  • ¿Está concentrado el MSCI World? Un análisis con Gini, Lorenz y leyes de potencia

Publicado en: Ciencia de datos, Opinión Etiquetado como: Curiosidades

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Curiosidad: ¿Por qué usamos p < 0.05? Un umbral que cambió la historia de la ciencia

octubre 2, 2025 Por Daniel Rodríguez

¿Está concentrado el MSCI World? Un análisis con Gini, Lorenz y leyes de potencia

septiembre 30, 2025 Por Daniel Rodríguez

Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo

septiembre 25, 2025 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Método del codo (Elbow method) para seleccionar el número óptimo de clústeres en K-means publicado el junio 9, 2023 | en Ciencia de datos
  • Conjunto de datos sintéticos duplicados Realizar la misma modificación en varias hojas de cálculo con Excel publicado el septiembre 23, 2020 | en Herramientas
  • Gráficos de barras en Matplotlib publicado el julio 5, 2022 | en Python
  • Código Propiedades de las funciones de hash criptográficas publicado el junio 22, 2018 | en Criptografía
  • Diferencia entre R2 y R2 ajustado en modelos de regresión publicado el marzo 8, 2024 | en Ciencia de datos

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.5 (10)

Diferencias entre var y let en JavaScript

Publicidad

Comentarios recientes

  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown
  • Daniel Rodríguez en Tutorial de Mypy para Principiantes

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2025 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto