• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Estadística
      • Calculadora del Tamaño Muestral en Encuestas
      • Calculadora de estadísticos descriptivos
      • Test de normalidad
      • Calculadora de contrastes de hipotesis
      • Calculadora de tamano del efecto
      • Simulador de Regresión Lineal con Ruido
      • Visualizador de PCA
      • Visualizador de Series Temporales
      • Simulador de Regresión Logística
      • Simulador de K-Means
      • Simulador de DBSCAN
      • Detector de la Ley de Benford
    • Probabilidad
      • Calculadora de Probabilidad de Distribuciones
      • Calculadora de Probabilidades de Lotería
      • Simulador del Problema de Monty Hall
      • Simulador de la Estrategia Martingala
    • Finanzas
      • Calculadora de Préstamos e Hipotecas
      • Conversor TIN ↔ TAE
      • Calculadora DCA con ajuste por inflación
      • Simulador FIRE (Financial Independence, Retire Early)
    • Herramientas
      • Formateador / Minificador de JSON
      • Comparador y Formateador de Texto y JSON
      • Formateador y Tester de Expresiones Regulares
      • Inspector de JWT
      • Generador y verificador de hashes
      • Codificador / Decodificador Base64 y URL
      • Conversor de bases numericas
      • Conversor de Timestamp Unix
      • Conversor de colores
      • Generador de UUIDs
    • Juegos
      • Tres en Raya
      • Nim con Q-Learning
    • Más
      • Método D’Hondt
      • Generador de Contraseñas Seguras
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • R
  • Excel

Probabilidades y tests: por qué un resultado positivo no significa lo que crees

febrero 19, 2026 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 6 minutos

Hoy en día es habitual someterse a múltiples pruebas o tests y, por tanto, recibir con frecuencia una confirmación como esta: «Tu test ha dado positivo». En ese momento, da igual el tipo de prueba: la detección de un contaminante, un sensor de seguridad o una prueba médica rutinaria. Nuestra atención se fija inmediatamente en esa palabra: positivo.

Y entonces la mente empieza a rellenar los huecos: «¿Significa esto que realmente tengo el problema? ¿Hasta qué punto puedo confiar en este resultado? ¿Puede estar equivocándose?»

Estos pensamientos son completamente normales. Vivimos rodeados de tests y sistemas de detección. No solo los que se realizan en laboratorios o centros de salud, sino también sensores que deciden si debe sonar una alarma, sistemas automáticos que clasifican paquetes, detectores de billetes falsos, filtros de spam en el correo electrónico, algoritmos que marcan una transacción como sospechosa o radares que detectan excesos de velocidad.

Todos estos sistemas tienen algo en común: se equivocan. Ninguno ofrece certezas del 100 %. Sin embargo, en nuestra vida cotidiana solemos interpretar sus resultados como si fueran definitivos: positivo igual a verdadero, negativo igual a falso.

La realidad, sin embargo, es mucho más compleja… y también más fascinante.

En esta entrada te guiaré por ese territorio. Veremos por qué un resultado no es un simple “sí” o “no”, qué factores influyen realmente en la fiabilidad de un test, cómo la prevalencia cambia por completo la interpretación de un resultado y por qué un sistema con un 99 % de precisión puede decirnos una cosa… aunque la realidad sea la contraria.

Nuevo simulador FIRE en el laboratorio de aplicaciones de Analytics Lane
En Analytics Lane
Nuevo simulador FIRE en el laboratorio de aplicaciones de Analytics Lane

Prepárate para descubrir cómo funcionan realmente los tests y, sobre todo, cómo interpretarlos sin caer en trampas intuitivas.

Tabla de contenidos

  • 1 El pensamiento intuitivo frente al pensamiento probabilístico
  • 2 Empecemos por lo básico: ¿qué errores puede cometer un test?
    • 2.1 Falso positivo (FP)
    • 2.2 Falso negativo (FN)
  • 3 Sensibilidad y especificidad: dos conceptos que se parecen, pero no son lo mismo
    • 3.1 Sensibilidad: detectar lo que realmente está ahí
    • 3.2 Especificidad: ignorar lo que no es un caso positivo
  • 4 La trampa intuitiva: creer que estos valores bastan
  • 5 Prevalencia: la reina silenciosa de los tests
    • 5.1 Ejemplo numérico 1: una condición muy rara (1 % de prevalencia)
    • 5.2 Ejemplo numérico 2: una condición más frecuente (10 % de prevalencia)
  • 6 Conclusión: los tests no dan certezas, dan información

El pensamiento intuitivo frente al pensamiento probabilístico

Nuestro cerebro no está diseñado para pensar en términos probabilísticos. Requiere entrenamiento y, aun así, incluso la intuición de un estadístico experimentado puede fallar. El cerebro prefiere historias simples: blanco o negro, sí o no, funciona o no funciona. Cuando vemos una luz roja en una máquina, asumimos que hay un fallo. Cuando una alarma no suena, damos por hecho que todo está bien.

La estadística, en cambio, habita en una zona gris. Habla de porcentajes, errores e incertidumbre. Puede resultar incómoda, pero también es liberadora: entender la naturaleza probabilística de los tests nos permite tomar mejores decisiones.

Aquí aparece una idea clave: no basta con conocer la precisión del test. También importa el contexto en el que se aplica. Y ahí entra en juego uno de los conceptos más importantes —y menos conocidos— para el público general: la prevalencia.

Antes de llegar a ella, necesitamos sentar las bases: falsos positivos, falsos negativos, sensibilidad y especificidad. No te preocupes: lo haremos de forma intuitiva.

Empecemos por lo básico: ¿qué errores puede cometer un test?

Cualquier prueba que clasifica algo como “positivo” o “negativo” puede equivocarse de dos maneras.

Publicidad


Falso positivo (FP)

El test dice “positivo”, pero la realidad dice “no”.

Ejemplos cotidianos:

  • Un detector de humo que se activa mientras cocinas.
  • Un filtro de spam que marca como sospechoso un correo legítimo.
  • Un sensor de vibración que dispara una alarma por un golpe accidental.

El problema aquí es que el test ve peligro donde no lo hay.

Falso negativo (FN)

El test dice “negativo”, pero la realidad dice “sí”.

Ejemplos:

  • Un detector de metales que deja pasar un objeto peligroso.
  • Una alarma que no se activa ante un fallo real.
  • Un sistema de control de calidad que no detecta una pieza defectuosa.

Este error suele ser más peligroso: no detectar algo que sí está presente.

Sensibilidad y especificidad: dos conceptos que se parecen, pero no son lo mismo

El error es algo inherente a cualquier proceso de medición o predicción. Siempre que intentamos clasificar, detectar o anticipar un fenómeno, existe la posibilidad de equivocarnos. Ahora bien, la probabilidad de que ese error ocurra no es aleatoria: depende directamente de las características del test que estemos utilizando.

En particular, hay dos conceptos fundamentales que determinan hasta qué punto un test es fiable y nos permiten anticipar cómo y cuándo puede fallar: la sensibilidad y la especificidad. Aunque estos términos suenen técnicos, en realidad son fáciles de comprender si pensamos con claridad qué mide cada uno y en qué situaciones entran en juego.

Publicidad


Sensibilidad: detectar lo que realmente está ahí

La sensibilidad mide la capacidad del test para detectar los casos reales.

Sensibilidad = Probabilidad de que el test dé positivo si la condición está presente.

En términos simples:

  • Alta sensibilidad → pocos falsos negativos.
  • Baja sensibilidad → muchos casos reales pasan desapercibidos.

Una analogía útil es la de un dispositivo que debe detectar objetos peligrosos en una cinta transportadora. Si este es muy sensible detectará casi todo. Puede ser algo exagerado, pero rara vez dejará pasar un objeto peligroso.

Especificidad: ignorar lo que no es un caso positivo

La especificidad mide la capacidad del test para no generar falsos positivos.

Especificidad = Probabilidad de que el test dé negativo si la condición NO está presente.

En palabras sencillas:

  • Alta especificidad → pocos falsos positivos.
  • Baja especificidad → muchas falsas alarmas.

Piensa en un detector de billetes falsos: si tiene buena especificidad, solo marcará como sospechosos los billetes realmente falsos y no “acusará” a billetes auténticos por pequeños defectos.

La trampa intuitiva: creer que estos valores bastan

Aquí aparece uno de los errores más comunes:

«Si un test tiene un 99 % de sensibilidad y un 99 % de especificidad, entonces un resultado positivo significa que tengo un 99 % de probabilidad de que sea cierto».

Esto no es correcto. De hecho, puede ser completamente falso. Falta una pieza clave: la frecuencia real del fenómeno, es decir, su prevalencia.

Publicidad


Prevalencia: la reina silenciosa de los tests

La prevalencia es la proporción real de casos en una población.

Por ejemplo:

  • Si solo 1 de cada 1.000 piezas es defectuosa, la prevalencia es del 0,1 %.
  • Si 10 de cada 100 semáforos fallan, la prevalencia es del 10 %.
  • Si un tipo de error aparece en el 0,5 % de las máquinas, esa es su prevalencia.

¿Por qué es tan importante? Porque determina cuántos casos reales existen antes de aplicar el test.

Aquí aparece una idea contraintuitiva:

Cuando la prevalencia es muy baja, incluso un test excelente puede generar tantos falsos positivos como verdaderos positivos.

Veámoslo con números.

Ejemplo numérico 1: una condición muy rara (1 % de prevalencia)

Supongamos una condición X que aparece en el 1 % de la población y un test con:

  • Sensibilidad: 99 %
  • Especificidad: 99 %

En una población de 10.000 personas:

  • Con la condición: 100
  • Sin la condición: 9.900

Resultados del test:

Entre quienes sí tienen la condición:

  • Verdaderos positivos: 99
  • Falsos negativos: 1

Entre quienes no la tienen:

  • Falsos positivos: 99
  • Verdaderos negativos: 9.801

Resultado final:

  • Positivos reales: 99
  • Positivos falsos: 99

La probabilidad real de que un positivo sea verdadero es del 50 %.

Ejemplo numérico 2: una condición más frecuente (10 % de prevalencia)

Ahora la condición aparece en el 10 %:

  • Con la condición: 1000
  • Sin la condición: 9000

Resultados:

  • Verdaderos positivos: 990
  • Falsos negativos: 10
  • Falsos positivos: 90

Ahora, de 1080 positivos totales:

  • 990 son reales

La probabilidad de que un positivo sea verdadero es aproximadamente del 91,7 %.

Publicidad


Conclusión: los tests no dan certezas, dan información

Los tests son linternas que iluminan la realidad, pero no la muestran completa. Un resultado positivo no equivale a un diagnóstico, ni uno negativo garantiza seguridad absoluta.

Interpretar correctamente un test requiere entender qué sabíamos antes de realizarlo.

Aceptar que vivimos en un mundo probabilístico no nos debilita: nos permite tomar decisiones más razonables, más informadas y, en última instancia, más humanas.

Nota: Las imágenes de este artículo fueron generadas utilizando un modelo de inteligencia artificial.

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 0 / 5. Votos emitidos: 0

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • Nuevo simulador FIRE en el laboratorio de aplicaciones de Analytics Lane
  • Nueva calculadora de préstamos e hipotecas en el laboratorio de aplicaciones de Analytics Lane
  • Hardening avanzado de NGINX: CSP, OCSP Stapling y defensa en profundidad
  • Nuevo generador y verificador de hashes en el laboratorio de aplicaciones de Analytics Lane
  • Nueva simulación de la estrategia Martingala en ruleta en el laboratorio de aplicaciones de Analytics Lane
  • Exactitud, precisión, recall… y los errores que cometemos al interpretarlas en proyectos reales
  • Nuevo simulador del problema de Monty Hall en el laboratorio de aplicaciones de Analytics Lane
  • Nuevo simulador interactivo de K-Means en el laboratorio de aplicaciones de Analytics Lane
  • Por qué los chatbots de inteligencia artificial parecen estar siempre de acuerdo contigo – Conversar con una inteligencia artificial – Parte I

Publicado en: Opinión Etiquetado como: Estadística

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Nueva herramienta: Comparador y Formateador de Texto y JSON en el laboratorio de Analytics Lane

abril 21, 2026 Por Daniel Rodríguez

Chatbots vs redes sociales: la diferencia clave entre la inteligencia artificial y los algoritmos de recomendación – Conversar con una inteligencia artificial – Parte II

abril 21, 2026 Por Daniel Rodríguez

Nueva Calculadora de Estadísticos Descriptivos en el laboratorio de aplicaciones de Analytics Lane

abril 20, 2026 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Buscar en Excel con dos o más criterios publicado el septiembre 7, 2022 | en Herramientas
  • Gráfica con los datos y las anomalías detectadas con OneClass SVM One-Class SVM: Detección de anomalías con máquinas de vector soporte publicado el marzo 15, 2024 | en Ciencia de datos
  • Nueva herramienta: Comparador y Formateador de Texto y JSON en el laboratorio de Analytics Lane publicado el abril 21, 2026 | en Noticias
  • Método del codo (Elbow method) para seleccionar el número óptimo de clústeres en K-means publicado el junio 9, 2023 | en Ciencia de datos
  • Cómo desinstalar Oracle Database 19c en Windows publicado el noviembre 25, 2022 | en Herramientas

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.9 (11)

Pandas: Cambiar los tipos de datos en los DataFrames

Comentarios recientes

  • M. Pilar en Cómo eliminar las noticias en Windows 11 y recuperar tu concentración
  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2026 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto