• Saltar al contenido principal
  • Skip to secondary menu
  • Saltar a la barra lateral principal
  • Saltar al pie de página
  • Inicio
  • Secciones
    • Ciencia de datos
    • Criptografía
    • Herramientas
    • Machine Learning
    • Noticias
    • Opinión
    • Productividad
    • Programación
      • JavaScript
      • Julia
      • Matlab
      • Python
      • R
  • Programación
    • JavaScript
    • Julia
    • Matlab
    • Python
    • R
  • Laboratorio
    • Estadística
      • Calculadora del Tamaño Muestral en Encuestas
      • Calculadora de estadísticos descriptivos
      • Test de normalidad
      • Calculadora de contrastes de hipotesis
      • Calculadora de tamano del efecto
      • Simulador de Regresión Lineal con Ruido
      • Visualizador de PCA
      • Visualizador de Series Temporales
      • Simulador de Regresión Logística
      • Simulador de K-Means
      • Simulador de DBSCAN
      • Detector de la Ley de Benford
    • Probabilidad
      • Calculadora de Probabilidad de Distribuciones
      • Calculadora de Probabilidades de Lotería
      • Simulador del Problema de Monty Hall
      • Simulador de la Estrategia Martingala
    • Finanzas
      • Calculadora de Préstamos e Hipotecas
      • Conversor TIN ↔ TAE
      • Calculadora DCA con ajuste por inflación
      • Simulador FIRE (Financial Independence, Retire Early)
    • Herramientas
      • Formateador / Minificador de JSON
      • Comparador y Formateador de Texto y JSON
      • Formateador y Tester de Expresiones Regulares
      • Inspector de JWT
      • Generador y verificador de hashes
      • Codificador / Decodificador Base64 y URL
      • Conversor de bases numericas
      • Conversor de Timestamp Unix
      • Conversor de colores
      • Generador de UUIDs
    • Juegos
      • Tres en Raya
      • Nim con Q-Learning
    • Más
      • Método D’Hondt
      • Generador de Contraseñas Seguras
  • Noticias
  • Boletín
  • Contacto
  • Tienda
    • Libros
    • Equipamiento de oficina
    • Equipamiento en movilidad

Analytics Lane

Ciencia e ingeniería de datos aplicada

  • Ciencia de datos
  • Machine Learning
  • IA Generativa
  • Python
  • Pandas
  • NumPy
  • R
  • Excel

Exactitud, precisión, recall… qué mide realmente cada métrica (y qué no)

marzo 3, 2026 Por Daniel Rodríguez Deja un comentario
Tiempo de lectura: 6 minutos

Cuando empezamos a trabajar con modelos de clasificación, una de las primeras cosas que aprendemos es a evaluarlos. Necesitamos saber qué bien funcionan. Y casi siempre lo hacemos mirando números. Porcentajes. Métricas con nombres que suenan técnicos y fiables: exactitud, precisión, recall, F1…

Pero aquí surge un problema: no el uso de métricas, sino creer que todas miden lo mismo o, peor aún, que con una sola se puede resumir si un modelo “funciona bien”. Para comprender por qué esta forma de pensar es un error, hay que dar un paso atrás y hacerse una pregunta mucho más simple:

¿Qué está midiendo exactamente cada métrica?

No cómo se calcula. No qué valor es “bueno” para cada una. Sino qué aspecto del comportamiento del modelo está observando. Porque cada métrica mira el mismo problema desde un ángulo distinto. Y si no sabemos qué ángulo es ese, es muy fácil interpretar mal el resultado.

Tabla de contenidos

  • 1 Antes de empezar: clasificar no es solo acertar o fallar
  • 2 Exactitud (accuracy): cuánto se acierta en promedio
    • 2.1 Qué hace bien la exactitud
    • 2.2 Qué no mide la exactitud
  • 3 Precisión: cuando digo “sí”, ¿puedes confiar en mí?
    • 3.1 Cómo pensar la precisión de forma intuitiva
    • 3.2 Qué no mide la precisión
  • 4 Recall (sensibilidad): ¿se me escapa algo importante?
    • 4.1 Una forma intuitiva de entender el recall
    • 4.2 Qué no mide el recall
  • 5 Precisión y recall: dos miradas sobre el mismo problema
  • 6 F1-score: una visión combinada
    • 6.1 Qué no mide el F1-score
  • 7 Otras métricas: mirar el comportamiento global
  • 8 Una idea clave para el lector: las métricas no compiten
  • 9 Conclusiones: entender qué mide cada métrica es entender el modelo

Antes de empezar: clasificar no es solo acertar o fallar

Cuando un modelo de clasificación toma una decisión, no solo puede acertar o equivocarse. Puede equivocarse y acertar de formas distintas. Por ejemplo, en un modelo de clasificación binario, al decidir si algo es “positivo” o “negativo”:

  • puede decir que algo es positivo cuando realmente lo es
  • puede decir que algo es negativo cuando realmente lo es
  • puede marcar como positivo algo que no lo era
  • o puede dejar pasar algo que sí era positivo

Estas cuatro posibilidades no tienen el mismo impacto en el rendimiento del modelo. Por ejemplo, dejar pasar una operación fraudulenta no tiene el mismo impacto que marcar una operación legítima como fraudulenta. Y las métricas no tratan igual estos casos. Cada métrica decide a qué tipo de acierto o error presta atención… y a cuáles no.

Nuevo simulador FIRE en el laboratorio de aplicaciones de Analytics Lane
En Analytics Lane
Nuevo simulador FIRE en el laboratorio de aplicaciones de Analytics Lane

Exactitud (accuracy): cuánto se acierta en promedio

La exactitud es la métrica más intuitiva y, normalmente, la primera que se aprende.

Conceptualmente responde a esta pregunta:

De todas las decisiones que he tomado, ¿en cuántas he acertado?

No distingue entre tipos de acierto. No distingue entre tipos de error. Solo cuenta cuántas veces el modelo ha acertado en total.

Si el modelo toma 100 decisiones y acierta 90, su exactitud es del 90 %. Tan simple como eso.

Publicidad


Qué hace bien la exactitud

La exactitud es útil cuando:

  • todas las clases (los valores positivos y negativos) tienen un peso similar
  • equivocarse en un tipo u otro de error cuesta más o menos lo mismo
  • el problema está equilibrado

En estos casos, mirar el promedio tiene sentido. El número refleja razonablemente bien el comportamiento global del modelo.

Qué no mide la exactitud

La exactitud no responde a preguntas como:

  • ¿detecta bien los positivos?
  • ¿detecta bien los negativos?
  • ¿qué tipo de errores comete más?
  • ¿en qué casos falla?

Dos modelos con la misma exactitud pueden comportarse de forma radicalmente distinta. Uno puede fallar siempre en los casos importantes y otro no.

La exactitud solo dice “acierto mucho en general”, pero no dice dónde ni cómo.

Precisión: cuando digo “sí”, ¿puedes confiar en mí?

La precisión cambia completamente el punto de vista. Ya no mira todas las decisiones, sino solo aquellas en las que el modelo afirma algo.

La pregunta que responde es:

De todas las veces que he dicho que algo es positivo, ¿cuántas veces era verdad?

Es una métrica centrada en la fiabilidad de las predicciones positivas.

Publicidad


Cómo pensar la precisión de forma intuitiva

Imagina un detector de incendios. Cada vez que suena, te preguntas:

“Cuando suena la alarma, ¿realmente suele haber fuego?”

Si la respuesta es “casi siempre”, la precisión es alta. Si la mayoría de las alarmas son falsas, la precisión es baja.

La precisión no se preocupa por las veces que el modelo identifica un caso como positivo. Solo evalúa qué pasa cuando lo marca.

Qué no mide la precisión

La precisión no responde a:

  • ¿cuántos casos importantes se me escapan?
  • ¿cuántas veces debería haber avisado y no lo hice?
  • ¿cuántos positivos reales detecté?

Un modelo puede tener una precisión altísima simplemente porque predice muy pocas veces. Puede ser muy cuidadoso, muy conservador, y aun así dejar pasar muchos casos relevantes.

La precisión mide confianza, no cobertura.

Recall (sensibilidad): ¿se me escapa algo importante?

El recall observa el problema desde el lado opuesto. En lugar de fijarse en lo que el modelo predice, se fija en la realidad.

La pregunta que responde es:

De todos los casos que realmente eran positivos, ¿cuántos he conseguido detectar?

Es una métrica centrada en la capacidad de no dejar pasar lo importante.

Publicidad


Una forma intuitiva de entender el recall

Piensa en un filtro de seguridad en un aeropuerto. El recall responde a esta pregunta:

“De todas las amenazas reales que existían, ¿cuántas he detectado?”

Un recall alto significa que casi ninguna amenaza pasa desapercibida. Un recall bajo significa que muchas pasan sin ser detectadas.

Qué no mide el recall

El recall no responde a:

  • ¿cuántas falsas alarmas genero?
  • ¿cuántas veces me equivoco cuando aviso?
  • ¿es molesto o ruidoso el sistema?

Un sistema puede tener un recall excelente y, al mismo tiempo, ser poco fiable o generar demasiadas alertas. El recall solo se preocupa por no perder positivos, no por lo que cuesta detectarlos.

Precisión y recall: dos miradas sobre el mismo problema

Aquí aparece una idea clave para entender estas métricas:

  • la precisión mira las predicciones
  • el recall mira la realidad

No son opuestas, pero tampoco intercambiables. Cada una responde a una pregunta distinta.

Un modelo puede:

  • detectar casi todos los positivos (alto recall)
  • pero equivocarse mucho cuando lo hace (baja precisión)

O al revés:

  • equivocarse muy poco cuando predice (alta precisión)
  • pero detectar solo unos pocos casos (bajo recall)

Ninguna de estas métricas es “mejor” por sí misma. Simplemente observan cosas distintas.

Al observar cosas distintas, lo normal es que, si modificamos un modelo para mejorar la precisión, esto afecte negativamente al recall, y viceversa.

Publicidad


F1-score: una visión combinada

El F1-score intenta resumir en un solo número el comportamiento del modelo respecto a precisión y recall.

Conceptualmente responde a algo así como:

¿Cómo de bien equilibro no equivocarme cuando predigo y no dejar pasar positivos importantes?

Es útil cuando:

  • precisión y recall importan de forma similar
  • se necesita una visión resumida
  • se comparan modelos de forma rápida

Pero es importante recordar qué hace y qué no.

Qué no mide el F1-score

El F1-score no explica:

  • si el problema es que falla más por exceso o por defecto
  • qué tipo de error es más frecuente
  • si ese equilibrio es realmente el deseado

Al combinar métricas, se pierde detalle. El F1 no sustituye a entender precisión y recall; solo las resume.

Otras métricas: mirar el comportamiento global

Existen métricas como el AUC o las curvas ROC que observan el modelo de forma más global, analizando cómo se comporta bajo distintos criterios de decisión.

Conceptualmente, estas métricas responden a preguntas como:

¿Qué capacidad tiene el modelo para separar positivos de negativos, en general?

Son útiles para comparar modelos, pero no describen directamente cómo se comporta uno concreto en un uso real, donde siempre hay que tomar decisiones concretas.

Publicidad


Una idea clave para el lector: las métricas no compiten

Un error muy habitual es pensar que las métricas compiten entre sí, como si una tuviera que ganar.

En realidad:

  • la exactitud mira el promedio
  • la precisión mira la fiabilidad
  • el recall mira la cobertura
  • el F1 mira el equilibrio

No están diseñadas para decir lo mismo. Están diseñadas para contar historias distintas sobre el mismo modelo.

Conclusiones: entender qué mide cada métrica es entender el modelo

Las métricas no son buenas ni malas. No son trampas ni soluciones mágicas. Son herramientas de observación.

El problema aparece cuando miramos una métrica esperando que nos responda a una pregunta distinta de aquella para la que fue creada.

Entender un modelo no empieza por calcular métricas, sino por saber qué queremos saber de él. Y para eso, comprender qué mide cada métrica de forma conceptual es mucho más importante que memorizar fórmulas.

Porque, al final, medir bien no es cuestión de números. Es cuestión de hacer la pregunta correcta.

Nota: La imágenes de este artículo fueron generadas utilizando un modelo de inteligencia artificial.

¿Te ha parecido de utilidad el contenido?

¡Puntúalo entre una y cinco estrellas!

Puntuación promedio 5 / 5. Votos emitidos: 1

Ya que has encontrado útil este contenido...

¡Síguenos en redes sociales!

¡Siento que este contenido no te haya sido útil!

¡Déjame mejorar este contenido!

Dime, ¿cómo puedo mejorar este contenido?

Publicaciones relacionadas

  • Nuevo simulador FIRE en el laboratorio de aplicaciones de Analytics Lane
  • Nueva calculadora de préstamos e hipotecas en el laboratorio de aplicaciones de Analytics Lane
  • Hardening avanzado de NGINX: CSP, OCSP Stapling y defensa en profundidad
  • Nuevo generador y verificador de hashes en el laboratorio de aplicaciones de Analytics Lane
  • Nueva simulación de la estrategia Martingala en ruleta en el laboratorio de aplicaciones de Analytics Lane
  • Exactitud, precisión, recall… y los errores que cometemos al interpretarlas en proyectos reales
  • Nuevo simulador del problema de Monty Hall en el laboratorio de aplicaciones de Analytics Lane
  • Nuevo simulador interactivo de K-Means en el laboratorio de aplicaciones de Analytics Lane
  • Por qué los chatbots de inteligencia artificial parecen estar siempre de acuerdo contigo – Conversar con una inteligencia artificial – Parte I

Publicado en: Ciencia de datos Etiquetado como: Machine learning

Interacciones con los lectores

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

I accept the Terms and Conditions and the Privacy Policy

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Barra lateral principal

Suscríbete a nuestro boletín

Suscríbete al boletín semanal para estar al día de todas las publicaciones.

Política de Privacidad

Analytics Lane en redes sociales

  • Amazon
  • Bluesky
  • Facebook
  • GitHub
  • Instagram
  • Mastodon
  • Pinterest
  • RSS
  • Telegram
  • Tumblr
  • Twitter
  • YouTube

Publicidad

Entradas recientes

Nueva herramienta: Comparador y Formateador de Texto y JSON en el laboratorio de Analytics Lane

abril 21, 2026 Por Daniel Rodríguez

Chatbots vs redes sociales: la diferencia clave entre la inteligencia artificial y los algoritmos de recomendación – Conversar con una inteligencia artificial – Parte II

abril 21, 2026 Por Daniel Rodríguez

Nueva Calculadora de Estadísticos Descriptivos en el laboratorio de aplicaciones de Analytics Lane

abril 20, 2026 Por Daniel Rodríguez

Publicidad

Es tendencia

  • Gráficos de barras en Matplotlib publicado el julio 5, 2022 | en Python
  • Buscar en Excel con dos o más criterios publicado el septiembre 7, 2022 | en Herramientas
  • Excel en Python Guardar y leer archivos Excel en Python publicado el julio 30, 2018 | en Python
  • La similitud de Jaro–Winkler publicado el junio 24, 2020 | en Ciencia de datos, R
  • Copiar y pegar Activar copiar y pegar en VirtualBox publicado el mayo 1, 2019 | en Herramientas

Publicidad

Lo mejor valorado

4.9 (24)

Seleccionar filas y columnas en Pandas con iloc y loc

4.6 (16)

Archivos JSON con Python: lectura y escritura

4.4 (14)

Ordenación de diccionarios en Python mediante clave o valor

4.7 (13)

Operaciones de filtrado de DataFrame con Pandas en base a los valores de las columnas

4.9 (11)

Pandas: Cambiar los tipos de datos en los DataFrames

Comentarios recientes

  • M. Pilar en Cómo eliminar las noticias en Windows 11 y recuperar tu concentración
  • Daniel Rodríguez en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • Pepe en Probabilidad básica: cómo entender el azar en nuestra vida diaria
  • CARLOS ARETURO BELLO CACERES en Justicio: La herramienta gratuita de IA para consultas legales
  • Piera en Ecuaciones multilínea en Markdown

Publicidad


Footer

Analytics Lane

  • Acerca de Analytics Lane
  • Boletín de noticias
  • Contacto
  • Libros
  • Lo más popular
  • Noticias
  • Tienda
  • Tiendas afiliadas

Secciones

  • Ciencia de datos
  • Criptografía
  • Herramientas
  • Machine Learning
  • Opinión
  • Productividad
  • Programación
  • Reseñas

Sobre de Analytics Lane

En Analytics Lane tratamos de explicar los principales conceptos de la ciencia e ingeniería de datos con un enfoque práctico. Los principales temas tratados son ciencia de datos, ingeniería de datos, inteligencia artificial, machine learning, deep learning y criptografía. Además, también se habla de los principales lenguajes de programación y herramientas utilizadas por los científicos e ingenieros de datos.

Copyright © 2018-2026 Analytics Lane ·Términos y condiciones ·Política de Cookies ·Política de Privacidad ·Herramientas de privacidad ·Contacto