En dos artículos anteriores hemos intentado explicar qué mide cada métrica de clasificación desde una perspectiva conceptual e intuitiva y cuál deberíamos usar para el problema que queremos resolver en cada caso, viendo a qué pregunta responde cada una de las métricas. En concreto, se han visto los siguientes puntos:Como se puede apreciar, son preguntas distintas. Y, por … [Leer más...] acerca de Exactitud, precisión, recall… y los errores que cometemos al interpretarlas en proyectos reales
Machine learning
Machine Learning (Aprendizaje Automático o Aprendizaje Máquina) es la rama de la inteligencia artificial que estudia cómo construir sistemas que puedan aprender automáticamente de la experiencia. Esto es, sistemas que puedan realizar mejores predicciones o tomar mejores decisiones a medida que aumenta su experiencia.
Los algoritmos de Machine Learning se dividen en tres categorías en función de los datos utilizados: aprendizaje supervisado, aprendizaje no supervisado y aprendizaje por refuerzo. En aprendizaje supervisado se utilizan conjuntos de datos, durante el proceso de entrenamiento, en los que se conoce el valor que debe reproducir el modelo. Pudiéndose medir el desempeño de los modelos en base a lo bien que reproduce posteriormente estos valores en otros conjuntos de datos. Tal como se puede intuir del nombre, en el caso de aprendizaje no supervisado, no se busca que los modelos reproducen un valor concreto. Siendo el objetivo de estos modelos identificar patrones que permitan separar y clasificar los datos en diferentes grupos. Por otro lado, en aprendizaje por refuerzo se busca la creación de agentes que pueden realizar acciones sobre un entorno. Siendo este un aprendizaje completamente diferente a los dos anteriores.
¿Qué métrica deberías mirar: exactitud, precisión o recall? Elegir bien empieza por entender el problema
En una entrada anterior vimos que no existen métricas buenas o malas para los modelos de clasificación, sino preguntas mal planteadas. Cada métrica mide algo distinto: el promedio de aciertos, la fiabilidad al predecir, la capacidad para no dejar escapar casos importantes…Pero, una vez entendido eso, a la hora de evaluar un modelo de clasificación, surge la siguiente … [Leer más...] acerca de ¿Qué métrica deberías mirar: exactitud, precisión o recall? Elegir bien empieza por entender el problema
Exactitud, precisión, recall… qué mide realmente cada métrica (y qué no)
Cuando empezamos a trabajar con modelos de clasificación, una de las primeras cosas que aprendemos es a evaluarlos. Necesitamos saber qué bien funcionan. Y casi siempre lo hacemos mirando números. Porcentajes. Métricas con nombres que suenan técnicos y fiables: exactitud, precisión, recall, F1…Pero aquí surge un problema: no el uso de métricas, sino creer que todas miden lo … [Leer más...] acerca de Exactitud, precisión, recall… qué mide realmente cada métrica (y qué no)
Inteligencia artificial generativa en seguros: Cinco aplicaciones que están transformando la industria
La inteligencia artificial generativa se está posicionando como una tecnología clave para redefinir el futuro de múltiples sectores, incluyendo el de los seguros. Esta tecnología no solo permite rediseñar procesos, sino que también mejora la experiencia del cliente y aumenta la eficiencia operativa.A diferencia de la inteligencia artificial tradicional (Machine Learning), … [Leer más...] acerca de Inteligencia artificial generativa en seguros: Cinco aplicaciones que están transformando la industria
Selección del número de componentes principales mediante el Método de Reconstrucción del Error
En el análisis de componentes principales (PCA), disponer de un método para identificar el número óptimo de componentes principales es fundamental para reducir el número de elementos sin perder información. Una forma intuitiva y práctica de hacer esto es mediante el Método de Reconstrucción del Error. Bajo este enfoque, en primer lugar, se debe cuantificar la pérdida de … [Leer más...] acerca de Selección del número de componentes principales mediante el Método de Reconstrucción del Error
Introducción a Quantum k-Means: Computación cuántica al servicio del clustering
El clustering es una técnica fundamental tanto en el análisis de datos como en el machine learning, ya que permite agrupar datos en categorías basadas en similitudes. Entre los algoritmos más utilizados, destaca el k-Means, una opción ampliamente adoptada debido a su simplicidad y eficacia. Sin embargo, a medida que crece el volumen de los datos y aumenta la complejidad de las … [Leer más...] acerca de Introducción a Quantum k-Means: Computación cuántica al servicio del clustering
Cómo determinar el número de componentes en PCA usando el Criterio de Kaiser
El análisis de componentes principales (PCA, por sus siglas en inglés) es una de las herramientas más populares para reducir la dimensionalidad de los conjuntos de datos. Sin embargo, uno de los mayores desafíos al trabajar con PCA es decidir cuántos componentes principales conservar para capturar la mayor cantidad de información posible sin incluir ruido innecesario. Una … [Leer más...] acerca de Cómo determinar el número de componentes en PCA usando el Criterio de Kaiser
Procesadores cuánticos en Machine Learning e Inteligencia Artificial: Transformando el futuro de la tecnología
La computación cuántica es uno de los campos de estudio con mayor potencial para revolucionar la ciencia de la computación, especialmente al permitir abordar problemas que los ordenadores actuales no pueden resolver en tiempo razonable. Los procesadores cuánticos están llamados a una nueva era dentro del campo de la computación. Pero ¿qué hace que esta tecnología sea tan … [Leer más...] acerca de Procesadores cuánticos en Machine Learning e Inteligencia Artificial: Transformando el futuro de la tecnología
DeepSeek y la revolución en el entrenamiento de IA: ¿El fin del dominio de Nvidia?
En los últimos años, el desarrollo de modelos de inteligencia artificial ha estado fuertemente condicionado por la necesidad de contar con enormes capacidades de cálculo. Esto ha posicionado a las GPUs de Nvidia como un recurso esencial para cualquier empresa que desee desarrollar modelos avanzados. Sin embargo, esta dependencia del hardware de alta gama ha representado una … [Leer más...] acerca de DeepSeek y la revolución en el entrenamiento de IA: ¿El fin del dominio de Nvidia?
Cómo determinar el número de componentes en PCA usando la varianza explicada acumulada
El análisis de componentes principales (PCA, por sus siglas en inglés) es una técnica ampliamente utilizada para reducir la dimensionalidad en conjuntos de datos. Una de las decisiones clave al aplicar PCA es determinar el número de componentes que se deben seleccionar, logrando un equilibrio entre capturar la mayor cantidad de información posible y evitar redundancias … [Leer más...] acerca de Cómo determinar el número de componentes en PCA usando la varianza explicada acumulada
Ordenadores para Machine Learning e IA 2025: Guía para elegir el equipo ideal
Elegir el equipo adecuado para proyectos de Machine Learning e Inteligencia Artificial (IA) es un factor clave para alcanzar los objetivos propuestos. Tanto si estás dando tus primeros pasos en este campo, investigando nuevas fronteras tecnológicas, como si simplemente disfrutas explorando estas herramientas por hobby, contar con hardware adecuado puede marcar la diferencia. … [Leer más...] acerca de Ordenadores para Machine Learning e IA 2025: Guía para elegir el equipo ideal
Inteligencia artificial generativa en banca: Cinco aplicaciones que están transformando el sector bancario
La revolución tecnológica impulsada por la inteligencia artificial (IA) está remodelando industrias enteras, y el sector bancario no es una excepción. En el corazón de esta transformación se encuentran los Modelos Avanzados de Lenguaje (LLM, por sus siglas en inglés, Large Language Models). Estas herramientas, como GPT (Generative Pre-trained Transformer), representan una … [Leer más...] acerca de Inteligencia artificial generativa en banca: Cinco aplicaciones que están transformando el sector bancario











