Ciencia de datos

¿Qué es el Aprendizaje Automático?

El Aprendizaje Automático es el área de la Inteligencia Artificial cuyo objetivo es desarrollar técnicas que permitan a los ordenadores aprender patrones a partir de conjuntos de datos sin la necesidad de programar estos explícitamente.

Introducción al aprendizaje automático

La utilización del aprendizaje automático representa un cambio frente al desarrollo clásico de programas. En un desarrollo clásico el programador conoce las reglas que se han de aplicar a los datos para obtener las respuestas. Siendo su trabajo implementar estos algoritmos, como se muestra en el siguiente esquema.

Por otro lado, en aprendizaje automático se comienza con conjuntos de datos de ejemplo, los cuales pueden contener o no la respuesta esperada, para obtener los patrones que se ocultan en ellos. Una vez descubiertos se pueden utilizar para tomar mejores decisiones en el futuro. El objetivo principal es permitir que los ordenadores puedas aprender automáticamente sin intervención humana o asistencia. Ajustando sus acciones en consecuencia. El esquema del aprendizaje automático se muestra en el siguiente esquema.

Los algoritmos de aprendizaje automático se clasifican generalmente en dos categorías: el aprendizaje supervisado y el aprendizaje no supervisado.

Algoritmos de aprendizaje supervisado

En los algoritmos de aprendizaje supervisado el entrenamiento se realiza utilizando conjuntos de datos etiquetados con la respuesta que se desea predecir. El objetivo del algoritmo es inducir las reglas con las que se consiguen los resultados esperados en el conjunto de datos de entrenamiento. Las reglas inferidas se pueden utilizar posteriormente en nuevos conjuntos de datos para realizar predicciones. El algoritmo también puede comparar los resultados de las reglas con los valores correctos para identificar los errores y modificar las reglas en consecuencia.

Algoritmos de aprendizaje no supervisado

Por el contrario, los algoritmos de aprendizaje no supervisado se utilizan cuando los conjuntos de datos utilizados en el entrenamiento no contienen una etiqueta con la respuesta que se desea predecir. Es decir, el aprendizaje no supervisado estudia cómo inferir reglas para describir las estructuras ocultas a partir de datos no etiquetados. En estos casos los algoritmos no encuentran un resultado correcto, ya que no existe. Pero analizan los datos para descubrir las estructuras ocultas que se ocultan en los datos.

Existen otros algoritmos en los que se utilizan conjuntos de datos etiquetados y no etiquetados para el entrenamiento. Estos son los algoritmos de aprendizaje semi-supervisado que se ubican en un punto intermedio entre los dos anteriores. La utilización de estos métodos puede mejorar considerablemente la precisión de aprendizaje. Por lo general, el aprendizaje semi-supervisado se emplea cuando el etiquetado de los datos requiere un esfuerzo adicional a la obtención de los datos sin etiquetar.

Algoritmos de aprendizaje por refuerzo

El aprendizaje por refuerzo son algoritmos de aprendizaje que interactúa con su entorno realizando acciones y recibiendo recompensas o castigos. La búsqueda de las soluciones mediante prueba y error y la recompensa son las características más relevantes del aprendizaje de refuerzo. Estos algoritmos permiten que las maquinas determinen automáticamente las acciones que permiten maximizar la función de utilizada, la recompensa, en un entorno especifico. Para ello es necesario una retroalimentación mediante recompensas para que el algoritmo puede identificar las mejores selecciones.

Los algoritmos de aprendizaje por refuerzo son no supervisados, ya que los datos utilizados en el entrenamiento no se encuentran etiquetados.

Conclusiones

Los algoritmos de aprendizaje automático permiten que los ordenadores puedan obtener reglas a partir de conjuntos de datos de conjuntos de datos. En esta entrada se ha visto lo qué es el aprendizaje automático y las principales clases de algoritmo que se utilizan en ellos.

¿Te ha parecido de utilidad el contenido?

Daniel Rodríguez

Share
Published by
Daniel Rodríguez

Recent Posts

Curiosidad: ¿Por qué usamos p < 0.05? Un umbral que cambió la historia de la ciencia

En casi cualquier análisis estadístico —ya sea en medicina, psicología, economía o ciencia de datos—…

4 días ago

¿Está concentrado el MSCI World? Un análisis con Gini, Lorenz y leyes de potencia

El MSCI World Index suele presentarse como “la ventana al mundo” para quienes invierten en…

6 días ago

Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo

En el mundo del análisis de datos solemos escuchar una idea poderosa: cuantos más datos,…

2 semanas ago

Error npm ERR! code EACCES al instalar paquetes en Node.js: Cómo solucionarlo paso a paso

¿Te has encontrado con este error al intentar instalar paquetes con npm? npm ERR! code…

2 semanas ago

Curiosidad: La Paradoja de Simpson, o por qué no siempre debes fiarte de los promedios

En ciencia de datos y estadística, los promedios y porcentajes son herramientas fundamentales para resumir…

3 semanas ago

Copias de seguridad automáticas en SQL Server con rotación de archivos

Las bases de datos son el corazón de casi cualquier sistema de información moderno. Ya…

3 semanas ago

This website uses cookies.