Ciencia de datos

Regresión de Vectores de Soporte (SVR, Support Vector Regression)

La Regresión de Vectores de Soporte (SVR, del inglés Support Vector Regression) es un algoritmo de regresión basado en los mismos algoritmos que usan las Máquinas de Vectores de Soporte (SVM, del inglés Support Vector Machines) para la creación de modelos de clasificación. Aunque existen algunas diferencias debido a que la salida de una regresión es un valor real y no una etiqueta. Lo que hace que sea muy difícil predecir los valores objetivos. En el caso de una regresión existen infinitas posibilidades, frente al número limitado existentes en los problemas de clasificación.

SVR se puede emplear tanto en regresiones lineales como no lineales.

Regresión de vectores de soporte

Mientras que en la regresión lineal se busca minimizar una función de error, generalmente el error cuadrático, en todos los puntos del conjunto de entrenamiento, en la SVR se define una zona en torno al hiperplano donde se ignora los errores. Lo que significa que en SVR se busca aproximar el mejor valor dentro de un margen dado por ε, tal como se muestra en la siguiente figura.

Funcionamiento básico de la regresión de vectores de soporte (SVR)

Para comprender esta figura es necesario conocer algunos de los conceptos usados como kernel, hiperplano, líneas limítrofes y vector de soporte.

Kernel

En SVR, la regresión se realiza en una dimensión superior. La función de kernel es con la que es posible realizar esta transformación, asignar los puntos de un conjunto de datos de menor dimensión a otro de mayor. Facilitando la búsqueda de un hiperplano en un espacio de mayor dimensión al mismo tiempo que reduce el costo de computación.

Algunos de los tipos de función de kernel utilizado en SVR son Sigmoidal, Polinomico, Gaussiano, etc.

Hiperplano

En los modelos de clasificación SVM los hiperplanos son las líneas empleadas para separar los conjuntos de datos en clases. Aunque, en el caso de SVR, los hiperplanos son las líneas ayudan a predecir el valor objetivo.

Líneas limítrofes

Las líneas limítrofes son las dos líneas que se han dibujado alrededor del hiperplano a una distancia ε. Introduciendo una zona alrededor de la función de kernel, a la que se conoce como tubo, en la que la predicción se considera correcta. Por lo que no se tiene en cuenta los errores de predicción que se comente en esta zona.

Vector de soporte

El vector de soporte es el objeto que se usa para definir el hiperplano.

Conclusión

La Regresión de Vectores de Soporte (SVR, Support Vector Regression) es un algoritmo de regresión que funciona de forma eficiente con conjuntos de datos limitados.

Imagen de Larisa Koshkina en Pixabay

¿Te ha parecido de utilidad el contenido?

Daniel Rodríguez

Share
Published by
Daniel Rodríguez

Recent Posts

Curiosidad: ¿Por qué usamos p < 0.05? Un umbral que cambió la historia de la ciencia

En casi cualquier análisis estadístico —ya sea en medicina, psicología, economía o ciencia de datos—…

3 días ago

¿Está concentrado el MSCI World? Un análisis con Gini, Lorenz y leyes de potencia

El MSCI World Index suele presentarse como “la ventana al mundo” para quienes invierten en…

5 días ago

Curiosidad: La maldición de la dimensionalidad, o por qué añadir más datos puede empeorar tu modelo

En el mundo del análisis de datos solemos escuchar una idea poderosa: cuantos más datos,…

1 semana ago

Error npm ERR! code EACCES al instalar paquetes en Node.js: Cómo solucionarlo paso a paso

¿Te has encontrado con este error al intentar instalar paquetes con npm? npm ERR! code…

2 semanas ago

Curiosidad: La Paradoja de Simpson, o por qué no siempre debes fiarte de los promedios

En ciencia de datos y estadística, los promedios y porcentajes son herramientas fundamentales para resumir…

2 semanas ago

Copias de seguridad automáticas en SQL Server con rotación de archivos

Las bases de datos son el corazón de casi cualquier sistema de información moderno. Ya…

3 semanas ago

This website uses cookies.