Práctica 2 | Fundamentos Teóricos: SVM

Contenido:

  • 1 El límite de decisión más simple: Problemas linealmente separables - Video Series
  • 2 Cómo construye el límite de decisión un máquina de vectores de soporte - Video Series
  • 3 El truco del Kernel: Problemas no separables linealmente - Video Series
  • 4 Puntos importantes sobre máquinas de vectores de soporte - Video


Tiempo aproximado: 15 min



Introducción


Al límite de decisión también se le conoce como superficie de decisión.

Veamos cómo construye el límite de decisión un clasificador basado en máquinas de vectores de soporte.

1 El límite de decisión más simple: Problemas linealmente separables

2 Cómo construye el límite de decisión un máquina de vectores de soporte

Las máquinas de vectores de soporte primero intentar dividir clases y luego maximizar margen. Si el objetivo solo es maximizar el margen. Una mejor solución sería la siguiente:

Pero obviamente, esto no es un buen límite de decisión.


Sobre los vectores de soporte

Los vectores de soporte hacen referencia a un pequeño subconjunto de las observaciones de entrenamiento que se utilizan como soporte para la ubicación óptima de la superficie de decisión. No es necesario usar todas las instancias.

3 El truco del Kernel: Problemas no separables linealmente

Por lo general, el Kernel aplica varias transformaciones a las características. Para lograr el objetivo de convertir un problema no linealmente separable a uno que sí sea linealmente separable, Es necesario elegir el kernel apropiadamente. Afortunadamente, en Sklearn existen diferentes opciones de kernel's que podemos usar de forma inmediata; esto se hace en la práctica siguiente.


Sobre el límite de decisión y el número de dimensiones

En aprendizaje de máquina, la dimensión del problema corresponde al número de características. Por ejemplo, un conjunto de instancias con dos características es de dos dimensiones.


Un problema de tres dimensiones implica que las instancias tienen tres características cada una.


Cuando el problema es de dos dimensiones, es correcto decir que el método SVM encuentra una línea que separa las clases. Sin embargo, problemas reales de aprendizaje automático tienen más de dos dimensiones. Así que en lugar de decir que se encuentra la línea óptima, decimos que SVM encuentra el hiperplano que maximiza el margen de separación entre clases.

En la práctica siguiente usaremos Sklearn para trabajar con Máquinas de Vectores de Soporte. En esa práctica veremos cómo podemos elegir cuántos vectores de soporte se usan para encontrar el hiperplano, cómo podemos aplicar el kernel entre otras cosas.

4 Puntos importantes sobre máquinas de vectores de soporte

Terminar y continuar