El documento presenta una introducción a las máquinas de soporte vectorial (SVM), modelos de machine learning utilizados para clasificación y regresión, inicialmente desarrollados para clasificación binaria y luego extendidos a múltiples clases. Se explica la noción geométrica del hiperplano óptimo de separación y el problema de optimización convexa necesario para obtener este hiperplano, así como la generalización para casos no linealmente separables y el uso del truco del kernel para transformar espacios. Además, se abordan los fundamentos matemáticos detrás de las SVM, incluidos espacios de Hilbert y funciones kernel.