Empezamos este bloque de algoritmos entendiendo cómo podemos clasificar los algoritmos y técnicas de varias formas.
Lo podemos ordenar por aplicación en cuanto a técnicas supervisadas y no supervisadas:
- Transformar variables
- Clustering
- Asociación y recomendadores
- Reducción dimensional
- Regresión (lineal, no lineal y ensamblados)
- Clasificación (lineal, no lineal y ensamblados)
Sobretodo a nivel supervisado existen algoritmos no lineales que se pueden utilizar en ambos casos: clasificación y regresión.
Durante este bloque vamos a entrar en detalle en algunos de ellos y hablaremos también de optimización ya que es una parte muy importante en machine learning.
Estos son los algoritmos que vamos a ver en este bloque en cuanto a problemas de predicción (regresión y clasificación)
- Regresión lineal con linear descendent (optimización para encontrar los coeficientes)
- Logistic regression
- LDA - linear discriminant analysis
- CART - Clasification and regression trees
- Naive Bayes y Gaussian Naive Bayes
- k-Nearest neighbors
- LVQ - linear vector quantization
- SVM - super vector machine
- RN - Redes Neuronales
- RF - Random Forest
- DT - Decision Trees
- Boosting and ADABoost
Veremos también técnicas de clustering:
- GMM - gaussian mixture models
- K-means
- Hierarchical clustering
Técnicas de reducción dimensional:
- PCA - principal component analysis
- MDS - Multi dimensional scaling
- LDA - linear discriminant analysis
Técnicas de recomendación y asociación:
- Asociation rules
- Técnicas de recomendación
Si quieres ver muchos de los algoritmos y técnicas que existen en regresión y clasificación te propongo que vayas directamente al repositorio del paquete CARET:
