1. Machine Learning
1.1. Apprentissage supervisé
1.1.1. Classification
1.1.1.1. Régression logistique
1.1.1.2. Machi à vecteurs de support (SVM)
1.1.1.3. k-Nearest Neighbors (k-NN)
1.1.1.4. Arbres de décision
1.1.1.5. Forêts aléatoires (Random Forest)
1.1.1.6. Naive Bayes
1.1.1.7. Gradient Boosting (XGBoost, LightGBM, CatBoost)
1.1.2. Regression
1.1.2.1. Régression linéaire
1.1.2.2. Régression polynomiale
1.1.2.3. Régression Lasso/Régression Ridge
1.1.2.4. Machines à vecteurs de support pour la régression (SVR) Arbres de décision pour la régression Forêts aléatoires pour la régression Gradient Boosting pour la régression
1.2. Apprentissage Non supervisé
1.2.1. Clustering
1.2.1.1. - K-means - Clustering hiérarchique - DBSCAN - Mean Shift - Gaussian Mixture Models (GMM)
1.2.2. Réduction de dimensionnalité
1.2.2.1. - A en composantes principales (PCA) - A discriminante linéaire (LDA) - t-Distributed Stochastic Neighbor Embedding (t-SNE) - Autoencodeurs - Uniform Manifold Approximation and Projection (UMAP)
1.3. Apprentissage par Renforcement
2. Deep Learning
2.1. Réseaux de Neurones
2.2. Types de Réseaux de Neurones
2.2.1. Réseaux de Neurones Convolutifs (CNN)
2.2.2. Réseaux de Neurones Récurrents (RNN)
2.2.3. Réseaux Adverses Génératifs (GAN)
3. Projet 7
3.1. Pré-traitement des données
3.2. Analyse exploratoire
3.3. Appliquer un modèle simple
3.4. Un modéle de Deep learning
3.5. Un modèle Bert
3.5.1. Embedding fast text
3.5.2. Embedding word2vector