Explore PCA et LDA pour la réduction de dimensionnalité linéaire dans les données, en mettant l'accent sur les techniques de clustering et de séparation de classe.
Couvre la théorie et la pratique des algorithmes de regroupement, y compris PCA, K-means, Fisher LDA, groupement spectral et réduction de dimensionnalité.
Explore les algorithmes de classification génératifs et discriminatifs, en mettant l'accent sur leurs applications et leurs différences dans les tâches d'apprentissage automatique.
Explore l'apprentissage supervisé en économétrie financière, en mettant l'accent sur les algorithmes de classification comme Naive Bayes et la régression logistique.
Couvre le concept de régression du noyau et rend les données linéairement séparables en ajoutant des fonctionnalités et en utilisant des méthodes locales.
Couvre PCA et LDA pour la réduction de dimensionnalité, expliquant la maximisation de la variance, les problèmes de vecteurs propres et les avantages de Kernel PCA pour les données non linéaires.
Couvre les bases des réseaux neuronaux, des fonctions d'activation, de la formation, du traitement d'image, des CNN, de la régularisation et des méthodes de réduction de dimensionnalité.
Introduit l'analyse de corrélation canonique pour trouver des caractéristiques communes dans des ensembles de données séparés, s'étendant aux données multimodales et aux caractéristiques non linéaires.
Introduit les bases de l'apprentissage supervisé, en mettant l'accent sur la régression logistique, la classification linéaire et la maximisation de la probabilité.
Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.