Explore la classification des données textuelles, en se concentrant sur des méthodes telles que les bayes naïques et les techniques de réduction de la dimensionnalité telles que l'analyse des composantes principales.
Explore la méthode de classification la plus proche du voisin, en discutant de ses limites dans les espaces de grande dimension et de l'importance de la corrélation spatiale pour des prédictions efficaces.
Couvre les modèles linéaires, la régression logistique, les limites de décision, k-NN, et les applications pratiques dans l'attribution des auteurs et l'analyse des données d'image.
Introduit k-Nearest Neighbors pour la classification et l'expansion des fonctionnalités pour gérer les données non linéaires via des entrées transformées.
Introduit des modèles linéaires pour l'apprentissage supervisé, couvrant le suréquipement, la régularisation et les noyaux, avec des applications dans les tâches d'apprentissage automatique.
Couvre les bases des réseaux neuronaux, des fonctions d'activation, de la formation, du traitement d'image, des CNN, de la régularisation et des méthodes de réduction de dimensionnalité.
Couvre les concepts clés de l'analyse des composantes principales (APC) et ses applications pratiques dans la réduction de dimensionnalité des données et l'extraction des caractéristiques.
Explore les techniques d'apprentissage non supervisées pour réduire les dimensions des données, en mettant l'accent sur l'APC, l'ADL et l'APC du noyau.
Couvre le classificateur k-NN, la reconnaissance numérique manuscrite, la réduction de données, les applications, la construction de graphes, les limitations et la malédiction de la dimensionnalité.
Les couvertures comportent des méthodes d'extraction, de regroupement et de classification pour les ensembles de données de grande dimension et l'analyse comportementale utilisant PCA, t-SNE, k-means, GMM et divers algorithmes de classification.
Explore PCA et LDA pour la réduction de dimensionnalité linéaire dans les données, en mettant l'accent sur les techniques de clustering et de séparation de classe.
Explore la correspondance des données non linéaires avec des dimensions plus élevées à l'aide de la SVM et couvre l'expansion des caractéristiques polynomiales, la régularisation, les implications sonores et les méthodes d'ajustement des courbes.
Introduit la classification des documents en utilisant des fonctionnalités telles que les mots et les métadonnées, et des modèles tels que k-Nearest-Neighbors et word embeddings.
Couvre les fondamentaux de l'apprentissage automatique avancé, mettant l'accent sur les applications pratiques par des exercices et des projets interactifs.
Introduit des arbres de décision pour la classification, couvrant l'entropie, la qualité fractionnée, l'indice Gini, les avantages, les inconvénients, et le classificateur forestier aléatoire.