Explore des méthodes d'optimisation telles que la descente de gradient et les sous-gradients pour la formation de modèles d'apprentissage automatique, y compris des techniques avancées telles que l'optimisation d'Adam.
Explore les fonctions de perte, la descente de gradient et l'impact de la taille des pas sur l'optimisation dans les modèles d'apprentissage automatique, en soulignant l'équilibre délicat requis pour une convergence efficace.
Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.
Explore la régression logistique, les fonctions de coût, la descente en gradient et la modélisation de probabilité à l'aide de la fonction sigmoïde logistique.
Explore la régression logistique pour prédire les proportions de la végétation dans la région amazonienne grâce à l'analyse des données de télédétection.
Discuter du compromis entre les variables biaisées dans l'apprentissage automatique, en mettant l'accent sur l'équilibre entre la complexité du modèle et l'exactitude des prédictions.
Compare L1 et L0 pénalisation en régression linéaire avec des conceptions orthogonales en utilisant des algorithmes gourmands et des comparaisons empiriques.
Déplacez-vous dans l'intersection de la physique et des données dans les modèles d'apprentissage automatique, couvrant des sujets tels que les champs d'expansion des grappes atomiques et l'apprentissage non supervisé.
Aborde l'ajustement excessif dans l'apprentissage supervisé par le biais d'études de cas de régression polynomiale et de techniques de sélection de modèles.
Discute des arbres de régression, des méthodes d'ensemble et de leurs applications dans la prévision des prix des voitures d'occasion et des rendements des stocks.
Volkan Cevher se penche sur les mathématiques de l’apprentissage profond, explorant la complexité des modèles, les compromis de risque et le mystère de la généralisation.
Discute de la méthode de gradient pour l'optimisation, en se concentrant sur son application dans l'apprentissage automatique et les conditions de convergence.
Couvre la descente du gradient stochastique, la régression linéaire, la régularisation, l'apprentissage supervisé et la nature itérative de la descente du gradient.
Introduit des algorithmes ML non linéaires, couvrant le voisin le plus proche, k-NN, ajustement des courbes polynômes, complexité du modèle, surajustement, et régularisation.