Passer au contenu principal
Graph
Search
fr
en
Se connecter
Recherche
Tous
Catégories
Concepts
Cours
Séances de cours
MOOCs
Personnes
Exercices
Publications
Start-ups
Unités
Afficher tous les résultats pour
Accueil
Séance de cours
Différenciation vectorielle et fonctions convexes
Graph Chatbot
Séances de cours associées (26)
Méthode de descente progressive
Couvre la méthode Gradient Descent, la fluidité des fonctions et les preuves liées à la convexité.
Optimisation du convex : Notation et normes matricielles
Introduit la notation Convex Optimization, les fonctions convexes, les normes vectorielles et les propriétés matricielles.
Mathématiques des données: Optimisation des bases
Couvre les bases de l'optimisation, y compris les normes, la continuité Lipschitz, et les concepts de convexité.
Descente de gradient plus rapide: Techniques d'optimisation projetées
Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.
Mécanique: Introduction et Calcul
Présente la mécanique, le calcul différentiel et vectoriel, et les perspectives historiques d'Aristote à Newton.
Optimisation convexe : théorie et applications
Explore la théorie de l'optimisation convexe, couvrant les minima locaux et globaux, les fonctions convexes et les applications dans divers domaines.
Précédent
Page 2 sur 2
Suivant