Passer au contenu principal
Graph
Search
fr
en
Se connecter
Recherche
Tous
Catégories
Concepts
Cours
Séances de cours
MOOCs
Personnes
Exercices
Publications
Start-ups
Unités
Afficher tous les résultats pour
Accueil
Séance de cours
Optimisation conjuguée des gradients
Graph Chatbot
Séances de cours associées (28)
Contrôle optimal : Conditions KKT
Explore les conditions optimales de contrôle et de KKT pour une optimisation non linéaire avec des contraintes.
Optimisation sans contraintes : méthode de graduation
Couvre l'optimisation sans contraintes en utilisant la méthode de gradient pour trouver le minimum de la fonction.
Méthodes d'optimisation
Couvre les méthodes d'optimisation sans contraintes, y compris la recherche de gradient et de ligne dans le cas quadratique.
Programmation semi-définie
Couvre la programmation et l'optimisation semi-définies sur des cônes semi-définis positifs.
Systèmes linéaires: Chapitres 4, 5, 6
Explore le lien entre les systèmes linéaires et l'optimisation par élimination et décomposition de LU.
Méthodes d'optimisation
Couvre les méthodes d'optimisation, en se concentrant sur les méthodes de gradient et les techniques de recherche de ligne.
Méthode de graduation conjuguée : Optimisation itérative
Couvre la méthode du gradient conjugué, les critères d'arrêt et les propriétés de convergence dans l'optimisation itérative.
Méthodes d'optimisation : discussion théorique
Explore les méthodes d'optimisation, y compris les problèmes sans contraintes, la programmation linéaire et les approches heuristiques.
Matrices symétriques et formes quadratiques
Explore les matrices symétriques, la diagonalisation et les propriétés des formes quadratiques.
Optimisation non linéaire
Couvre la recherche en ligne, la méthode de Newton, BFGS et le gradient conjugué en optimisation non linéaire.
Convexité et convergence fortes
Explore le rôle de la convexité forte dans les taux de convergence plus rapides pour les algorithmes d'optimisation.
Matrices symétriques et formes quadratiques
Explore les matrices symétriques, les formes quadratiques, la diagonalisation et la précision avec des exemples et des calculs.
Méthodes de descente et recherche de ligne: descente la plus raide pré-conditionnée
Introduit le préconditionnement dans les problèmes d'optimisation et explique l'itération de descente la plus raide.
Matrices symétriques et formes quadratiques
Explore les matrices symétriques, les formes quadratiques et les points critiques dans les fonctions de deux variables.
Formes quadratiques : définitions, exemples
Couvre la définition des formes quadratiques en R^n avec des exemples en R^2 et R^3.
Optimisation quasi-newton
Couvre les méthodes de recherche de ligne de gradient et les techniques d'optimisation en mettant l'accent sur les conditions Wolfe et la définition positive.
Descente au gradient : principes et applications
Couvre la descente de gradient, ses principes, ses applications et ses taux de convergence en optimisation pour l'apprentissage automatique.
Classement des formulaires quadriratiques
Explore la classification des formes quadratiques basées sur les valeurs propres et la diagonalisation orthogonale des matrices symétriques.
Régression & Linéaires Systemed
Couvre les principes de la régression et des systèmes linéaires, en mettant l'accent sur les méthodes itératives.
Systèmes linéaires : méthodes itératives
Explore les systèmes linéaires et les méthodes itératives comme la descente de gradient et le gradient conjugué pour des solutions efficaces.
Précédent
Page 1 sur 2
Suivant