Explore les réseaux profonds et convolutifs, couvrant la généralisation, l'optimisation et les applications pratiques dans l'apprentissage automatique.
Explore le développement historique et la formation de perceptrons multicouches, en mettant l'accent sur l'algorithme de rétropropagation et la conception de fonctionnalités.
Explore l'évolution des modèles d'intelligence visuelle, en mettant l'accent sur les Transformateurs et leurs applications dans la vision informatique et le traitement du langage naturel.
Couvre les réseaux neuronaux convolutifs, les architectures standard, les techniques de formation et les exemples contradictoires en apprentissage profond.
Couvre l'importance de la maintenance préventive pour la détection de la détresse de la chaussée et introduit des concepts d'apprentissage automatique pour les ingénieurs.
Couvre les réseaux neuronaux convolutionnels, y compris les couches, les stratégies de formation, les architectures standard, les tâches comme la segmentation sémantique, et les astuces d'apprentissage profond.
Explore les réseaux neuronaux convolutifs, l'augmentation des données, la dégradation du poids et le décrochage pour améliorer les performances du modèle.
Présente les réseaux neuronaux convolutifs, en expliquant leur architecture, leur processus de formation et leurs applications dans les tâches de segmentation sémantique.
Couvre les approches modernes du réseau neuronal en matière de PNL, en mettant l'accent sur l'intégration de mots, les réseaux neuronaux pour les tâches de PNL et les futures techniques d'apprentissage par transfert.
Introduit les bases de l'apprentissage profond, couvrant les réseaux neuronaux, les CNN, les couches spéciales, l'initialisation du poids, le prétraitement des données et la régularisation.
Introduit les réseaux de mémoire à long terme (LSTM) comme une solution pour la disparition et l'explosion des gradients dans les réseaux neuronaux récurrents.
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Couvre les bases des réseaux neuronaux convolutionnels, y compris l'optimisation de la formation, la structure des couches et les pièges potentiels des statistiques sommaires.
Discute des défis liés à la construction de réseaux neuraux physiques, en mettant l'accent sur la profondeur, les connexions et la capacité de formation.
Couvre les modèles de séquence à séquence, leur architecture, leurs applications et le rôle des mécanismes d'attention dans l'amélioration des performances.