Couvre la transition de la programmation mono-thread à la programmation multithread, en se concentrant sur les modèles de mémoire et les problèmes de cohérence.
Introduit les fondamentaux de l'architecture multiprocesseur, couvrant les serveurs post-Moore, les datacenters durables, la programmation parallèle et l'utilisation du GPU.
Explore la motivation et les avantages de l'utilisation des GPU pour le calcul, en se concentrant sur leurs performances et leur programmation via CUDA.
Explore les principes de synchronisation à l'aide de verrous et de barrières, en mettant l'accent sur des implémentations matérielles efficaces et des mécanismes de coordination tels qu'OpenMP.
Couvre les principes de la synchronisation dans le calcul parallèle, en mettant l'accent sur la synchronisation de la mémoire partagée et différentes méthodes comme les verrous et les barrières.
Couvre efficacement l'optimisation de joint accéléré GPU pour les requêtes complexes, en se concentrant sur l'amélioration des temps d'optimisation et de la qualité du plan heuristique.
Explore les perspectives historiques et les mécanismes de la mémoire transactionnelle, en soulignant l'importance et les défis de sa mise en œuvre dans les systèmes informatiques modernes.
Présente le modèle de programmation MapReduce pour l'informatique distribuée, en mettant l'accent sur sa vision et ses mécanismes de sous-développement.
Explore simulant des modèles de réseau neuronal à grande échelle et optimisant l'efficacité de la mémoire dans les simulations neuronales à l'aide de NEURON et de CoreNEURON.
Explore l'architecture des GPU, la programmation CUDA, le traitement d'image et leur importance dans l'informatique moderne, en mettant l'accent sur le démarrage précoce et l'exactitude de la programmation GPU.
Couvre l'architecture multiprocesseur avancée, discutant de la logistique des cours, des composants, du classement et des tendances des systèmes informatiques modernes.