Couvre les bases de la programmation parallèle, y compris la concurrence, les formes de parallélisme, la synchronisation et les modèles de programmation tels que PThreads et OpenMP.
Comparer les modèles de programmation hybrides, discuter des propositions de projet et souligner l'importance de tenir compte de la topologie physique dans le développement des applications.
Couvre les modèles de programmation hybrides, les propositions de projets, la sécurité des threads, les problèmes de topologie et les attentes de performance dans MPI.
Couvre les fonctions MPI avancées, y compris les types de données, les communicateurs et les E / S, en soulignant l'importance d'utiliser les collectifs pour de meilleures performances.
Couvre la manipulation des défaillances dans les systèmes asynchrones en utilisant le modèle d'acteur et discute de la supervision, de la résilience et du cycle de vie des acteurs.
Explore les fondements théoriques de RDMA et de NVRAM dans les technologies multiprocesseurs, couvrant la discorde, le contrôle de la convergence et la tolérance aux défauts.
Couvre la méthode Conjugate Gradient pour résoudre des systèmes linéaires sans préconditionnement, en explorant les implémentations de calcul parallèle et les prédictions de performances.
Explore le passage par référence dans les fonctions, mettant en évidence les avantages et les considérations de rendement par rapport au passage par valeur.