Couvre l'abstraction des threads dans les systèmes informatiques, en se concentrant sur la concurrence, le parallélisme et la gestion des threads à l'aide de l'API POSIX.
Couvre les bases de la programmation parallèle, y compris la concurrence, les formes de parallélisme, la synchronisation et les modèles de programmation tels que PThreads et OpenMP.
Explore l'utilisation d'interconnexions rapides pour le co-traitement évolutif avec les GPU dans les bases de données, soulignant l'importance de surmonter le goulot d'étranglement du transfert et de réévaluer les hypothèses d'amélioration des performances.
Introduit les fondamentaux de l'architecture multiprocesseur, couvrant les serveurs post-Moore, les datacenters durables, la programmation parallèle et l'utilisation du GPU.
Couvre la transition de la programmation mono-thread à la programmation multithread, en se concentrant sur les modèles de mémoire et les problèmes de cohérence.
Couvre les principes de la synchronisation dans le calcul parallèle, en mettant l'accent sur la synchronisation de la mémoire partagée et différentes méthodes comme les verrous et les barrières.
Couvre efficacement l'optimisation de joint accéléré GPU pour les requêtes complexes, en se concentrant sur l'amélioration des temps d'optimisation et de la qualité du plan heuristique.