Explore le parallélisme dans la programmation, en mettant l'accent sur les compromis entre la programmabilité et la performance, et introduit la programmation parallèle en mémoire partagée à l'aide d'OpenMP.
Couvre les bases de la programmation parallèle, y compris la concurrence, les formes de parallélisme, la synchronisation et les modèles de programmation tels que PThreads et OpenMP.
Explore la programmation dynamique dans la conception de processeurs pour augmenter le parallélisme en exécutant des instructions hors de l'ordre, en améliorant les performances et l'efficacité.
S'inscrit dans l'analyse de performance des programmes parallèles de Scala, couvrant l'analyse asymptotique, les fonctions récursives et la loi d'Amdahl.
Explore la programmation parallèle dans Scala, les opérations fonctionnelles sur les collections, et les fonctions de carte parallèle sur les tableaux et les arbres.
Explore les défis et les innovations dans les systèmes de base de données, en mettant l'accent sur la nécessité d'une gestion efficace des données et de s'adapter aux avancées matérielles modernes.
Couvre l'architecture multiprocesseurs, l'informatique durable, l'impact de la formation sur les modèles d'IA et les principes fondamentaux de la programmation parallèle.
Explore la motivation et les avantages de l'utilisation des GPU pour le calcul, en se concentrant sur leurs performances et leur programmation via CUDA.
Couvre la planification dynamique dans les processeurs, en se concentrant sur l'exécution dans le désordre et la gestion efficace des dépendances d'instructions.