Explore l'accélération de l'analyse complexe par la spéculation, la parallélisation des requêtes, la gestion des erreurs de prédiction et la transition vers des plans spéculatifs.
Couvre les bases de la programmation parallèle, y compris la concurrence, les formes de parallélisme, la synchronisation et les modèles de programmation tels que PThreads et OpenMP.
Explore les défis et les innovations dans les systèmes de base de données, en mettant l'accent sur la nécessité d'une gestion efficace des données et de s'adapter aux avancées matérielles modernes.
Couvre la pipelining dans l'architecture informatique, en mettant l'accent sur son rôle dans l'amélioration des performances grâce à un parallélisme au niveau de l'instruction et en abordant les défis associés.
Explore la programmation dynamique dans la conception de processeurs pour augmenter le parallélisme en exécutant des instructions hors de l'ordre, en améliorant les performances et l'efficacité.
Explore la programmation parallèle dans Scala, les opérations fonctionnelles sur les collections, et les fonctions de carte parallèle sur les tableaux et les arbres.
Explore le parallélisme dans la programmation, en mettant l'accent sur les compromis entre la programmabilité et la performance, et introduit la programmation parallèle en mémoire partagée à l'aide d'OpenMP.
S'inscrit dans l'analyse de performance des programmes parallèles de Scala, couvrant l'analyse asymptotique, les fonctions récursives et la loi d'Amdahl.
Couvre la planification dynamique dans les processeurs, en se concentrant sur l'exécution dans le désordre et la gestion efficace des dépendances d'instructions.