Fournit une vue d'ensemble des concepts d'apprentissage profond, en se concentrant sur les données, l'architecture du modèle et les défis liés à la gestion de grands ensembles de données.
Explore les défis de gestion du stockage dans la transition vers les lacs de données, en abordant l'hétérogénéité des logiciels et du matériel, la conception unifiée du stockage et l'optimisation des performances.
Couvre les principes fondamentaux de la science des données, en mettant l'accent sur la profondeur et l'application pratique dans l'apprentissage automatique et l'analyse de données.
Couvre les outils de science des données, Hadoop, Spark, les écosystèmes des lacs de données, le théorème CAP, le traitement par lots vs. flux, HDFS, Hive, Parquet, ORC, et l'architecture MapReduce.