Couvre les meilleures pratiques et les lignes directrices pour les mégadonnées, y compris les lacs de données, l'architecture, les défis et les technologies comme Hadoop et Hive.
Couvre l'introduction et les défis des entrepôts de données, y compris l'intégration des données, la gestion des métadonnées et l'optimisation des performances des requêtes.
Introduit le cours d'analyse des données appliquées à l'EPFL, couvrant un large éventail de sujets d'analyse des données et mettant l'accent sur l'apprentissage continu en sciences des données.
Explore les entrepôts de données, les systèmes d'aide à la décision, OLAP, les lacs de données, les modèles de données multidimensionnels et les optimisations de requêtes.
Explore la virtualisation des données dans le projet SmartDataLake, couvrant l'optimisation des requêtes, le niveau de stockage et les défis dans le traitement de données hétérogènes.
Couvre l'analyse des données sur la pollution atmosphérique, en se concentrant sur les bases de R, en visualisant des séries chronologiques et en créant des résumés des concentrations de polluants.
Couvre les progrès des systèmes d'analyse de données et le rôle de la co-conception matériel-logiciel dans l'amélioration des performances à l'ère post-Moore.
Couvre Nexus Fusion, une plateforme pour la découverte collaborative de données et de connaissances, y compris la gestion des données, la présentation et la recherche.
Examine les éléments fondamentaux de la gestion des données, y compris les modèles, les sources et les querelles, en soulignant l'importance de comprendre et de résoudre les problèmes de données.
Couvre la mise en œuvre d'un système d'information pour la gestion des trajectoires de taxi, y compris le filtrage des données, la création de modèles de trajectoire et la comparaison des performances.
Déplacez-vous dans le « virage numérique » de l'histoire, en examinant la recherche historique à l'aide de journaux numérisés et en explorant la réutilisation du texte, l'intégration des mots et la visualisation des données.
Introduit des outils collaboratifs de science des données comme Git et Docker, en mettant l'accent sur le travail d'équipe et les exercices pratiques pour un apprentissage efficace.
Couvre les techniques de manipulation des données à l'aide de Hadoop, en se concentrant sur les bases de données axées sur les lignes et les colonnes, les formats de stockage populaires et l'intégration HBase-Hive.
Présentation d'Apache Spark, couvrant son architecture, ses RDD, ses transformations, ses actions, sa tolérance aux pannes, ses options de déploiement et ses exercices pratiques dans les blocs-notes Jupyter.