Présente la structure du cours et les concepts fondamentaux de l'apprentissage automatique, y compris l'apprentissage supervisé et la régression linéaire.
Introduit le cours d'analyse des données appliquées à l'EPFL, couvrant un large éventail de sujets d'analyse des données et mettant l'accent sur l'apprentissage continu en sciences des données.
Couvre l'analyse des données sur la pollution atmosphérique, en se concentrant sur les bases de R, en visualisant des séries chronologiques et en créant des résumés des concentrations de polluants.
Couvre l'analyse en composantes principales pour la réduction dimensionnelle des données biologiques, en se concentrant sur la visualisation et l'identification des modèles.
Couvre l'essentiel de la science des données, y compris le traitement, la visualisation et l'analyse des données, en mettant l'accent sur les compétences pratiques et l'engagement actif.
Déplacez-vous dans le « virage numérique » de l'histoire, en examinant la recherche historique à l'aide de journaux numérisés et en explorant la réutilisation du texte, l'intégration des mots et la visualisation des données.
Explore l'évaluation environnementale systémique, l'analyse nationale des flux de matériaux et le développement d'un tableau de bord du métabolisme urbain pour Zurich à l'aide de données ouvertes.
Couvre les pratiques exemplaires et les lignes directrices pour les mégadonnées, y compris les lacs de données, l'architecture typique, les défis et les technologies utilisés pour y remédier.
Couvre les meilleures pratiques et les lignes directrices pour les mégadonnées, y compris les lacs de données, l'architecture, les défis et les technologies comme Hadoop et Hive.
Se concentre sur les fonctions avancées de pandas pour la manipulation, l'exploration et la visualisation des données avec Python, en soulignant l'importance de la compréhension et de la préparation des données.
Explore les techniques de visualisation des données, l'impact de la conception et les applications interactives pour une communication efficace de l'information.
Se penche sur la physialisation des données, l'expressivité, la visualisation féministe et l'équilibre entre l'exploration et l'explication de la visualisation des données.
Introduit des outils collaboratifs de science des données comme Git et Docker, en mettant l'accent sur le travail d'équipe et les exercices pratiques pour un apprentissage efficace.
Présentation d'Apache Spark, couvrant son architecture, ses RDD, ses transformations, ses actions, sa tolérance aux pannes, ses options de déploiement et ses exercices pratiques dans les blocs-notes Jupyter.
Souligne l’importance de la préparation aux données dans les interventions en cas de catastrophe et explore des stratégies pour combler les lacunes et les surcharges en matière d’information.
Couvre les principes fondamentaux de la science des données, en mettant l'accent sur la profondeur et l'application pratique dans l'apprentissage automatique et l'analyse de données.