Traffic flowIn mathematics and transportation engineering, traffic flow is the study of interactions between travellers (including pedestrians, cyclists, drivers, and their vehicles) and infrastructure (including highways, signage, and traffic control devices), with the aim of understanding and developing an optimal transport network with efficient movement of traffic and minimal traffic congestion problems.
Théorie des trois phases du traficLa théorie des trois phases du trafic est une théorie alternative de la modélisation du trafic routier mise au point par Boris Kerner entre 1996 et 2002. Elle se concentre principalement sur l'explication physique de la dégradation des conditions de trafic et des embouteillages résultant sur les autoroutes. À la différence des théories classiques basées sur le diagramme fondamental du trafic qui distinguent deux phases ou régimes (trafic fluide et les congestions), la théorie de Kerner propose trois phases.
Circulation routièrethumb|Bouchon routier La circulation routière est le déplacement réglementé des automobiles, d'autres véhicules ou des piétons; au sens large, sur une route, une autoroute ou tout autre type de voirie. vignette|Convention de Genève de 1949 vignette|Convention de Vienne de 1968 La circulation routière s'est développée au vingtième siècle, localement et internationalement. Pour faciliter le développement international de la circulation routière, des conventions ont été établies.
Feu de circulationvignette|Les trois états d'un feu tricolore. vignette|Un feu destiné aux piétons en Italie. Un feu de circulation routière, aussi appelé feu tricolore est un dispositif permettant la régulation du trafic routier entre les usagers de la route, les véhicules et les piétons. Les feux destinés aux véhicules à moteurs sont généralement de type tricolores choisis pour leur conspicuité – leur remarquabilité – auxquels peuvent s'ajouter des flèches directionnelles.
Apprentissage non superviséDans le domaine informatique et de l'intelligence artificielle, l'apprentissage non supervisé désigne la situation d'apprentissage automatique où les données ne sont pas étiquetées (par exemple étiquetées comme « balle » ou « poisson »). Il s'agit donc de découvrir les structures sous-jacentes à ces données non étiquetées. Puisque les données ne sont pas étiquetées, il est impossible à l'algorithme de calculer de façon certaine un score de réussite.
K-moyennesLe partitionnement en k-moyennes (ou k-means en anglais) est une méthode de partitionnement de données et un problème d'optimisation combinatoire. Étant donnés des points et un entier k, le problème est de diviser les points en k groupes, souvent appelés clusters, de façon à minimiser une certaine fonction. On considère la distance d'un point à la moyenne des points de son cluster ; la fonction à minimiser est la somme des carrés de ces distances.
Big dataLe big data ( « grosses données » en anglais), les mégadonnées ou les données massives, désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologies et de méthodes analytiques particulières pour créer de la valeur, et qui dépassent en général les capacités d'une seule et unique machine et nécessitent des traitements parallélisés. L’explosion quantitative (et souvent redondante) des données numériques permet une nouvelle approche pour analyser le monde.
Partitionnement de donnéesvignette|upright=1.2|Exemple de clustering hiérarchique. Le partitionnement de données (ou data clustering en anglais) est une méthode en analyse des données. Elle vise à diviser un ensemble de données en différents « paquets » homogènes, en ce sens que les données de chaque sous-ensemble partagent des caractéristiques communes, qui correspondent le plus souvent à des critères de proximité (similarité informatique) que l'on définit en introduisant des mesures et classes de distance entre objets.
Traffic modelA traffic model is a mathematical model of real-world traffic, usually, but not restricted to, road traffic. Traffic modeling draws heavily on theoretical foundations like network theory and certain theories from physics like the kinematic wave model. The interesting quantity being modeled and measured is the traffic flow, i.e. the throughput of mobile units (e.g. vehicles) per time and transportation medium capacity (e.g. road or lane width). Models can teach researchers and engineers how to ensure an optimal flow with a minimum number of traffic jams.
Embouteillage (route)vignette|Embouteillage à Los Angeles en 1953. Un embouteillage (« bouchon » ou « file » en Europe, « congestion » au Canada) est un encombrement de la circulation, généralement automobile, réduisant fortement la vitesse de circulation des véhicules sur la voie. right|thumb|Les départs ou les retours de vacances sont une des sources d'embouteillage (Algarve, Portugal, été 2005). Les mots embouteillage, bouchon et congestion (également utilisé en anglais) sont utilisés par analogie, tous ces mots étant auparavant employés dans d'autres domaines.
Bus priority signalBus priority or transit signal priority (TSP) is a name for various techniques to improve service and reduce delay for mass transit vehicles at intersections (or junctions) controlled by traffic signals. TSP techniques are most commonly associated with buses, but can also be used along tram/streetcar or light rail lines, especially those that mix with or conflict with general vehicular traffic. Transit signal priority techniques can generally be classified as "active" or "passive".
Fundamental diagram of traffic flowThe fundamental diagram of traffic flow is a diagram that gives a relation between road traffic flux (vehicles/hour) and the traffic density (vehicles/km). A macroscopic traffic model involving traffic flux, traffic density and velocity forms the basis of the fundamental diagram. It can be used to predict the capability of a road system, or its behaviour when applying inflow regulation or speed limits. There is a connection between traffic density and vehicle velocity: The more vehicles are on a road, the slower their velocity will be.
Méthode expérimentaleLes méthodes expérimentales scientifiques consistent à tester la validité d'une hypothèse, en reproduisant un phénomène (souvent en laboratoire) et en faisant varier un paramètre. Le paramètre que l'on fait varier est impliqué dans l'hypothèse. Le résultat de l'expérience valide ou non l'hypothèse. La démarche expérimentale est appliquée dans les recherches dans des sciences telles que, par exemple, la biologie, la physique, la chimie, l'informatique, la psychologie, ou encore l'archéologie.
Classification doubleLa Classification double ou est une technique d'exploration de données non-supervisée permettant de segmenter simultanément les lignes et les colonnes d'une matrice. Plus formellement, la définition de la classification double peut s'exprimer de la manière suivante (pour le type de classification par colonne) : soit une matrice , soient , alors est appelé de lorsque pour tout Le a été utilisé massivement en biologie - par exemple dans l'analyse de l'expression génétique par Yizong Cheng et George M.
Détection d'anomaliesDans l'exploration de données, la détection d'anomalies (en anglais, anomaly detection ou outlier detection) est l'identification d'éléments, d'événements ou d'observations rares qui soulèvent des suspicions en différant de manière significative de la majorité des autres données. Généralement, les anomalies indiquent un problème tel qu'une fraude bancaire, un défaut structurel, un problème médical ou une erreur dans un texte. Les anomalies sont également appelées des valeurs aberrantes, du bruit, des écarts ou des exceptions.
Apprentissage de représentationsEn apprentissage automatique, l'apprentissage des caractéristiques ou apprentissage des représentations est un ensemble de techniques qui permet à un système de découvrir automatiquement les représentations nécessaires à la détection ou à la classification des caractéristiques à partir de données brutes. Cela remplace l'ingénierie manuelle des fonctionnalités et permet à une machine d'apprendre les fonctionnalités et de les utiliser pour effectuer une tâche spécifique.
Expérience de penséeUne expérience de pensée, expérience par la pensée, expérience mentale ou expérience en imagination, est une méthode qui permet de résoudre un problème en utilisant la seule puissance de l'imagination humaine. Une expérience par la pensée peut être utilisée parce que les conditions de l'expérimentation ne sont pas réalisables ou pas souhaitables. L'expression d'expérience de pensée est la traduction de l'anglais thought experiment. Cela se dit, en allemand, Gedankenexperiment.
IdentifiantUn identifiant est une sorte de nom qui sert à identifier un objet précis dans un ensemble d'objets ; ou plus largement toute suite de caractères qui joue ce rôle-là. En principe, un identifiant devrait être unique pour chaque objet. En pratique (comme pour les noms de personnes ou de lieux) ce n'est pas toujours le cas, sauf s'il s'agit d'un ensemble d'identifiants défini par une norme technique. Un identifiant de métadonnée est un signe, une étiquette ou un jeton indépendant du langage, qui identifie de manière unique un objet au sein d'un schéma d'identification.
Chemin critiqueDans un problème d'ordonnancement en informatique théorique, ou en gestion de projet, un chemin critique désigne la (ou les) liste(s) ordonnée(s) des opérations nécessaires pour obtenir le résultat voulu, dont la durée totale donne la durée du projet. C'est donc aussi, parmi les différents chemins constitués par les tâches (ordonnées selon la nécessité du projet), le (les) plus long(s) chemin(s) obtenu(s) ; il y a deux chemins critiques lorsque les deux listes de tâches correspondantes qui sont prévues demandent la même durée.
Expérience d'AspectEn mécanique quantique, l'expérience d'Aspect est la première expérience montrant la violation des inégalités de Bell, établissant un résultat irréfutable en vue de la validation du phénomène d'intrication quantique et des hypothèses de non-localité. Elle apporte ainsi une réponse expérimentale au paradoxe EPR proposé une cinquantaine d'années plus tôt par Albert Einstein, Boris Podolsky et Nathan Rosen. Cette expérience a été réalisée par le physicien français Alain Aspect à l'Institut d'Optique à Orsay entre 1980 et 1982.