Écart interquartilevignette|Diagramme en boîte avec l'écart quartile apparent (noté IQR) En statistiques, l’écart interquartile (aussi appelé étendue interquartile ou EI ; en anglais, interquartile range ou IQR'') est une mesure de dispersion qui s'obtient en faisant la différence entre le troisième et le premier quartile : EI = Q3 - Q1. L'EI est un estimateur statistique robuste.
Interquartile meanThe interquartile mean (IQM) (or midmean) is a statistical measure of central tendency based on the truncated mean of the interquartile range. The IQM is very similar to the scoring method used in sports that are evaluated by a panel of judges: discard the lowest and the highest scores; calculate the mean value of the remaining scores. In calculation of the IQM, only the data between the first and third quartiles is used, and the lowest 25% and the highest 25% of the data are discarded. assuming the values have been ordered.
Low (complexity)In computational complexity theory, a language B (or a complexity class B) is said to be low for a complexity class A (with some reasonable relativized version of A) if AB = A; that is, A with an oracle for B is equal to A. Such a statement implies that an abstract machine which solves problems in A achieves no additional power if it is given the ability to solve problems in B at unit cost. In particular, this means that if B is low for A then B is contained in A.
Classe de complexitéEn informatique théorique, et plus précisément en théorie de la complexité, une classe de complexité est un ensemble de problèmes algorithmiques dont la résolution nécessite la même quantité d'une certaine ressource. Une classe est souvent définie comme l'ensemble de tous les problèmes qui peuvent être résolus sur un modèle de calcul M, utilisant une quantité de ressources du type R, où n, est la taille de l'entrée. Les classes les plus usuelles sont celles définies sur des machines de Turing, avec des contraintes de temps de calcul ou d'espace.
Computational complexityIn computer science, the computational complexity or simply complexity of an algorithm is the amount of resources required to run it. Particular focus is given to computation time (generally measured by the number of needed elementary operations) and memory storage requirements. The complexity of a problem is the complexity of the best algorithms that allow solving the problem. The study of the complexity of explicitly given algorithms is called analysis of algorithms, while the study of the complexity of problems is called computational complexity theory.
Quartilevignette|Histogramme avec représentation visuelle des quartiles. En statistique descriptive, un quartile est chacune des trois valeurs qui divisent les données triées en quatre parts égales, de sorte que chaque partie représente 1/4 de l'échantillon de population. Le quartile fait partie des quantiles.
P (complexité)La classe P, aussi noté parfois PTIME ou DTIME(nO(1)), est une classe très importante de la théorie de la complexité, un domaine de l'informatique théorique et des mathématiques. Par définition, un problème de décision est dans P s'il est décidé par une machine de Turing déterministe en temps polynomial par rapport à la taille de l'entrée. On dit que le problème est décidé en temps polynomial. Les problèmes dans P sont considérés comme « faisables » (feasible en anglais), faciles à résoudre (dans le sens où on peut le faire relativement rapidement).
L (complexité)En informatique théorique, et notamment dans la théorie de la complexité, la classe L est la classe des problèmes de décision décidés par une machine de Turing déterministe qui utilise un espace de taille logarithmique en fonction de la taille de l'entrée. Pour être plus précis, l'exigence sur l'espace de taille logarithmique se réfère à l'espace supplémentaire utilisable. Elle est aussi parfois notée LOGSPACE.
MidhingeIn statistics, the midhinge is the average of the first and third quartiles and is thus a measure of location. Equivalently, it is the 25% trimmed mid-range or 25% midsummary; it is an L-estimator. The midhinge is related to the interquartile range (IQR), the difference of the third and first quartiles (i.e. ), which is a measure of statistical dispersion. The two are complementary in sense that if one knows the midhinge and the IQR, one can find the first and third quartiles.
Summary statisticsIn descriptive statistics, summary statistics are used to summarize a set of observations, in order to communicate the largest amount of information as simply as possible. Statisticians commonly try to describe the observations in a measure of location, or central tendency, such as the arithmetic mean a measure of statistical dispersion like the standard mean absolute deviation a measure of the shape of the distribution like skewness or kurtosis if more than one variable is measured, a measure of statistical dependence such as a correlation coefficient A common collection of order statistics used as summary statistics are the five-number summary, sometimes extended to a seven-number summary, and the associated box plot.
Trimmed estimatorIn statistics, a trimmed estimator is an estimator derived from another estimator by excluding some of the extreme values, a process called truncation. This is generally done to obtain a more robust statistic, and the extreme values are considered outliers. Trimmed estimators also often have higher efficiency for mixture distributions and heavy-tailed distributions than the corresponding untrimmed estimator, at the cost of lower efficiency for other distributions, such as the normal distribution.
Sensor fusionSensor fusion is the process of combining sensor data or data derived from disparate sources such that the resulting information has less uncertainty than would be possible when these sources were used individually. For instance, one could potentially obtain a more accurate location estimate of an indoor object by combining multiple data sources such as video cameras and WiFi localization signals.
AccélérationL'accélération est une grandeur physique vectorielle, appelée de façon plus précise « vecteur accélération », utilisée en cinématique pour représenter la modification affectant la vitesse d'un mouvement en fonction du temps. La norme (l'intensité) de ce vecteur est appelée simplement « accélération » sans autre qualificatif. Dans le langage courant, l'accélération s'oppose à la décélération (mathématiquement, une accélération négative) et indique l'augmentation de la vitesse ou de la fréquence d'évolution d'un processus quelconque, par exemple l'accélération de la fréquence cardiaque ou celle d'une suite de situations.
Application linéaire par morceauxEn mathématiques, une application linéaire par morceaux est une application définie sur un espace topologique composé de facettes affines, à valeurs dans un espace affine et dont les restrictions à chaque facette sont induites par des applications affines. Une telle application est en général supposée continue. Un cas particulier d'application linéaire par morceaux est celui d'une fonction affine par morceaux, définie sur une réunion d'intervalles réels et à valeurs réelles, telle que la restriction à chacun de ces intervalles est donnée par une expression affine.
Régularité par morceauxEn mathématiques, les énoncés de certaines propriétés d'analyse et résultats de convergence se réfèrent à des fonctions vérifiant des hypothèses telles que continues par morceaux, dérivables par morceaux Ces fonctions sont regroupées par classes de régularité qui sont autant d'espaces vectoriels emboîtés, appelés « classe C par morceaux » et notés C. vignette|Cette fonction n'est pas continue sur R. En revanche, elle y est continue par morceaux. Une fonction f est continue par morceaux sur le segment [a, b] s’il existe une subdivision σ : a = a0 < .
Erreur d'approximationvignette|Approximation de la fonction exponentielle par une fonction affine. En analyse numérique, une branche des mathématiques, l'erreur d'approximation de certaines données est la différence entre une valeur exacte et une certaine valeur approchée ou approximation de celle-ci. Une erreur d'approximation peut se produire lorsque la mesure des données n'est pas précise (en raison des instruments) ; ou lors de l'emploi de valeurs approchées au lieu des valeurs exactes (par exemple, 3,14 au lieu de π).
Accéléromètrevignette|Un accéléromètre MEMS. vignette|alt=|Un accéléromètre piézoélectrique. Un accéléromètre est un capteur qui, fixé à un mobile ou tout autre objet, permet de mesurer l'accélération non gravitationnelle linéaire de ce dernier. On parle d'accéléromètre même lorsqu'il s'agit en fait de qui calculent les accélérations linéaires selon orthogonaux. Par contre, lorsqu'on cherche à détecter une rotation ou vitesse angulaire, on parle de gyromètre. Plus généralement on parle de centrale à inertie lorsqu'on cherche à mesurer l'ensemble des .
Algorithme probabilisteEn algorithmique, un algorithme probabiliste, ou algorithme randomisé, est un algorithme qui utilise une source de hasard. Plus précisément le déroulement de l’algorithme fait appel à des données tirées au hasard. Par exemple à un certain point de l’exécution, on tire un bit 0 ou 1, selon la loi uniforme et si le résultat est 0, on fait une certaine action A et si c'est 1, on fait une autre action. On peut aussi tirer un nombre réel dans l'intervalle [0,1] ou un entier dans un intervalle [i..j].
Précession des équinoxesvignette|Mouvement de précession (flèche blanche au niveau du pôle). La précession des équinoxes est le décalage progressif de la direction où sont vues les étoiles, d'un siècle à l'autre, à raison d'une rotation complète, tous les environ, effet produit par un lent changement de direction de l'axe de rotation de la Terre, dans la même durée. Ce phénomène avait déjà été remarqué dès les Babyloniens, mais il n'a été expliqué que par la compréhension des forces de marées qui s'exercent sur la Terre et par l’étude du mouvement des toupies par la mécanique du solide, au .
Navigation inertiellevignette|295x295px|Centrale à inertie du missile S3, Musée de l'Air et de l'Espace, Paris Le Bourget (France) La navigation inertielle (en anglais, inertial navigation system ou INS) est une technique utilisant des capteurs d’accélération et de rotation afin de déterminer le mouvement absolu d’un véhicule (avion, missile, sous-marin...). Elle a l’avantage d’être totalement autonome. La navigation inertielle a été utilisée sur les V1 et V2 allemands. Charles Stark Draper est connu comme le « père de la navigation inertielle ».