DémarcheLa démarche est le motif du mouvement des membres des animaux pendant leur déplacement. La plupart des animaux utilisent différents types de démarches en fonction de la vitesse, du terrain, des besoins de manœuvrer et de l'efficacité énergétique. Les diagrammes de démarche de Milton Hildebrand sont généralement utilisés par les physiologistes dans l'étude de la locomotion. Il existe différents dispositifs permettant d'étudier les démarches. Parmi les plus anciens on peut citer le fusil photographique d'Étienne-Jules Marey en 1872, puis par Eadweard Muybridge en 1878.
FouléeLa foulée désigne l'enjambée lors de la course à pied. La première phase est un appui au sol de l'un des pieds Elle débute par la réception, généralement sur le talon, en avant du centre de gravité du coureur ; la réception amortit le choc entre le pied et le sol, l'amorti est en partie produit par la flexion du genou à laquelle s'oppose le quadriceps en contraction excentrique.
Nombre de sujets nécessairesEn statistique, la détermination du nombre de sujets nécessaires est l'acte de choisir le nombre d'observations ou de répétitions à inclure dans un échantillon statistique. Ce choix est très important pour pouvoir faire de l'inférence sur une population. En pratique, la taille de l'échantillon utilisé dans une étude est déterminée en fonction du coût de la collecte des données et de la nécessité d'avoir une puissance statistique suffisante.
Taille d'effetEn statistique, une taille d'effet est une mesure de la force de l'effet observé d'une variable sur une autre et plus généralement d'une inférence. La taille d'un effet est donc une grandeur statistique descriptive calculée à partir de données observées empiriquement afin de fournir un indice quantitatif de la force de la relation entre les variables et non une statistique inférentielle qui permettrait de conclure ou non si ladite relation observée dans les données existe bien dans la réalité.
Évaluation formativeLes concepts d’évaluation formative et sommative ont été apportés par Michael Scriven en 1967, dans le contexte de l’évaluation de programmes éducatifs (curriculum evaluation). Pour Scriven, une évaluation formative devait permettre à un établissement scolaire d’estimer la capacité de ses programmes scolaires à atteindre leurs objectifs, de façon à guider les choix de l’école pour les améliorer progressivement, au contraire d’une évaluation sommative qui cherche à poser un jugement final sur les programmes : « marchent-ils » ou pas ? Et en conséquence, faut-il les maintenir, les étendre ou les abandonner ? Benjamin Bloom reprend dans les années suivantes cette distinction pour l’appliquer au processus d’apprentissage, notamment dans son ouvrage Handbook on formative and summative evaluation of student learning.
Régression logistiqueEn statistiques, la régression logistique ou modèle logit est un modèle de régression binomiale. Comme pour tous les modèles de régression binomiale, il s'agit d'expliquer au mieux une variable binaire (la présence ou l'absence d'une caractéristique donnée) par des observations réelles nombreuses, grâce à un modèle mathématique. En d'autres termes d'associer une variable aléatoire de Bernoulli (génériquement notée ) à un vecteur de variables aléatoires . La régression logistique constitue un cas particulier de modèle linéaire généralisé.
Centrale à inertiethumb|Gyrolaser de forme triangulaire, technologie de gyromètre couramment utilisée dans les centrales à inertie. Une centrale à inertie ou centrale inertielle est un instrument utilisé en navigation, capable d'intégrer les mouvements d'un mobile (accélération et vitesse angulaire) pour estimer son orientation (angles de roulis, de tangage et de cap), sa vitesse linéaire et sa position. L'estimation de position est relative au point de départ ou au dernier point de recalage.
Multinomial logistic regressionIn statistics, multinomial logistic regression is a classification method that generalizes logistic regression to multiclass problems, i.e. with more than two possible discrete outcomes. That is, it is a model that is used to predict the probabilities of the different possible outcomes of a categorically distributed dependent variable, given a set of independent variables (which may be real-valued, binary-valued, categorical-valued, etc.).
Évaluation sommativeLes concepts d’évaluation sommative et formative ont été apportés par Michael Scriven en 1967. Selon Scriven, une évaluation formative devait permettre à un établissement scolaire d’estimer la capacité de ses programmes scolaires à atteindre leurs objectifs, de façon à guider les choix de l’école pour les améliorer progressivement, au contraire d’une évaluation sommative qui cherche à poser un jugement final sur les programmes : « marchent-ils » ou pas ? Et en conséquence, faut-il les maintenir, les étendre ou les abandonner ? Pour Scriven, toutes les techniques d’évaluation peuvent être sommatives, mais seules certaines sont formatives.
Régression linéaireEn statistiques, en économétrie et en apprentissage automatique, un modèle de régression linéaire est un modèle de régression qui cherche à établir une relation linéaire entre une variable, dite expliquée, et une ou plusieurs variables, dites explicatives. On parle aussi de modèle linéaire ou de modèle de régression linéaire. Parmi les modèles de régression linéaire, le plus simple est l'ajustement affine. Celui-ci consiste à rechercher la droite permettant d'expliquer le comportement d'une variable statistique y comme étant une fonction affine d'une autre variable statistique x.
Management de la qualitévignette|La roue de Deming illustre le processus d'amélioration continue, l'un des principes fondamentaux du management de la qualité. Le management de la qualité, ou gestion de la qualité, est une discipline du management regroupant l'ensemble des concepts et méthodes visant à satisfaire les clients d'un organisme (en général les entreprises, associations, organismes publics) et à fournir des produits et services correspondant à leurs attentes.
Échantillonnage (statistiques)thumb|Exemple d'échantillonnage aléatoire En statistique, l'échantillonnage désigne les méthodes de sélection d'un sous-ensemble d'individus (un échantillon) à l'intérieur d'une population pour estimer les caractéristiques de l'ensemble de la population. Cette méthode présente plusieurs avantages : une étude restreinte sur une partie de la population, un moindre coût, une collecte des données plus rapide que si l'étude avait été réalisé sur l'ensemble de la population, la réalisation de contrôles destructifs Les résultats obtenus constituent un échantillon.
Système de management de la qualitéUn système de management de la qualité (SMQ) ou système de gestion de la qualité (SGQ) (en anglais quality management system) est l'ensemble des activités par lesquelles l’organisme définit, met en œuvre et revoit sa politique et ses objectifs qualité conformément à sa stratégie. Le SMQ d'un organisme est constitué de processus corrélés et interactifs utilisant des ressources pour atteindre les résultats visés et fournir de la valeur (produit, service, etc.).
Quality (business)In business, engineering, and manufacturing, quality – or high quality – has a pragmatic interpretation as the non-inferiority or superiority of something (goods or services); it is also defined as being suitable for the intended purpose (fitness for purpose) while satisfying customer expectations. Quality is a perceptual, conditional, and somewhat subjective attribute and may be understood differently by different people. Consumers may focus on the specification quality of a product/service, or how it compares to competitors in the marketplace.
Group velocityThe group velocity of a wave is the velocity with which the overall envelope shape of the wave's amplitudes—known as the modulation or envelope of the wave—propagates through space. For example, if a stone is thrown into the middle of a very still pond, a circular pattern of waves with a quiescent center appears in the water, also known as a capillary wave. The expanding ring of waves is the wave group or wave packet, within which one can discern individual waves that travel faster than the group as a whole.
Loi logistiqueEn probabilité et en statistiques, la loi logistique est une loi de probabilité absolument continue à support infini utilisé en régression logistique et pour les réseaux de neurones à propagation avant. Son nom de loi logistique est issu du fait que sa fonction de répartition est une fonction logistique. La loi logistique a deux paramètres μ et s > 0 et sa densité est Sa fonction de répartition est Son espérance et sa variance sont données par les formules suivantes : La loi logistique standard est la loi logistique de paramètres 0 et 1.
Qualité logicielleEn informatique et en particulier en génie logiciel, la qualité logicielle est une appréciation globale d'un logiciel, basée sur de nombreux indicateurs. La complétude des fonctionnalités, la correction et précision des résultats, la fiabilité, la tolérance de pannes, la facilité et la flexibilité de son utilisation, la simplicité, l'extensibilité, la compatibilité et la portabilité, la facilité de correction et de transformation, la performance, la cohérence et l'intégrité des informations qu'il contient sont tous des facteurs de qualité.
Impedance parametersImpedance parameters or Z-parameters (the elements of an impedance matrix or Z-matrix) are properties used in electrical engineering, electronic engineering, and communication systems engineering to describe the electrical behavior of linear electrical networks. They are also used to describe the small-signal (linearized) response of non-linear networks. They are members of a family of similar parameters used in electronic engineering, other examples being: S-parameters, Y-parameters, H-parameters, T-parameters or ABCD-parameters.
Contrôle qualitévignette|Contrôle qualité du nylon, 1954, Malmö. Photographie conservée au musée nordique. Le contrôle qualité est un aspect de la gestion de la qualité. Le contrôle est une opération destinée à déterminer, avec des moyens appropriés, si le produit (y compris, services, documents, code source) contrôlé est conforme ou non à ses spécifications ou exigences préétablies et incluant une décision d'acceptation, de rejet ou de retouche. L'ancienne norme ISO 8402 (maintenant annulée) en donnait la définition suivante : (ISO8402:1994, § 2.
Ordered logitIn statistics, the ordered logit model (also ordered logistic regression or proportional odds model) is an ordinal regression model—that is, a regression model for ordinal dependent variables—first considered by Peter McCullagh. For example, if one question on a survey is to be answered by a choice among "poor", "fair", "good", "very good" and "excellent", and the purpose of the analysis is to see how well that response can be predicted by the responses to other questions, some of which may be quantitative, then ordered logistic regression may be used.