Imagerie par résonance magnétiqueL'imagerie par résonance magnétique (IRM) est une technique d' permettant d'obtenir des vues en deux ou en trois dimensions de l'intérieur du corps de façon non invasive avec une résolution en contraste relativement élevée. L'IRM repose sur le principe de la résonance magnétique nucléaire (RMN) qui utilise les propriétés quantiques des noyaux atomiques pour la spectroscopie en analyse chimique. L'IRM nécessite un champ magnétique puissant et stable produit par un aimant supraconducteur qui crée une magnétisation des tissus par alignement des moments magnétiques de spin.
Sensibilité et spécificitéEn statistique, la sensibilité (ou sélectivité) d'un test mesure sa capacité à donner un résultat positif lorsqu'une hypothèse est vérifiée. Elle s'oppose à la spécificité, qui mesure la capacité d'un test à donner un résultat négatif lorsque l'hypothèse n'est pas vérifiée. Ces notions sont d'une importance majeure en épidémiologie et en , notamment au travers des courbes ROC. Cet article présente ces notions dans le cadre de l'application en épidémiologie.
False positives and false negativesA false positive is an error in binary classification in which a test result incorrectly indicates the presence of a condition (such as a disease when the disease is not present), while a false negative is the opposite error, where the test result incorrectly indicates the absence of a condition when it is actually present. These are the two kinds of errors in a binary test, in contrast to the two kinds of correct result (a and a ).
False positive rateIn statistics, when performing multiple comparisons, a false positive ratio (also known as fall-out or false alarm ratio) is the probability of falsely rejecting the null hypothesis for a particular test. The false positive rate is calculated as the ratio between the number of negative events wrongly categorized as positive (false positives) and the total number of actual negative events (regardless of classification). The false positive rate (or "false alarm rate") usually refers to the expectancy of the false positive ratio.
Signification statistiquevignette|statistique En statistiques, le résultat d'études qui portent sur des échantillons de population est dit statistiquement significatif lorsqu'il semble exprimer de façon fiable un fait auquel on s'intéresse, par exemple la différence entre 2 groupes ou une corrélation entre 2 données. Dit autrement, il est alors très peu probable que ce résultat apparent soit en fait trompeur s'il n'est pas dû, par exemple, à un , trop petit ou autrement non représentatif (surtout si la population est très diverse).
Substance blanchethumb|Hémisphère droit d'un cerveau humain disséqué à la suite d'une coupe sagittale, révélant la substance grise dans la partie externe et la substance blanche dans la partie interne. La substance blanche est une catégorie de tissu du système nerveux central, principalement composé des axones myélinisés des neurones. Elle relie différentes aires de la substance grise où se situent les corps cellulaires des neurones. Elle constitue la partie interne du cerveau et la partie superficielle de la moelle épinière.
Substance grisethumb|Hémisphère droit d'un cerveau humain disséqué à la suite d'une coupe sagittale, révélant la substance grise dans la partie externe et la substance blanche dans la partie interne. La substance grise est la partie des tissus du système nerveux central composée essentiellement des corps cellulaires et de l'arbre dendritique des neurones ainsi que de certaines cellules gliales. Au microscope, la substance grise apparaît plus sombre que le reste du tissu nerveux, dit substance blanche, qui est essentiellement constitué des faisceaux de fibres axonales gainées de myéline, à la couleur blanchâtre.
False discovery rateIn statistics, the false discovery rate (FDR) is a method of conceptualizing the rate of type I errors in null hypothesis testing when conducting multiple comparisons. FDR-controlling procedures are designed to control the FDR, which is the expected proportion of "discoveries" (rejected null hypotheses) that are false (incorrect rejections of the null). Equivalently, the FDR is the expected ratio of the number of false positive classifications (false discoveries) to the total number of positive classifications (rejections of the null).
Test statistiqueEn statistiques, un test, ou test d'hypothèse, est une procédure de décision entre deux hypothèses. Il s'agit d'une démarche consistant à rejeter ou à ne pas rejeter une hypothèse statistique, appelée hypothèse nulle, en fonction d'un échantillon de données. Il s'agit de statistique inférentielle : à partir de calculs réalisés sur des données observées, on émet des conclusions sur la population, en leur rattachant des risques d'être erronées. Hypothèse nulle L'hypothèse nulle notée H est celle que l'on considère vraie a priori.
Loi normaleEn théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Microscope à contraste de phasethumb|Photographie d'un cellule épithéliale de joue vue par un Microscope à contraste de phase Le microscope à contraste de phase est un microscope qui exploite les changements de phase d'une onde lumineuse traversant un échantillon. Cet instrument fut développé par le physicien hollandais Frederik Zernike dans les années 1930, ce qui lui valut le prix Nobel de physique en 1953. Emilie Bleeker, physicienne reconnue pour le développement d'instruments, est la première à mettre le microscope à contraste de phase en utilisation.
Puissance statistiqueLa puissance statistique d'un test est en statistique la probabilité de rejeter l'hypothèse nulle (par exemple l'hypothèse selon laquelle les groupes sont identiques au regard d'une variable) sachant que l'hypothèse nulle est incorrecte (en réalité les groupes sont différents). On peut l'exprimer sous la forme 1-β où β est le risque de c'est-à-dire le risque de ne pas démontrer que deux groupes sont différents alors qu'ils le sont dans la réalité.
Loi log-normaleEn théorie des probabilités et statistique, une variable aléatoire X est dite suivre une loi log-normale de paramètres et si la variable suit une loi normale d'espérance et de variance . Cette loi est parfois appelée loi de Galton. Elle est habituellement notée dans le cas d'une seule variable ou dans un contexte multidimensionnel. Une variable peut être modélisée par une loi log-normale si elle est le résultat de la multiplication d'un grand nombre de petits facteurs indépendants.
Phase-contrast X-ray imagingPhase-contrast X-ray imaging or phase-sensitive X-ray imaging is a general term for different technical methods that use information concerning changes in the phase of an X-ray beam that passes through an object in order to create its images. Standard X-ray imaging techniques like radiography or computed tomography (CT) rely on a decrease of the X-ray beam's intensity (attenuation) when traversing the sample, which can be measured directly with the assistance of an X-ray detector.
Électroencéphalographie intracrânienneL'électroencéphalographie intracrânienne dite aussi intra-cérébrale, sous-durale, stéréotaxique (SEEG) est une méthode d'enregistrement de l'activité du cerveau au moyen d'électrodes implantées en profondeur sous la boîte crânienne utilisée notamment en neurologie, dans le diagnostic pré-chirurgical de l'épilepsie.
Produit de contrasteEn , un produit (ou agent) de contraste est une substance qui augmente artificiellement le contraste permettant de visualiser une structure anatomique (par exemple, un organe) ou pathologique (par exemple, une tumeur) naturellement peu ou pas contrastée, et que l'on aurait donc du mal à distinguer des tissus voisins.
Analyse des donnéesL’analyse des données (aussi appelée analyse exploratoire des données ou AED) est une famille de méthodes statistiques dont les principales caractéristiques sont d'être multidimensionnelles et descriptives. Dans l'acception française, la terminologie « analyse des données » désigne donc un sous-ensemble de ce qui est appelé plus généralement la statistique multivariée. Certaines méthodes, pour la plupart géométriques, aident à faire ressortir les relations pouvant exister entre les différentes données et à en tirer une information statistique qui permet de décrire de façon plus succincte les principales informations contenues dans ces données.
Taille d'effetEn statistique, une taille d'effet est une mesure de la force de l'effet observé d'une variable sur une autre et plus généralement d'une inférence. La taille d'un effet est donc une grandeur statistique descriptive calculée à partir de données observées empiriquement afin de fournir un indice quantitatif de la force de la relation entre les variables et non une statistique inférentielle qui permettrait de conclure ou non si ladite relation observée dans les données existe bien dans la réalité.
Test FEn statistique, un test F est un terme générique désignant tout test statistique dans lequel la statistique de test suit la loi de Fisher sous l'hypothèse nulle. Ce type de tests est souvent utilisé lors de la comparaison de modèles statistiques qui ont été ajustés sur un ensemble de données, afin d'identifier le modèle qui correspond le mieux à la population à partir de laquelle les données ont été échantillonnées. Les tests F dits "exacts" sont ceux pour lesquels les modèles ont été ajustés aux données par la méthode des moindres carrés.
Échocardiographie de contrasteL'échocardiographie de contraste consiste à améliorer la visualisation du cœur lors d'une échocardiographie par l'injection de micro-bulles d'air. Cette technique s'est développée à la fin des années 1980, après des premiers tests à la fin des années 1970, pour la visualisation du cœur droit et durant les années 1990 pour l'exploration du cœur gauche. Les premières expériences d'opacification myocardique chez l'animal (par injection directe dans la racine de l'aorte) datent du début des années 1980.