Traitement de donnéesEn informatique, le terme traitement de données ou traitement électronique des données renvoie à une série de processus qui permettent d'extraire de l'information ou de produire du savoir à partir de données brutes. Ces processus, une fois programmés, sont le plus souvent automatisés à l'aide d'ordinateurs. Si les résultats finaux produits par ces processus sont destinés à des humains, leur présentation est souvent essentielle pour en apprécier la valeur. Cette appréciation est cependant variable selon les personnes.
LeucocyteLes leucocytes (du grec leukos : blanc et kutos : cellule) ou globules blancs sont des cellules produites dans la moelle osseuse et présentes dans le sang, la lymphe, les organes lymphoïdes (ganglions, rate, amygdale et végétations adénoïdes et plaques de Peyer) et de nombreux tissus conjonctifs de l'organisme. Il en existe trois types principaux : les polynucléaires (ou granulocytes), les lymphocytes et les monocytes. Chaque type joue un rôle important au sein du système immunitaire en participant à la protection contre les agressions d'organismes extérieurs de manière coordonnée.
Taille d'effetEn statistique, une taille d'effet est une mesure de la force de l'effet observé d'une variable sur une autre et plus généralement d'une inférence. La taille d'un effet est donc une grandeur statistique descriptive calculée à partir de données observées empiriquement afin de fournir un indice quantitatif de la force de la relation entre les variables et non une statistique inférentielle qui permettrait de conclure ou non si ladite relation observée dans les données existe bien dans la réalité.
DonnéeUne donnée est ce qui est connu et qui sert de point de départ à un raisonnement ayant pour objet la détermination d'une solution à un problème en relation avec cette donnée. Cela peut être une description élémentaire qui vise à objectiver une réalité, le résultat d'une comparaison entre deux événements du même ordre (mesure) soit en d'autres termes une observation ou une mesure. La donnée brute est dépourvue de tout raisonnement, supposition, constatation, probabilité.
Test statistiqueEn statistiques, un test, ou test d'hypothèse, est une procédure de décision entre deux hypothèses. Il s'agit d'une démarche consistant à rejeter ou à ne pas rejeter une hypothèse statistique, appelée hypothèse nulle, en fonction d'un échantillon de données. Il s'agit de statistique inférentielle : à partir de calculs réalisés sur des données observées, on émet des conclusions sur la population, en leur rattachant des risques d'être erronées. Hypothèse nulle L'hypothèse nulle notée H est celle que l'on considère vraie a priori.
Kelvin probe force microscopeKelvin probe force microscopy (KPFM), also known as surface potential microscopy, is a noncontact variant of atomic force microscopy (AFM). By raster scanning in the x,y plane the work function of the sample can be locally mapped for correlation with sample features. When there is little or no magnification, this approach can be described as using a scanning Kelvin probe (SKP). These techniques are predominantly used to measure corrosion and coatings. With KPFM, the work function of surfaces can be observed at atomic or molecular scales.
Puissance statistiqueLa puissance statistique d'un test est en statistique la probabilité de rejeter l'hypothèse nulle (par exemple l'hypothèse selon laquelle les groupes sont identiques au regard d'une variable) sachant que l'hypothèse nulle est incorrecte (en réalité les groupes sont différents). On peut l'exprimer sous la forme 1-β où β est le risque de c'est-à-dire le risque de ne pas démontrer que deux groupes sont différents alors qu'ils le sont dans la réalité.
Nitrure de siliciumLe nitrure de silicium est un composé chimique de formule . On le connaît à l'état naturel (un minéral nommé nierite) depuis 1995, sous la forme de petites inclusions dans certaines météorites. Il s'agit d'une céramique blanche plutôt légère ( selon la compacité du matériau), très dure (8,5 sur l'échelle de Mohs), relativement inerte chimiquement (attaquée par l'acide fluorhydrique HF dilué et l'acide sulfurique à chaud), et demeurant stable thermiquement jusqu'à .
Biologie computationnelleLa biologie computationnelle (parfois appelée biologie numérique) est une branche de la biologie qui implique le développement et l'application de méthodes d'analyse de données, d'approches théoriques, de modélisation mathématique et de techniques de simulation computationnelle pour étudier des systèmes biologiques, écologiques, comportementaux et sociaux. Le domaine est largement défini et comprend des fondements en biologie, mathématiques appliquées, statistiques, biochimie, chimie, biophysique, biologie moléculaire, génétique, génomique, informatique et évolution.
Théorie cellulaireLa théorie cellulaire est la théorie centrale et principale de la biologie cellulaire et le fondement le plus reconnu de la biologie en général. Elle a été alimentée par beaucoup d'expériences réalisées depuis le XVIIe siècle. La théorie cellulaire est constituée de trois principes, qui peuvent être résumés comme suit : la cellule est l'unité structurale, l'unité fonctionnelle et l'unité reproductrice du Vivant thumb|Le microscope de Hooke. 1665 : On attribue à Robert Hooke la première description d'une cellule biologique faite à partir de l'observation de végétaux.
Biologie des systèmesLa biologie des systèmes (ou biologie intégrative) est un domaine récent de la biologie qui étudie les organismes vivants comme les systèmes qu'ils sont en réalité, par opposition aux approches historiques qui tendent à décomposer l'étude à tous les niveaux, en biologie, physiologie, biochimie... La biologie systémique cherche à intégrer différents niveaux d'informations pour comprendre comment fonctionne réellement un système biologique.
Nombre de sujets nécessairesEn statistique, la détermination du nombre de sujets nécessaires est l'acte de choisir le nombre d'observations ou de répétitions à inclure dans un échantillon statistique. Ce choix est très important pour pouvoir faire de l'inférence sur une population. En pratique, la taille de l'échantillon utilisé dans une étude est déterminée en fonction du coût de la collecte des données et de la nécessité d'avoir une puissance statistique suffisante.