Histone acetylation and deacetylationHistone acetylation and deacetylation are the processes by which the lysine residues within the N-terminal tail protruding from the histone core of the nucleosome are acetylated and deacetylated as part of gene regulation. Histone acetylation and deacetylation are essential parts of gene regulation. These reactions are typically catalysed by enzymes with "histone acetyltransferase" (HAT) or "histone deacetylase" (HDAC) activity. Acetylation is the process where an acetyl functional group is transferred from one molecule (in this case, acetyl coenzyme A) to another.
Histone désacétylaseUne histone désacétylase (abrégé HDAC) est une enzyme catalysant la perte du groupement acétyl sur la queue N-terminale d'une histone. Leur rôle est l'inverse de celui tenu par les histone acétyltransférases. Les histone désacétylases jouent un rôle important dans la régulation de l'expression génétique. thumb|right|(Dés)acétylation d'un histoneVert : chaîne polypeptidiqueBleu : chaine latérale (Lys)Orange : groupement modifiable D'une manière générale, l'intervention des HDAC entraîne une baisse d'expression au niveau des zones concernées du génome.
Histone deacetylase inhibitorHistone deacetylase inhibitors (HDAC inhibitors, HDACi, HDIs) are chemical compounds that inhibit histone deacetylases. HDIs have a long history of use in psychiatry and neurology as mood stabilizers and anti-epileptics. More recently they are being investigated as possible treatments for cancers, parasitic and inflammatory diseases. To carry out gene expression, a cell must control the coiling and uncoiling of DNA around histones.
DonnéeUne donnée est ce qui est connu et qui sert de point de départ à un raisonnement ayant pour objet la détermination d'une solution à un problème en relation avec cette donnée. Cela peut être une description élémentaire qui vise à objectiver une réalité, le résultat d'une comparaison entre deux événements du même ordre (mesure) soit en d'autres termes une observation ou une mesure. La donnée brute est dépourvue de tout raisonnement, supposition, constatation, probabilité.
Gestion des donnéesLa gestion des données est une discipline de gestion qui tend à valoriser les données en tant que ressources numériques. La gestion des données permet d'envisager le développement d'architectures, de réglementations, de pratiques et de procédures qui gèrent correctement les besoins des organismes sur le plan de tout le cycle de vie des données. Les données sont, avec les traitements, l'un des deux aspects des systèmes d'information traditionnellement identifiés, et l'un ne peut aller sans l'autre pour un management du système d'information cohérent.
Corrélation (statistiques)En probabilités et en statistique, la corrélation entre plusieurs variables aléatoires ou statistiques est une notion de liaison qui contredit leur indépendance. Cette corrélation est très souvent réduite à la corrélation linéaire entre variables quantitatives, c’est-à-dire l’ajustement d’une variable par rapport à l’autre par une relation affine obtenue par régression linéaire. Pour cela, on calcule un coefficient de corrélation linéaire, quotient de leur covariance par le produit de leurs écarts types.
Big dataLe big data ( « grosses données » en anglais), les mégadonnées ou les données massives, désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologies et de méthodes analytiques particulières pour créer de la valeur, et qui dépassent en général les capacités d'une seule et unique machine et nécessitent des traitements parallélisés. L’explosion quantitative (et souvent redondante) des données numériques permet une nouvelle approche pour analyser le monde.
Science des donnéesLa science des données est l'étude de l’extraction automatisée de connaissance à partir de grands ensembles de données. Plus précisément, la science des données est un domaine interdisciplinaire qui utilise des méthodes, des processus, des algorithmes et des systèmes scientifiques pour extraire des connaissances et des idées à partir de nombreuses données structurées ou non . Elle est souvent associée aux données massives et à l'analyse des données.
OstéogenèseL'ostéogenèse est le processus par lequel s'élabore le tissu osseux. L'os est formé à partir : d'une matrice organique (25 %) composée essentiellement de collagène de type I (90 %), mais aussi d'autres protéines comme l'ostéonectine ou l'ostéocalcine, protéine synthétisée par les ostéoblastes (synthèse vitamine K dépendante) d'où elle est sécrétée dans l'os et un peu dans la circulation mais n'est pas relarguée lors de la résorption osseuse (par les ostéoclastes) ; d'une matrice minérale (70 %) très riche en calcium (sous forme d'hydroxyapatite de calcium ) et en phosphore ; de cellules osseuses spécifiques (5 %) (ostéoblastes et ostéoclastes) et de l'eau.
Pearson correlation coefficientIn statistics, the Pearson correlation coefficient (PCC) is a correlation coefficient that measures linear correlation between two sets of data. It is the ratio between the covariance of two variables and the product of their standard deviations; thus, it is essentially a normalized measurement of the covariance, such that the result always has a value between −1 and 1. As with covariance itself, the measure can only reflect a linear correlation of variables, and ignores many other types of relationships or correlations.
Osvignette|250px|Illustration d'un fémur humain extraite de Henry Gray's Anatomy of the Human Body. vignette|250px|La forme des os traduit l'adaptation évolutive aux fonctions qu'ils remplissent pour l'organisme. vignette|250px|Os de pieds déformés par la lèpre. Un os est un organe des Vertébrés, essentiellement constitué d'un tissu conjonctif solidifié qu'on appelle aussi os. Grâce à leur structure, les os sont à la fois légers, souples et solides ; ceux des oiseaux contiennent de l'air et sont particulièrement légers.
Consolidation osseuseLa consolidation osseuse est un processus de reconstruction de l'os à la suite d'une fracture osseuse. Le processus de consolidation comporte 3 phases : Elle débute immédiatement après la fracture avec formation d’un hématome périfracturaire (J0 à J20). Formation du cal mou (fibreux) (J20 à J30) Formation du cal dur (ossification) (J30 à J60) Elle a pour but d’adapter le segment osseux aux contraintes mécaniques (1 à 4 ans).
Remodelage de la chromatineLe remodelage de la chromatine est l'un des trois mécanismes de modification de la structure de la chromatine. Intervenant d'abord au cours de l'étape de maturation de la chromatine, il permet l'obtention d'un certain état final de sa structure. Plusieurs protéines sont impliquées dans ce processus de remodelage (familles SW1/SNF, ISW1, INO, CHD). Ces protéines, appelées facteurs de remodelage de la chromatine, forment des complexes multi-protéiques et utilisent l'énergie libérée par l'hydrolyse de l'ATP pour induire des changements conformationnels au niveau du nucléosome et des domaines de la chromatine.
Data dredgingvignette|Exemple de Data dredging. Le data dredging (littéralement le dragage de données mais mieux traduit comme étant du triturage de données) est une technique statistique qui . Une des formes du data dredging est de partir de données ayant un grand nombre de variables et un grand nombre de résultats, et de choisir les associations qui sont « statistiquement significatives », au sens de la valeur p (on parle aussi de p-hacking).
Coefficient of multiple correlationIn statistics, the coefficient of multiple correlation is a measure of how well a given variable can be predicted using a linear function of a set of other variables. It is the correlation between the variable's values and the best predictions that can be computed linearly from the predictive variables. The coefficient of multiple correlation takes values between 0 and 1.
Repliement des protéinesthumb|right|300px|Repliement des protéines Le repliement des protéines est le processus physique par lequel un polypeptide se replie dans sa structure tridimensionnelle caractéristique dans laquelle il est fonctionnel. Chaque protéine commence sous forme de polypeptide, transcodée depuis une séquence d'ARNm en une chaîne linéaire d'acides aminés. Ce polypeptide ne possède pas à ce moment de structure tridimensionnelle développée (voir côté gauche de la figure).
Bone mineralBone mineral (also called inorganic bone phase, bone salt, or bone apatite) is the inorganic component of bone tissue. It gives bones their compressive strength. Bone mineral is formed predominantly from carbonated hydroxyapatite with lower crystallinity. Bone mineral is formed from globular and plate structures distributed among the collagen fibrils of bone and forming yet a larger structure. The bone salt and collagen fibers together constitute the extracellular matrix of bone tissue.
Entrepôt de donnéesvignette|redresse=1.5|Vue d'ensemble d'une architecture entrepôt de données. Le terme entrepôt de données ou EDD (ou base de données décisionnelle ; en anglais, data warehouse ou DWH) désigne une base de données utilisée pour collecter, ordonner, journaliser et stocker des informations provenant de base de données opérationnelles et fournir ainsi un socle à l'aide à la décision en entreprise. Un entrepôt de données est une base de données regroupant une partie ou l'ensemble des données fonctionnelles d'une entreprise.
Exploratory data analysisIn statistics, exploratory data analysis (EDA) is an approach of analyzing data sets to summarize their main characteristics, often using statistical graphics and other data visualization methods. A statistical model can be used or not, but primarily EDA is for seeing what the data can tell us beyond the formal modeling and thereby contrasts traditional hypothesis testing. Exploratory data analysis has been promoted by John Tukey since 1970 to encourage statisticians to explore the data, and possibly formulate hypotheses that could lead to new data collection and experiments.
Testing hypotheses suggested by the dataIn statistics, hypotheses suggested by a given dataset, when tested with the same dataset that suggested them, are likely to be accepted even when they are not true. This is because circular reasoning (double dipping) would be involved: something seems true in the limited data set; therefore we hypothesize that it is true in general; therefore we wrongly test it on the same, limited data set, which seems to confirm that it is true.