Potentiel électrochimique de membraneToute cellule biologique est entourée d'une membrane dite membrane plasmique. Cette membrane est relativement imperméable aux espèces électriquement chargées telles que les ions et aux molécules qui peuvent participer à l'activité électrochimique (molécules polaires) telles que l'eau. Elle présente ainsi une grande résistance électrique et forme en quelque sorte un dipôle (comme un condensateur). Grâce à ces propriétés, la membrane sépare en deux compartiments étanches l'intérieur de la cellule, le cytoplasme, de l'extérieur de la cellule, le milieu extracellulaire.
Potentiel d'actionvignette|Le déplacement d'un potentiel d'action le long d'un axone, modifie la polarité de la membrane cellulaire. Les canaux ioniques sodium Na+ et potassium K+ voltage-dépendants s'ouvrent puis se ferment quand la membrane atteint le potentiel seuil, en réponse à un signal en provenance d'un autre neurone. À l'initiation du potentiel d'action, le canal Na+ s'ouvre et le Na+ extracellulaire rentre dans l'axone, provoquant une dépolarisation. Ensuite la repolarisation se produit lorsque le canal K+ s'ouvre et le K+ intracellulaire sort de l'axone.
Potentiel de reposLe potentiel de repos membranaire (RMP, pour l'anglais resting membrane potential) est le potentiel électrochimique de membrane de la membrane plasmique d'une cellule excitable lorsqu'elle est au repos ; c'est un des états possibles du potentiel de la membrane. En introduisant une électrode de mesure à l'intérieur de la cellule (voir la méthode de patch-clamp), on constate une différence de potentiel : la face interne de la membrane est négative par rapport à une électrode de référence placée sur la face externe de la membrane.
Modèles du neurone biologiquevignette|390x390px|Fig. 1. Dendrites, soma et axone myélinisé, avec un flux de signal des entrées aux dendrites aux sorties aux bornes des axones. Le signal est une courte impulsion électrique appelée potentiel d'action ou impulsion. vignette|Figure 2. Évolution du potentiel postsynaptique lors d'une impulsion. L'amplitude et la forme exacte de la tension peut varier selon la technique expérimentale utilisée pour acquérir le signal.
Potentiel d'inversionLe potentiel d'inversion pour un canal ionique, ou plus généralement pour un courant ionique, est la valeur du potentiel de membrane pour laquelle le flux ionique est nul. Il s'agit en fait de la valeur de potentiel de membrane à laquelle une espèce ionique est en équilibre électro-osmotique. C’est-à-dire que pour ce potentiel de membrane, la force électrique due à la différence de potentiel de part et d'autre de la membrane et la force chimique due à la différence de concentration (ou force osmotique) sont égales et de sens opposés.
Potentiel postsynaptiqueUn potentiel postsynaptique (PPS), encore appelé potentiel gradué ou potentiel électro-tonique, est le signal unitaire produit en aval d'une synapse. Il s'agit d'un changement transitoire et local de la différence de potentiel électrochimique établie de part et d'autre de la membrane. La plaque motrice est la zone synaptique entre le neurone et la cellule musculaire. Le neurotransmetteur mis en jeu est l'acétylcholine qui va se fixer sur un récepteur et va ainsi entraîner une dépolarisation.
Threshold potentialIn electrophysiology, the threshold potential is the critical level to which a membrane potential must be depolarized to initiate an action potential. In neuroscience, threshold potentials are necessary to regulate and propagate signaling in both the central nervous system (CNS) and the peripheral nervous system (PNS). Most often, the threshold potential is a membrane potential value between –50 and –55 mV, but can vary based upon several factors.
Potentiel postsynaptique inhibiteurAn inhibitory postsynaptic potential (IPSP) is a kind of synaptic potential that makes a postsynaptic neuron less likely to generate an action potential. IPSPs were first investigated in motorneurons by David P. C. Lloyd, John Eccles and Rodolfo Llinás in the 1950s and 1960s. The opposite of an inhibitory postsynaptic potential is an excitatory postsynaptic potential (EPSP), which is a synaptic potential that makes a postsynaptic neuron more likely to generate an action potential.
Convergence de variables aléatoiresDans la théorie des probabilités, il existe différentes notions de convergence de variables aléatoires. La convergence (dans un des sens décrits ci-dessous) de suites de variables aléatoires est un concept important de la théorie des probabilités utilisé notamment en statistique et dans l'étude des processus stochastiques. Par exemple, la moyenne de n variables aléatoires indépendantes et identiquement distribuées converge presque sûrement vers l'espérance commune de ces variables aléatoires (si celle-ci existe).
Processus stationnairePour accéder aux propriétés essentielles d'un signal physique il peut être commode de le considérer comme une réalisation d'un processus aléatoire (voir quelques précisions dans Processus continu). Le problème est largement simplifié si le processus associé au signal peut être considéré comme un processus stationnaire, c'est-à-dire si ses propriétés statistiques caractérisées par des espérances mathématiques sont indépendantes du temps.
UnimodalityIn mathematics, unimodality means possessing a unique mode. More generally, unimodality means there is only a single highest value, somehow defined, of some mathematical object. In statistics, a unimodal probability distribution or unimodal distribution is a probability distribution which has a single peak. The term "mode" in this context refers to any peak of the distribution, not just to the strict definition of mode which is usual in statistics. If there is a single mode, the distribution function is called "unimodal".
Loi des grands nombresvignette|Visualisation de la loi des grands nombres En mathématiques, la loi des grands nombres permet d’interpréter la probabilité comme une fréquence de réalisation, justifiant ainsi le principe des sondages, et présente l’espérance comme une moyenne. Plus formellement, elle signifie que la moyenne empirique, calculée sur les valeurs d’un échantillon, converge vers l’espérance lorsque la taille de l’échantillon tend vers l’infini. Plusieurs théorèmes expriment cette loi, pour différents types de convergence en théorie des probabilités.
Loi de probabilité à plusieurs variablesvignette|Représentation d'une loi normale multivariée. Les courbes rouge et bleue représentent les lois marginales. Les points noirs sont des réalisations de cette distribution à plusieurs variables. Dans certains problèmes interviennent simultanément plusieurs variables aléatoires. Mis à part les cas particuliers de variables indépendantes (notion définie ci-dessous) et de variables liées fonctionnellement, cela introduit la notion de loi de probabilité à plusieurs variables autrement appelée loi jointe.
Bayesian probabilityBayesian probability (ˈbeɪziən or ˈbeɪʒən ) is an interpretation of the concept of probability, in which, instead of frequency or propensity of some phenomenon, probability is interpreted as reasonable expectation representing a state of knowledge or as quantification of a personal belief. The Bayesian interpretation of probability can be seen as an extension of propositional logic that enables reasoning with hypotheses; that is, with propositions whose truth or falsity is unknown.
Conditional probability distributionIn probability theory and statistics, given two jointly distributed random variables and , the conditional probability distribution of given is the probability distribution of when is known to be a particular value; in some cases the conditional probabilities may be expressed as functions containing the unspecified value of as a parameter. When both and are categorical variables, a conditional probability table is typically used to represent the conditional probability.
Loi de probabilité marginaleEn théorie des probabilités et en statistique, la loi marginale d'un vecteur aléatoire, c'est-à-dire d'une variable aléatoire à plusieurs dimensions, est la loi de probabilité d'une de ses composantes. Autrement dit, la loi marginale est une variable aléatoire obtenue par « projection » d'un vecteur contenant cette variable. Par exemple, pour un vecteur aléatoire , la loi de la variable aléatoire est la deuxième loi marginale du vecteur. Pour obtenir la loi marginale d'un vecteur, on projette la loi sur l'espace unidimensionnel de la coordonnée recherchée.
Membrane (chimie)Une membrane est une structure de faible épaisseur, relativement à sa taille, séparant deux milieux en empêchant toute la matière dans le cas de certaines membranes biologiques, ou seulement une partie de la matière de passer de l'un à l'autre des milieux en fonction de la largeur de ses pores et de son épaisseur. Le concept de membrane date du , mais n’a été utilisé, pour les membranes synthétiques, massivement en dehors des laboratoires qu'à partir de la seconde guerre mondiale.
Consistent estimatorIn statistics, a consistent estimator or asymptotically consistent estimator is an estimator—a rule for computing estimates of a parameter θ0—having the property that as the number of data points used increases indefinitely, the resulting sequence of estimates converges in probability to θ0. This means that the distributions of the estimates become more and more concentrated near the true value of the parameter being estimated, so that the probability of the estimator being arbitrarily close to θ0 converges to one.
Variable aléatoire à densitéEn théorie des probabilités, une variable aléatoire à densité est une variable aléatoire réelle, scalaire ou vectorielle, pour laquelle la probabilité d'appartenance à un domaine se calcule à l'aide d'une intégrale sur ce domaine. La fonction à intégrer est alors appelée « fonction de densité » ou « densité de probabilité », égale (dans le cas réel) à la dérivée de la fonction de répartition. Les densités de probabilité sont les fonctions essentiellement positives et intégrables d'intégrale 1.
Loi binomialeEn théorie des probabilités et en statistique, la loi binomiale modélise la fréquence du nombre de succès obtenus lors de la répétition de plusieurs expériences aléatoires identiques et indépendantes. Plus mathématiquement, la loi binomiale est une loi de probabilité discrète décrite par deux paramètres : n le nombre d'expériences réalisées, et p la probabilité de succès. Pour chaque expérience appelée épreuve de Bernoulli, on utilise une variable aléatoire qui prend la valeur 1 lors d'un succès et la valeur 0 sinon.