Musical Instrument Digital Interfacevignette|Exemple de musique créée à partir de commandes MIDI. Le Musical Instrument Digital Interface ou MIDI est un protocole de communication et un format de fichier dédiés à la musique, et utilisés pour la communication entre instruments électroniques, contrôleurs, séquenceurs, et logiciels de musique. Apparu dans les années 1980, issu d'une volonté de l'industrie de normaliser les échanges entre les différents instruments, ce protocole est devenu aujourd'hui un standard très répandu dans le matériel électronique de musique.
Carte sonUne carte son est une carte d'extension permettant d'augmenter les capacités sonores d'un ordinateur. La principale fonction de cette carte est de générer des sons à l'aide d'un générateur de son programmable ou d'un convertisseur numérique-analogique, pour l'envoyer vers différents types de sorties (RCA, jack, TOSLINK). Un casque, des haut-parleurs ou tout autre élément d'une chaîne sonore pourra alors y être relié. Une carte son fournit généralement une ou plusieurs entrées permettant de brancher une source, telle qu'un microphone ou une entrée ligne.
TélécommunicationsLes télécommunications sont définies comme la transmission d’informations à distance en utilisant des technologies électronique, informatique, de transmission filaire, optique ou électromagnétique. Ce terme a un sens plus large que son acception équivalente officielle « communication électronique ». Elles se distinguent ainsi de la poste qui transmet des informations ou des objets sous forme physique.
Advanced Audio CodingAdvanced Audio Coding (AAC, « encodage audio avancé ») est un algorithme de compression audio avec perte de données ayant pour but d’offrir un meilleur rapport qualité sur débit binaire que le format plus ancien MPEG-1/2 Audio Layer 3, plus connu sous le nom de MP3. Pour ces qualités, il est choisi par différentes entreprises dont Apple ou RealNetworks. La RNT (Radio numérique terrestre utilise le système de radio diffusion DAB+ (version améliorée du DAB, Digital Audio Broadcasting) qui intègre une version avancée du codec AAC : HE-AAC version 2, aussi appelé eAAC+, et défini dans la norme MPEG-4 Part 3.
Traitement du sonLe traitement du son est la branche du traitement du signal qui s'applique aux signaux audio, dans le but notamment d'en améliorer la qualité, de les compresser, ou d'en extraire de l'information. Le terme analogique désigne quelque chose qui est mathématiquement représenté par une fonction continue. Donc un signal analogique est un signal représenté par un flux continu de donnée, ici dans un circuit électrique sous la forme de tension ou de courant.
Échantillonnage (signal)L'échantillonnage consiste à prélever les valeurs d'un signal à intervalles définis, généralement réguliers. Il produit une suite de valeurs discrètes nommées échantillons. L'application la plus courante de l'échantillonnage est aujourd'hui la numérisation d'un signal variant dans le temps, mais son principe est ancien. Depuis plusieurs siècles, on surveille les mouvements lents en inscrivant, périodiquement, les valeurs relevées dans un registre : ainsi des hauteurs d'eau des marées ou des rivières, de la quantité de pluie.
MP3Le MPEG-1 Audio Layer ou MPEG-2 Audio Layer , plus connu sous son abréviation de MP3, est la spécification audio des standards MPEG-1 et MPEG-2. Il s'agit d'un format de compression audio avec perte permettant une réduction importante de la taille du flux de données audio, tout en conservant une qualité de restitution couramment jugée acceptable, donnant le choix du débit selon le compromis taille-qualité souhaité. C'est aussi l'un des formats de musique numérique les plus répandus. L'extension de nom de fichier est .
Modulation par impulsions et codageLa modulation par impulsions et codage ou MIC (en anglais : pulse-code modulation), généralement abrégé en PCM est une représentation numérique d'un signal électrique résultant d'un processus de numérisation. Le signal est d'abord échantillonné, puis chaque échantillon est quantifié indépendamment des autres échantillons, et chacune des valeurs quantifiées est convertie en un code numérique. Le traitement indépendant de chaque échantillon implique qu'il n'y a ni chiffrement, ni compression de données.
Transformée en cosinus discrèteLa transformée en cosinus discrète ou TCD (de l'anglais : DCT ou Discrete Cosine Transform) est une transformation proche de la transformée de Fourier discrète (DFT). Le noyau de projection est un cosinus et crée donc des coefficients réels, contrairement à la DFT, dont le noyau est une exponentielle complexe et qui crée donc des coefficients complexes. On peut cependant exprimer la DCT en fonction de la DFT, qui est alors appliquée sur le signal symétrisé.
OrdinateurUn ordinateur est un système de traitement de l'information programmable tel que défini par Alan Turing et qui fonctionne par la lecture séquentielle d'un ensemble d'instructions, organisées en programmes, qui lui font exécuter des opérations logiques et arithmétiques. Sa structure physique actuelle fait que toutes les opérations reposent sur la logique binaire et sur des nombres formés à partir de chiffres binaires.
Station audionumériquevignette|Station audionumérique Une station audionumérique (acronyme DAW, de l'anglais Digital Audio Workstation) désigne une station de travail basée sur des composants optimisés pour le pilotage, l'acquisition et le traitement numérique du son. Les stations audionumériques sont conçues pour enregistrer, éditer, manipuler, créer et lire des contenus MIDI et audionumériques. Le concept a évolué avec l'importance prise par l'informatique distribuée au travers de protocoles standards de l'internet.
TélédiffusionLa télédiffusion, en anglais : broadcasting et en allemand Rundfunk désigne une technique de retransmission de signaux de télévision vers un grand nombre de récepteurs ou téléviseurs. La télédiffusion est un moyen unidirectionnel pour propager des signaux de télévision ne dépendant pas du nombre de récepteurs en fonction et en mode de retransmission numérique, ne subissant pas les limites ou dysfonctionnements éventuels, en termes de débit ou d'infrastructure de réseau local.
Portable media playerA portable media player (PMP) (also including the related digital audio player (DAP)) is a portable consumer electronics device capable of storing and playing digital media such as audio, images, and video files. The data is typically stored on a compact disc (CD), Digital Versatile Disc (DVD), Blu-ray Disc (BD), flash memory, microdrive, SD cards or hard drive; most earlier PMPs used physical media, but modern players mostly use flash memory.
Sound recording and reproductionSound recording and reproduction is the electrical, mechanical, electronic, or digital inscription and re-creation of sound waves, such as spoken voice, singing, instrumental music, or sound effects. The two main classes of sound recording technology are analog recording and digital recording. Sound recording is the transcription of invisible vibrations in air onto a storage medium such as a phonograph disc. The process is reversed in sound reproduction, and the variations stored on the medium are transformed back into sound waves.
RadiodiffusionLa radiodiffusion est l'émission de signaux par l'intermédiaire d'ondes électromagnétiques destinées à être reçues directement par le public en général et s'applique à la fois à la réception individuelle et à la réception communautaire. Ce service peut comprendre des émissions sonores, des émissions de télévision ou d'autres genres d'émission. Il s'agit d'une forme de radiocommunication. Le terme radio est souvent utilisé pour toute la chaîne de conception et de réalisation d'émissions de radio, la transmission avec les émetteurs radio et la réception au travers des postes de radio.
Radio broadcastingRadio broadcasting is the broadcasting of audio (sound), sometimes with related metadata, by radio waves to radio receivers belonging to a public audience. In terrestrial radio broadcasting the radio waves are broadcast by a land-based radio station, while in satellite radio the radio waves are broadcast by a satellite in Earth orbit. To receive the content the listener must have a broadcast radio receiver (radio). Stations are often affiliated with a radio network that provides content in a common radio format, either in broadcast syndication or simulcast, or both.
Audio coding formatAn audio coding format (or sometimes audio compression format) is a content representation format for storage or transmission of digital audio (such as in digital television, digital radio and in audio and video files). Examples of audio coding formats include MP3, AAC, Vorbis, FLAC, and Opus. A specific software or hardware implementation capable of audio compression and decompression to/from a specific audio coding format is called an audio codec; an example of an audio codec is LAME, which is one of several different codecs which implements encoding and decoding audio in the MP3 audio coding format in software.
OggOgg est le nom du principal projet de la fondation Xiph.org dont le but est de proposer des formats et codecs multimédias ouverts, libres et dégagés de tout brevet. C’est aussi le nom du format de fichier conteneur proposé par ce même projet. L’extension .ogg est une des extensions possibles pour les fichiers au format Ogg. Par abus de langage, on appelle couramment « fichier Ogg » un fichier audio au format Ogg contenant des données audio compressées en Vorbis, l’un des codecs du projet Ogg. La fondation Xiph.
Speech codingSpeech coding is an application of data compression to digital audio signals containing speech. Speech coding uses speech-specific parameter estimation using audio signal processing techniques to model the speech signal, combined with generic data compression algorithms to represent the resulting modeled parameters in a compact bitstream. Common applications of speech coding are mobile telephony and voice over IP (VoIP).
Synthèse FMvignette|Schéma de principe d'un opérateur FMOSC:OscillateurEG:Générateur d'EnveloppeVCA:voltage controlled amplifier vignette|Synthèse FM avec 2 opérateurs Brevetée par l'ingénieur John Chowning en 1973 au CCRMA de Stanford, la synthèse FM est un procédé de synthèse sonore qui utilise la modulation de fréquence (FM pour frequency modulation). Le brevet a été par la suite racheté par Yamaha qui l'a utilisé dans le synthétiseur DX7 et d'autres synthétiseurs qui l'ont suivi.