Vous avez tous raison, le 16/44.1 est suffisant à la lecture, mais un format supérieur donne une plus grande marge de manœuvre. Surtout que aujourd'hui avec les possibilités du matériel informatique ce n'est plus un soucis.Taijitu a écrit :Ce que vous dites est certainement vrai à l'enregistrement. Moi je fais plus référence à ce qui se passe dans les convertisseurs. Le signal 16 bits 44.1 Khz provenant du CD va se faire filtrer, upsampler etc... et dans ce cas vous devez faire confiance au concepteur du chip qu'il a bien fait le boulot. ;) Tandis qu'avec un signal natif avec plus de bits et une fréquence plus élevée, certaines étapes ne sont a priori plus nécessaires ou leur distorsion induite est rejetée très loin.Philippe MULLER a écrit :
Je suppose que la raison est que comme le SNR du micro est de 80 dB, les derniers bits sont déjà du bruit ?crimson a écrit :L'utilité du dithering étant de réduire la distorsion introduite lors de la numérisation (en la remplaçant par du bruit); ne devrait-on pas déjà l'appliquer sur le signal d'entrée analogique avant sa quantification numérique (en 16 bits), au moment de l'enregistrement ?
Pour ceux pour qui c'est de l’hébreu...Il y a encore quelques années un enregistrement en 16/24 pistes simultanées donnait du fil à retordre aux machines et aux disques durs aussi bien au niveau du débit que du stockage. Je n'ose imaginer en 24/96. Le débit était le plus gênant d'ailleurs.
C'est une des raisons pour lesquelles on augmentait la résolution pour les traitements mixage en 32 bits flottant. (alors que lit fichier était en 16bit) (pour la qualité lors de traitements bien sur), mais aussi parce-que un débit d'information en 32 bit sur un disque dur (et ses cartes associées était très compliqué, voire impossible a obtenir. En gros c'est comme si vous faites un calcul avec votre calculatrice avec 4 chiffres après la virgule, alors que vous n'avez besoins que de 2 chiffres. les erreurs d'arrondis seront plus petites.