Le CD revient à la mode aux États-Unis

Félix Cattafesta |

Après le vinyle, c'est au tour du CD de revenir sur le devant de la scène. Les ventes de disques ont augmenté pour la première fois depuis 2004 aux États-Unis selon les données recueillies par la Recording Industry Association of America (RIAA). Les chiffres du CD étaient en chute libre depuis 2004, une période où 767 millions de disques s'étaient écoulés. En comparaison, l'année 2020 a été la pire année pour le support avec seulement 31,6 millions de galettes vendues.

Volume des ventes de CD enregistré aux États-Unis. Source : RIAA.

Mais les ventes sont reparties à la hausse en 2021 avec 46,6 millions de disques écoulés, ce qui représente une jolie hausse de + 47,7 % par rapport à l'année précédente. Les revenus engrangés par le CD sont passés de 483,2 millions de dollars à 584,2 millions de dollars. Si l'on parle souvent du grand retour du vinyle, le CD conserve tout de même plusieurs avantages : « la qualité sonore est très bonne, le format est petit, pratique, peu onéreux à produire et usant moins de matières problématiques que le vinyle », analyse Sophian Fanen, auteur du livre Boulevard du stream.

En France, les chiffres ne sont pas encore connus, mais on peut s'attendre à une hausse similaire. Récemment, plusieurs artistes ont décidé de mettre le CD en avant dans leurs campagnes promotionnelles. Les rappeurs Orelsan et Vald ont par exemple proposé des versions différentes de leurs albums (5 éditions différentes pour V, 15 pour Civilisation). Pour Sophian Fanen, l'achat d'un CD permet aux fans de soutenir et de montrer leur attachement aux artistes.

Volume des ventes de vinyle enregistré aux États-Unis. Source : RIAA.

En parallèle, le vinyle continue de bien se porter. Le support aurait représenté 23 % des ventes de disques au Royaume-Uni en 2021 selon les chiffres de l’industrie phonographique britannique (BPI). Adele aurait fait presser plus de 500 000 vinyles de son album 30. Lors de l'avant-dernière semaine de décembre 2021, les ventes de vinyle ont dépassé les 2 millions d'exemplaires d’après MRC Data : une première depuis 1991.

Cependant, cette bonne lancée pourrait être arrêtée nette par des problèmes d'approvisionnements. Les usines de vinyles en activités ne sont pas nombreuses, et les embouteillages sont fréquents en période de fin d'année. De plus, une hausse des prix est prévue suite à différentes pénuries de composants. Si ce retour du support physique est intéressant, rappelons que le streaming reste de loin la plateforme la plus en vogue : les abonnements payants ont rapportés plus de 8,6 milliards de dollars aux États-Unis et représentent plus de 57,2 % des revenus mesurés par la RIAA.

Tags
avatar Calorifix | 

Plutôt des formats sans pertes que des MP3.

avatar radeon | 

@Calorifix

Ça marche aussi avec du flac ou autre oui, tout dépend de comment tu consommes ta musique, moi c’est plutôt en voiture ou en bossant à la maison et je ne suis pas un audiophile.
Mais ta remarque est très juste.

avatar Scooby-Doo | 

@radeon,

Exact, le FLAC ou l'ALAC dans mon cas, c'est top !

Loin de l'AAC et du MP3.

Mais bon certains écoutent leur musique avec des écouteurs sans fil sur Bluetooth qui compresse la transmission d'un fichier audio déjà compressé !

De la bouillie de bouillie !

Les sans-dents apprécient la bouillie…

😁

avatar radeon | 

@Scooby-Doo

Bah comme dit si tu écoutes la musique en fond sans forcément te concentrer sur chaque note ça n’est pas un souci et la bouillie à un niveau suffisant ;)

avatar souze | 

@Scooby-Doo

On se serait vraiment vraiment VRAIMENT passé de ta supérieure condescendance sur les sans-dents.
Grand bien te fasse d’être du bon côté.
Tu dévalorises ton discours précédent qui était intéressant.

avatar Scooby-Doo | 

@souze,

« On se serait vraiment vraiment VRAIMENT passé de ta supérieure condescendance sur les sans-dents. Grand bien te fasse d’être du bon côté. Tu dévalorises ton discours précédent qui était intéressant. »

Merci pour votre commentaire, mais voilà vous avez oublié l'émoticone en fin de mon commentaire.

Bouillie <> Sans-dents !!! Vous savez EPAD, purée, steak haché, compote !

Merci de venir vivre avec nous à la campagne, au fin fond de la France, avec du chauffage au bois débité par vous même, et où la voiture est essentielle car il n'y a rien d'autres, y compris le manque de médecin.

Pas la peine d'aller dans un pays lointain pour connaître les problèmes du quotidien.

Si vous prenez tout au premier degré, c'est vraiment désolant.

Je ne me moque pas des sans-dents ni des gens qui écoutent matin, midi et soir du AAC ou MP3, voire du loseless sur des écouteurs Bluetooth avec transmission compressée.

J'écoute de l'AAC et du MP3 ! J'ai 500 albums dans l'un et l'autre format achetés chez Apple Music Store et Amazon.

Du coup je pense pouvoir en parler en connaissance de cause.

Et je vous confirme l'énorme différence entre du CD > ALAC / FLAC et du AAC ou MP3 du même morceau de musique.

Notamment j'ai plusieurs albums de Blank & Jones en MP3 que j'ai trouvé par la suite en occasion en CD mais aussi de Two Steps From Hell ou autres groupes en AAC puis en CD.

J'y peux rien, je fais ce triste constat que comme pour la guerre Betamax versus VHS, le moins disant a largement gagné.

Les gens se contentent allègrement d'un son moyen d'un niveau de qualité équivalent à une bonne radio FM des années 70 en terme de rapport signal/bruit et spectre audio.

Je me permets d'attirer votre attention qu'avant l'arrivée de la musique dématérialisée, toutes les nouveautés en matière de musique, de système d'écoute, depuis la sortie de la Seconde Guerre mondiale ne furent qu'une longue et lente succession d'améliorations.

La chaîne audio est parti de très bas, de la mono crachouillante à de la stéréo avec le spectre audio humain parfaitement linéaire et intégralement respecté, un rapport signal/bruit en dessous de la limite audible même si perfectible.

Cet aboutissement, c'est la norme CD qui avait elle-même des inconvénients techniques liés notamment à la durée d'enregistrement maximale imposée et la taille du média qui devait tenir facilement dans la main contrairement au 33 trs.
L'encombrement physique fut aussi déterminant.

Le 44.1 kHz ne s'est imposé qu'à cause de ces contraintes et non le contraire.

Théoriquement, si Philips avait pu faire tout ce qu'il voulait, on aurait eu du 48 kHz et du 20 bits de base.

Mais depuis la sortie du CD, toutes les nouveautés ne vont que dans l'autre sens.

Si certains sont revenus sur cette démarche, ce n'est que très récemment, notamment parce que des acteurs indépendants avec une petite couverture médiatique, notamment Qobuz mais d'autres aussi, ont joué la carte de la qualité sur la compression à l'extrème des données.

Cordialement.

Scooby-Doo.

avatar MarcMame | 

@Scooby-Doo

"Le 44.1 kHz ne s'est imposé qu'à cause de ces contraintes et non le contraire.
Théoriquement, si Philips avait pu faire tout ce qu'il voulait, on aurait eu du 48 kHz et du 20 bits de base."

———
L’histoire du choix des fréquences d’échantillonnage historique n’est pas du tout celle que tu racontes. Pas plus que celle de la quantification.
Le choix du 44,1KHz est directement lié à plusieurs éléments :
- Une fréquence strictement supérieure à 40KHz (théorème de Nyquist–Shannon)
- une bande de transition d’au moins 2KHz pour le filtrage anti repliement.
- Le matériel d’enregistrement du master : un magnétoscope BVU à cassette U-Matic modifié pour enregistrer 3 échantillons par ligne vidéo, seul matériel de l’époque capable d’enregistrer un tel flux de données suffisamment longtemps et pour un coût pas trop prohibitif.

Le choix du 44,1KHz est mathématique.
C’est la première fréquence supérieure à 42KHz qui soit un multiple compatible avec les fréquences vidéo utilisées avec le NTSC américain ET le PAL Européen.

Le choix du 48KHz est plus arbitraire puisqu’il n’était plus nécessaire d’être compatible avec les fréquences vidéo NTSC ou PAL.
Il a été conçu pour le DAT (qui pouvait aussi enregistrer en mode long play en 32KHz) et pour empêcher la copie numérique directe sans perte des CD en 44,1KHz.

Le 48KHz est devenu la norme de l’audiovisuel dans le monde entier.

Quant au choix de la quantification, Philips voulait faire du 14bit mais c’est Sony qui a fini par imposer le 16bit.

avatar Scooby-Doo | 

@MarcMame,

« Le choix du 44,1KHz est mathématique. C’est la première fréquence supérieure à 42KHz qui soit un multiple compatible avec les fréquences vidéo utilisées avec le NTSC américain ET le PAL Européen. »

Mais le NTSC et le PAL sont en 48 kHz !

Comment le 44.1 kHz serait la première fréquence supérieure au 48 kHz ?

Je connais bien le théorème de Nyquist–Shannon.

Le 48 kHz était fréquent en enregistrement DAT car directement compatible avec le NTSC et le PAL, mais aussi en 44.1 kHz et 32 kHz.

Le choix de la fréquence, c'est que Philips voulait présenter une courbe de réponse la plus linéaire possible entre 20 et 20 kHz, du coup Philips aurait pu faire du 40 kHz, sauf que le haut du spectre, il y avait des filtres et la courbe de réponse chutait rapidement.

Le 44.1 kHz est un compromis à cause de la densité et de la taille des pits.

Ce n'est pas la longueur des pits qui indique si c'est 1 ou un 0, mais uniquement la présence ou l'absence du pits. Les pits avaient une limite physique lors de la création du glass master.

Je ne suis pas dans l'industrie de la mastérisation CD mais on m'avait expliqué les limites du système et pourquoi par exemple il fallait éviter certains niveaux audios mathématiquement possibles, mais provoquant une distorsion du son par écrêtage lors de la conversion N/A. C'est pourquoi il était recommandé de ne pas dépasser 96 % de la dynamique pour laisser une marge de sécurité.

Normalement, au départ il voulait une seule norme, mais le 14 bits était aussi sur la table à cause du CNA Philips en 14 bits disponible.

C'est la taille maximale du support CD, la taille et la densité possible des pits en fonction des lasers de l'époque qui ont imposé le 44.1 kHz qui est une fréquence limite « batarde » !

Rien n'indiquait auparavant cette fréquence.

Je confirme qu'il y a eu débat à ce sujet entre Sony et Philips. La durée minimale d'enregistrement de 74 mn dans sa première version imposa le 44,1 kHz.

Heureusement, avec cette fréquence la réponse est linéaire du 20 à 20 kHz, ce qui correspond à la réponse d'une oreille jeune en bonne santé !

C'était l'un des arguments pour dire que le son était Hi-Fi.

Sony a imposé le 16 bits, mais en interne, de mémoire ils avaient déjà des prototypes en 20 bits qu'ils pensaient réserver à une application professionnelle.

Le DAT fonctionnait effectivement en trois fréquences : 48, 44.1 et 32 kHz ! Mais je ne me souviens pas d'une utilisation en mastérisation utilisant le 32 kHz. Peut-être cette fréquence, c'était pour des enregistrements type ATC pour l'aviation civile ou autre ou des reportages pour la radio.

Les masters se faisaient sur des magnétoscopes BVU à cassette U-Matic Sony mais aussi à partir de son analogique utilisant des Ampex ATR-102.

La plupart des CD de l'époque était de type AAD ou ADD, peu étaient en DDD car le montage audio informatisé en était à ses tous débuts.

Désolé pour les explications techniques !

Où ai-je fais une erreur ?

😉

avatar MarcMame | 

@Scooby-Doo

"Mais le NTSC et le PAL sont en 48 kHz !
Comment le 44.1 kHz serait la première fréquence supérieure au 48 kHz ?"

Non. Tu fais visiblement une confusion avec l’audio des programmes diffusés en NTSC ou PAL.
Les fréquences porteuses du NTSC et du PAL se chiffrent en MHz.
Le magnétoscopes utilisés à l’époque étaient analogique, pas numérique.
On convertissait le train de bit PCM en vidéo analogique sous la forme de points noir ou blanc pour pouvoir l’enregistrer sur ces magnétoscopes.

avatar Scooby-Doo | 

@MarcMame,

Oui je dois confondre la fréquence d'échantillonnage de la version numérique du PAL et du NTSC qui est en 48 kHz et la sous-porteuse de l'U-matic.

Merci de m'excuser pour cette confusion, mais bon l'U-matic c'est un peu loin dans mes souvenirs.

Le DAT a effectivement existé en version grand public, mais il existait aussi une version pro pour faire des back-ups informatique, et autres usages.

Sony a toujours eu la volonté d'élargir le champs d'applications de ses innovations.

L'échec du Betamax conduira à l'essor du Betacam qui en se perfectionnant devint acceptable dans le domaine professionnel. C'est l'exemple qui me vient à l'esprit.

avatar MarcMame | 

@Scooby-Doo

"Oui je dois confondre la fréquence d'échantillonnage de la version numérique du PAL et du NTSC qui est en 48 kHz et la sous-porteuse de l'U-matic."
————-
Les versions numériques du PAL et du NTSC sont des codecs vidéos très variés selon l’usage et la machine de l’époque (DCT chez Sony) et incompatible avec l’audio.
Totalement dissocié du son qui était généralement enregistré en PCM sur la même bande.
Il n’y a aucun lien entres les 2. Têtes d’enregistrement et de lecture différentes, circuits d’acquisition et de reproduction séparés.

avatar MarcMame | 

@Scooby-Doo

"Le DAT a effectivement existé en version grand public, mais il existait aussi une version pro pour faire des back-ups informatique, et autres usages."

Oui mais c’est bien bien bien plus tard. Après l’échec auprès du grand public.

avatar MarcMame | 

@Scooby-Doo

"L'échec du Betamax conduira à l'essor du Betacam qui en se perfectionnant devint acceptable dans le domaine professionnel."

Bien plus qu’acceptable.
Le format Betacam est devenu la référence mondiale chez les pros !
Le format s’est développé jusqu’au HDcam SR qui enregistrait du 2K RGB en 4:4:4 à 880Mbps en parallèle de 12 canaux audio en 48kHz/24bits.
La dématérialisation a signé la fin des machines à bandes il y a 10 ans déjà.

avatar Scooby-Doo | 

@MarcMame,

« Bien plus qu’acceptable. Le format Betacam est devenu la référence mondiale chez les pros ! »

Et pourtant à la sortie du Betamax version tout à fait grand public avec sa bande ½ pouce, les professionnels ne juraient que par le 2 pouces et l'arrivée du 1 pouce.

Faut croire que Sony a mis le paquet pour améliorer ce support au vu de sa longévité.

Par contre, difficile de trouver un équivalent avec pour origine la cassette VHS !

😉

avatar MarcMame | 

@Scooby-Doo

"Faut croire que Sony a mis le paquet pour améliorer ce support au vu de sa longévité."

Bien évidemment.
Le format Betacam, Betacam SP puis Digital Betacam, Betacam SX et enfin HDCam et HDCam SR ne sont que des lointains enfants de la Betamax d’origine grand public qui n’ont de commun que le boîtier de K7 inchangé.

avatar MarcMame | 

@Scooby-Doo

"Par contre, difficile de trouver un équivalent avec pour origine la cassette VHS !"

JVC s’est défendu comme il a pu et si la S-VHS a été un gros flop commercial, ils ont réussi à s’imposer dans les petites stations TV qui n’avaient pas les moyens du Betacam ainsi que dans les écoles jusqu’à la fin des années 90.

Maigre consolation.

avatar MarcMame | 

@Scooby-Doo

"Le 48 kHz était fréquent en enregistrement DAT car directement compatible avec le NTSC et le PAL"

Non. Il n’existe aucune relation entre les 2.
Je te suggère de t’informer un minimum avant de faire des affirmations à l’emporte-pièce. Ou alors, au minimum, utiliser le conditionnel.

J’ai déjà donné précédemment les éléments d’explication.
Libre à toi de ne pas en tenir compte.

avatar MarcMame | 

@Scooby-Doo

"Le 44.1 kHz est un compromis à cause de la densité et de la taille des pits."

Non. Éléments d’explication déjà donné.
La raison est purement mathématique et liée aux fréquences porteuses du PAL et du NTSC.

avatar MarcMame | 

@Scooby-Doo

"C'est la taille maximale du support CD, la taille et la densité possible des pits en fonction des lasers de l'époque qui ont imposé le 44.1 kHz qui est une fréquence limite « batarde » !"

Non. Toujours pas.
C’est fou de pouvoir affirmer que le choix d’une fréquence d’échantillonnage aussi précise que le 44 100Hz puisse avoir été faite sur un coup de dés.
Tu es dans la pure invention.

avatar Scooby-Doo | 

@MarcMame,

« C’est fou de pouvoir affirmer que le choix d’une fréquence d’échantillonnage aussi précise que le 44 100Hz puisse avoir été faite sur un coup de dés. »

Pourtant c'est ce que l'on m'a expliqué à l'époque !

Pas que cela a été décidé sur un coup de dés, mais bien parce que le marketing de Philips voulait absolument annoncer 74 minutes d'enregistrement pour 1 CD, ce à quoi a répondu la R&D de Philips que pour faire tenir 74 minutes d'enregistrement sur la surface de cette galette, avec le pits, son espacement à chaque tour de la spirale, il faudrait réduire la fréquence de 48 kHz à 44.1 kHz.

Après nous n'avons visiblement pas discuté avec les mêmes personnes à l'époque.

Cordialement.

Scooby-Doo

avatar MarcMame | 

@Scooby-Doo

"Pourtant c'est ce que l'on m'a expliqué à l'époque !
Pas que cela a été décidé sur un coup de dés, mais bien parce que le marketing de Philips voulait absolument annoncer 74 minutes d'enregistrement pour 1 CD, ce à quoi a répondu la R&D de Philips que pour faire tenir 74 minutes d'enregistrement sur la surface de cette galette, avec le pits, son espacement à chaque tour de la spirale, il faudrait réduire la fréquence de 48 kHz à 44.1 kHz.
Après nous n'avons visiblement pas discuté avec les mêmes personnes à l'époque."

—————-

Que la fréquence choisie soit 44 000, 44 056 ou 44 100 (les 3 choix discutés) ne changeait rien à la durée du CD. C’est à la marge.

Quant aux 74mn, ce n’est pas Philips mais le PDG de Sony (ou sa femme, y’a débat) qui l’a imposé pour pouvoir écouter la 9eme symphonie de Beethoven d’une traite.

Encore une fois, le choix du 48KHz n’était pas sur la table lors de la création du CD.
Le 48KHz a été choisi plus tard, lors de la création du DAT, plus arbitrairement car il n’était plus lié aux fréquences porteuses des systèmes vidéo.
Le 48KHz devait absolument être différent du 44,1KHz pour empêcher la compatibilité numérique directe et donc la création de clone numérique parfaits. Ce qui faisait très peur à l’époque à l’industrie du disque. (Un système anti copie a été intégré pour interdire les copies de copies en 44,1KHz sur DAT)
Le 44,1KHz devait être la FS pour les professionnels et le 48KHz la FS pour le grand public.
L’histoire en a décidé autrement…

avatar Scooby-Doo | 

@MarcMame,

« Nan mais en fait, les souvenirs peuvent jouer des tours. Tu dois pouvoir vérifier tout ce que tu dis sur des sites sérieux. »

Je vous l'accorde et avec mon âge, je peux effectivement oublier certains éléments.

Le principal étant qu'au départ dans les années 1982-1983, la capacité du CD n'était que de 72 mn !

Et donc la fameuse histoire de la femme du patron de Sony part en vrille même si elle est partiellement vrai.

La version retenue par Sony de la Symphonie no. 9 de Beethoven était celle de Wilhelm Furtwängler exécutée à Bayreuth en 1951, pas celle de 1942.

En tous cas de mémoire, c'est celle qui était la plus longue version enregistrée du catalogue Sony !

Mais voilà, il faut attendre 1997 pour avoir cette version officiellement disponible sur CD grâce à l'augmentation de la capacité du support.

J'espère être suffisamment clair à ce sujet.

En fait, l’ingénieur de Philips, Kees A. Schouhamer Immink, a expliqué à cette époque ceci : Philips faisait pression pour que le CD soit de taille proche de la cassette audio, tandis que Sony poussait pour un disque de 12 cm légèrement plus grand, en partie parce que Sony savait parfaitement que Philips avait déjà une usine capable de produire des CD de 11,5 cm. Si Sony pouvait imposer le format 12 cm comme norme de l’industrie, Sony annihilerait l’avance industrielle de Philips comme société ayant introduit sur le marché le CD en premier.

Pour faire simple, la taille et la capacité ont été choisis pour permettre à Sony d'être le premier !

J'espère ne pas être trop compliqué dans mes réponses. C'est cela dont je me souviens !

Cordialement.

avatar MarcMame | 

@Scooby-Doo

"La version retenue par Sony de la Symphonie no. 9 de Beethoven était celle de Wilhelm Furtwängler exécutée à Bayreuth en 1951, pas celle de 1942.
En tous cas de mémoire, c'est celle qui était la plus longue version enregistrée du catalogue Sony !
Mais voilà, il faut attendre 1997 pour avoir cette version officiellement disponible sur CD grâce à l'augmentation de la capacité du support.
J'espère être suffisamment clair à ce sujet.
En fait, l’ingénieur de Philips, Kees A. Schouhamer Immink, a expliqué à cette époque ceci : Philips faisait pression pour que le CD soit de taille proche de la cassette audio, tandis que Sony poussait pour un disque de 12 cm légèrement plus grand, en partie parce que Sony savait parfaitement que Philips avait déjà une usine capable de produire des CD de 11,5 cm. Si Sony pouvait imposer le format 12 cm comme norme de l’industrie, Sony annihilerait l’avance industrielle de Philips comme société ayant introduit sur le marché le CD en premier."

————
Je ne savais pas. Merci pour ces précisions intéressantes.

avatar Scooby-Doo | 

@MarcMame,

« Je ne savais pas. Merci pour ces précisions intéressantes. »

Je vous en prie, c'est toujours un plaisir de se remémorer le bon vieux temps !

😉

avatar MarcMame | 

@Scooby-Doo

"Pour faire simple, la taille et la capacité ont été choisis pour permettre à Sony d'être le premier !"
———
Certes mais c’est indépendant du choix du 44,1
Sauf si Philips disposait à l’époque d’un autre moyen de numérisation que le combo PCM 1600 + BVU ce dont je doute.

avatar Scooby-Doo | 

@MarcMame,

« Certes mais c’est indépendant du choix du 44,1. Sauf si Philips disposait à l’époque d’un autre moyen de numérisation que le combo PCM 1600 + BVU ce dont je doute. »

Je suppose que vous faites référence à ceci : combo PCM 1600 + BVU-200B

Je ne sais si Philips avait cette solution mais comme Sony finalement a torpillé la sortie du CD en 11.5 cm de Philips, pourquoi ne pas aussi priver Philips de ce combo.

Mais vous avez peut-être la réponse à ma question…

avatar MarcMame | 

@Scooby-Doo

"Mais vous avez peut-être la réponse à ma question…"

A ma connaissance, Philips n’avait aucun magnétoscope professionnel à son catalogue donc a moins de prendre le temps de développer une solution spécifique, Sony avait le champ libre sur ce terrain. (Toute la chaine de pré-production).

avatar MarcMame | 

@Scooby-Doo

"Après nous n'avons visiblement pas discuté avec les mêmes personnes à l'époque."

Nan mais en fait, les souvenirs peuvent jouer des tours.
Tu dois pouvoir vérifier tout ce que tu dis sur des sites sérieux.

avatar MarcMame | 

@Scooby-Doo

"C'était l'un des arguments pour dire que le son était Hi-Fi."

Le terme Hi-Fi est bien plus ancien que l’invention du CD.
Et surtout, le plus important : "Hi-Fi" ne veut rien dire.
Contrairement aux croyances qui ont la vie dure, ce n’est pas une norme. C’est une vulgaire appellation commerciale.

avatar Scooby-Doo | 

@MarcMame,

« Le terme Hi-Fi est bien plus ancien que l’invention du CD. »

Merci de cette précision que je connaissais déjà ! Je suis assez âgé pour avoir connu la Hi-Fi avant même l'avènement du Compact Disc Audio.

Mais voilà, si cette appellation n'est pas une norme en soit, c'est surtout une démarche qui part du principe que toute la chaîne audio doit être la plus neutre, le son le plus proche de l'original.

Les traitements appliqués par les algorithmes des CODEC dits lossy sont parfaitement incompatibles avec cette notion même de respect de la courbe de réponse.

Le son PCM en 48 et 44.1 kHz avait l'avantage d'être linéaire de 20 à 22 kHz, avec un usage plutôt entre 20 et 20 kHz.

Pour compléter votre propos, je cite Wikipédia :

« Hi-fi ou hifi est l'abréviation du terme anglophone « high fidelity », qui signifie en français « haute-fidélité », utilisé dans l'électronique grand public ou l'électroacoustique. Ce terme est censé indiquer que le matériel paré de cette qualification offre une qualité supérieure aux équipements courants. Le but étant d'obtenir une reproduction sonore aussi proche que possible de l'original. Contrairement à une opinion largement répandue, les appareils « hi-fi » ne doivent pas répondre impérativement à des « normes hi-fi » : si des tentatives pour imposer des normes ont existé dans le passé, aucune vérification des performances n'est réalisée par un organisme officiel. »

Apple a dans le passé œuvré positivement à l'amélioration de la création de masters qui respectent certaines règles de bonne conduite comme je l'expliquais avant.

Mastered for iTunes est une bonne initiative concernant la question des niveaux d'enregistrements puisque cette norme limitait à -1 dB les signaux à encoder.

De plus les masters fournis à Apple sont obligatoirement en 96 kHz / 24 bits de mémoire.

Mais je ne sais si ce format de vente a eu le succès escompté. Je ne suis pas chez Apple et je ne connais pas si la tendance est à la recherche d'une plus grande fidélité audio.

En tous cas, livrer du AAC 44.1 kHz / 16 bits @ CBR 128 kbps dans un premier temps fut vraiment une belle régression en matière de qualité audio.

Mais bon les acheteurs étaient habitués à de la radio FM et le son était très proche, donc pas plus de problème que cela.

avatar MarcMame | 

@Scooby-Doo

"Mais voilà, si cette appellation n'est pas une norme en soit, c'est surtout une démarche qui part du principe que toute la chaîne audio doit être la plus neutre, le son le plus proche de l'original."

——-
Certes. Mais en l’absence de norme et d’éléments de contrôle ça n’a aucune valeur. On peut faire dire tout et n’importe quoi à cette appellation malheureusement.
Où se trouve la limite "Hi-Fi", pas "Hi-Fi" ?
Seule les normes peuvent réguler tout ça et rien n’existe dans ce domaine. (De manière globale du moins).

Il aurait fallu la même démarche que THX pour le cinéma qui n’est pas non plus une norme mais un organisme de certification extrêmement rigoureux. (Rigoureux pour les professionnels uniquement, parce que pour le grand public…)

avatar MarcMame | 

@Scooby-Doo

"Les traitements appliqués par les algorithmes des CODEC dits lossy sont parfaitement incompatibles avec cette notion même de respect de la courbe de réponse.
Le son PCM en 48 et 44.1 kHz avait l'avantage d'être linéaire de 20 à 22 kHz, avec un usage plutôt entre 20 et 20 kHz."

———
Pas d’accord avec toi.
De nombreux codecs lossy donnent des résultats indétectables à l’oreille, même la plus entraînée et même dans des conditions d’écoute excellentes.
Et la plupart sont parfaitement linaires sur leurs courbes de réponses.

Il y a à boire et à manger parmi les codecs lossy et tout n’est pas à jeter.

avatar Scooby-Doo | 

@MarcMame,

« De nombreux codecs lossy donnent des résultats indétectables à l’oreille, même la plus entraînée et même dans des conditions d’écoute excellentes. »

Vous parlez de quels codecs lossy ?

Pas chez moi en tous cas, et je peux facilement faire la différence entre du MP3 @ CBR 320 kpbs et du CBR 256.

Visiblement vous n'avez une oreille en « or » !

Je pense que j'aurai pu être accordeur de piano ou d'orgue sans trop de difficulté !

Vous savez j'entendais dans un environnement non silencieux le bruit du transformateur de mon Teac pourtant à l'arrêt et ce à 8 m de là…

« Il y a à boire et à manger parmi les codecs lossy et tout n’est pas à jeter. »

Mais j'utilise au quotidien du MP3 / Lame 48 kHz @ CBR 320 kbps et qui me convient même si c'est très loin du WMA Pro 44.1 kHz / 24 bits @ VBR 480 2 passes illimités.

« Et la plupart sont parfaitement linaires sur leurs courbes de réponses. »

Oui enfin faut voir la coupure brutale de certains à 16384 Hz (2^14) pour le 128 kbps par exemple.

Mais j'ai déjà écrit ici que le débat n'est pas fermé, même entre le CBR et le VBR, entre le MP3 et l'AAC.

C'est aussi une affaire de goût et d'encodeurs à disposition.

Bon j'ai compris que nous ne trouverons pas de terrain d'entente et que nous ne partirons pas ensemble en vacances !

😁

avatar MarcMame | 

@Scooby-Doo

"Vous parlez de quels codecs lossy ?
Pas chez moi en tous cas, et je peux facilement faire la différence entre du MP3 @ CBR 320 kpbs et du CBR 256."

Le MP3 est à part. C’est un vieux et mauvais codec selon les standards actuels, même poussé dans ses retranchements.
Les progrès ont été nombreux et le codec AAC en est la démonstration.
Il vaut mieux un AAC @256kbps qu’un MP3 @320Kbps, VBR ou CBR.
Dans de nombreux cas et avec un taux de compression pas trop élevé il est très difficile de faire la différence avec du PCM.
Les codecs récents du style E-AC3 (DD+) sont également très efficients et transparents pour peu qu’on ne limite pas trop le débit.

avatar MarcMame | 

@Scooby-Doo

"Oui enfin faut voir la coupure brutale de certains à 16384 Hz (2^14) pour le 128 kbps par exemple"

Essayons d’être sérieux dans la démonstration.
Tout le monde est capable d’apprécier le désastre d’un MP3 @ 128Kbps
C’est de la merde.
Mais c’était la seule merde possible à l’époque d’un internet @33,6kbps.

avatar MarcMame | 

@Scooby-Doo

"Mastered for iTunes est une bonne initiative concernant la question des niveaux d'enregistrements puisque cette norme limitait à -1 dB les signaux à encoder."
———
Cette initiative ne vient pas d’Apple.
C’est une pratique commune plus ancienne qui vise à éviter des phénomènes de clipping avec certains DAC ainsi que les problèmes liés aux multiples passes d’encodage/décodage devenu courant avec les casques Bluetooth.
D’ailleurs si on fait bien son boulot on va plus loin que ça et on se limite à -3dBFS True Peak.
C’est la pratique actuelle quand des normes s’appliquent (audiovisuel cinéma / TV).

avatar Scooby-Doo | 

@MarcMame,

« D’ailleurs si on fait bien son boulot on va plus loin que ça et on se limite à -3dBFS True Peak. C’est la pratique actuelle quand des normes s’appliquent (audiovisuel cinéma / TV). »

Oui peut-être, mais voilà : l'ATSC recommande le -24 LKFS pour les productions audiovisuelles et l'EBU le -23 LKFS tandis que la BBC, pour faire bande à part comme à son accountumée, recommande le -20 LKFS !

Mais bon je vous l'accorde, c'est une blague dans la blague !

avatar MarcMame | 

@Scooby-Doo

"Oui peut-être, mais voilà : l'ATSC recommande le -24 LKFS pour les productions audiovisuelles et l'EBU le -23 LKFS tandis que la BBC, pour faire bande à part comme à son accountumée, recommande le -20 LKFS !"

———
J’ai du mal à comprendre ce que les normes de loudness viennent faire dans cette discussion.
Et franchement, je te l’ai déjà dit, tu devrais vraiment, vraiment te mettre à jour sur tes connaissances.
La pondération K n’est plus du tout utilisée de nos jours et ça depuis bientôt 10 ans.
Ça a d’ailleurs coûté très cher à Dolby qui s’est tiré une balle dans le pied.

avatar Scooby-Doo | 

@MarcMame,

« D’ailleurs si on fait bien son boulot on va plus loin que ça et on se limite à -3dBFS True Peak. C’est la pratique actuelle quand des normes s’appliquent (audiovisuel cinéma / TV). »

« J’ai du mal à comprendre ce que les normes de loudness viennent faire dans cette discussion. Et franchement, je te l’ai déjà dit, tu devrais vraiment, vraiment te mettre à jour sur tes connaissances. La pondération K n’est plus du tout utilisée de nos jours et ça depuis bientôt 10 ans. Ça a d’ailleurs coûté très cher à Dolby qui s’est tiré une balle dans le pied. »

Euh, j'ai du mal à comprendre aussi ! Les productions audiovisuelles sont soumises en Europe hors Royaume-Uni, à cette norme actualisée en 2020 :

https://tech.ebu.ch/docs/r/r128.pdf

Désolé, j'emploie parfois LKFS mais certains parlent de LUFS, ce qui est mon cas.

Mais toutes les valeurs citées sont bonnes et pas un seul -3 dBFS True Peak à l'horizon ! Par contre je connais une référence à du -3 dBFS True Peak en matière de production / post-production…

PS : LKFS / LUFS c'est la même chose, c'est un synonyme !

https://en.wikipedia.org/wiki/LKFS

Désolé, je suis taquin par nature !

avatar MarcMame | 

@Scooby-Doo

"Euh, j'ai du mal à comprendre aussi ! Les productions audiovisuelles sont soumises en Europe hors Royaume-Uni, à cette norme actualisée en 2020 :
https://tech.ebu.ch/docs/r/r128.pdf
Désolé, j'emploie parfois LKFS mais certains parlent de LUFS, ce qui est mon cas."

————
Oui c’est sensiblement la même chose mais on ne doit plus utiliser le LKFS pour éviter certaines confusions, particulièrement avec l’algorithme du dialog intelligence de Dolby introduit avec le Dolby-E et qui utilise la pondération K.
C’est de l’ordre du détail mais ça commence à dater donc…

D’ailleurs :
« The EBU has suggested that the ITU should change the unit to LUFS, as LKFS does not comply with scientific naming conventions and is not in line with the standard set out in ISO 80000-8. »

Bref : LUFS en absolu, LU en relatif.

avatar MarcMame | 

@Scooby-Doo

"Sony a imposé le 16 bits, mais en interne, de mémoire ils avaient déjà des prototypes en 20 bits qu'ils pensaient réserver à une application professionnelle."

Possible.
Mais on s’en cogne. Il n’a JAMAIS été question de créer le CD en 20bit. Les discussions ne tournaient qu’autour du choix en 14 ou 16bit.

Le 16bit restera la norme, y compris pour les pro, jusqu’au milieu des années 90.

avatar Scooby-Doo | 

@MarcMame,

« Mais on s’en cogne. Il n’a JAMAIS été question de créer le CD en 20bit. Les discussions ne tournaient qu’autour du choix en 14 ou 16bit. »

Sony avait plusieurs formats de CD en tête déjà à l'époque, pas qu'en 12 cm et en 16 bits.

Mais bon ce ne fut pas commercialisé à l'époque, donc on va oublier très vite !!!

😁

avatar MarcMame | 

@Scooby-Doo

"Le DAT fonctionnait effectivement en trois fréquences : 48, 44.1 et 32 kHz ! Mais je ne me souviens pas d'une utilisation en mastérisation utilisant le 32 kHz. Peut-être cette fréquence, c'était pour des enregistrements type ATC pour l'aviation civile ou autre ou des reportages pour la radio."

———
Le DAT a été conçu pour le grand public au départ, pour remplacer la K7 audio. Il n’a jamais été pensé pour les professionnels.
C’est l’échec auprès du grand public qui a poussé Sony à en faire un outil professionnel. (Ils ont fait la même chose avec le Betamax)
Bref, au début du DAT, il n’était pas question de l’utiliser comme Master.
La fréquence 32KHz était une volonté de proposer un doublement de la durée d’enregistrement/lecture au prix d’un compromis sur la bande passante. Il a peut-être été utilisé par les pros à un moment ou un autre mais ce n’était pas sa destination première.

avatar MarcMame | 

@Scooby-Doo

"Les masters se faisaient sur des magnétoscopes BVU à cassette U-Matic Sony mais aussi à partir de son analogique utilisant des Ampex ATR-102."

Encore une confusion.
Tu confonds Master pour l’usine de pressage CD (la K7 U-Matic) avec le master audio final qui pouvait être n’importe quoi et le plus souvent analogique (ATR mais pas que…)

avatar MarcMame | 

@Scooby-Doo

"La plupart des CD de l'époque était de type AAD ou ADD, peu étaient en DDD car le montage audio informatisé en était à ses tous débuts."
————-

Le montage / mixage audio était désigné par la seconde lettre.
La première lettre dont tu parles désigne le mode d’enregistrement.

La dernière lettre désignait le support et donc forcément D pour un CD.

avatar MarcMame | 

@Scooby-Doo

"Désolé pour les explications techniques !
Où ai-je fais une erreur ?"

Un peu partout.
Tu devrais vraiment te mettre un peu à jour sur tes connaissances.

avatar pocketalex | 

Mp3 🤢🤮

avatar Scooby-Doo | 

@pocketalex,

Certains estiment que le MP3 est meilleur que le AAC !

Il y a débat à ce sujet.

Entre lossy CODEC, tout le monde n'est pas d'accord.

Exemple :

https://www.sageaudio.com/blog/mastering/aac-or-mp3-whats-the-best-lossy-file-type.php

Le mal absolu, c'est la distribution dématérialisée par Internet.

Mais parfois, par manque d'alternatives, on est obligé d'y passer et de polluer comme des Américains !!!

Mais cela vous le savez déjà, je ne vous apprends rien. Toute personne éduquée et logique peut comprendre cela.

De même que la diffusion linéaire est plus économique que la diffusion personnalisée.

Un émetteur DVB-T qui arrose des milliers de foyers consommera toujours moins que des milliers de diffusion individualisée.

😭

avatar Ralph_ | 

@radeon

Justement non!
Il y avait eu un cas où les ayant droits d’un défunt n’ont pas pu récupérer la musique stockée et achetée car n’avaient pas le mot de passe du compte.

Ce qui est chiant, c’est que même en standard, dans la voiture, On n’a plus de lecteurs…

Le problème de Apple Music, Spotify and co, C’est que si tu veux faire un montage à usage personnel sur iMovie avec du son…ben tu ne peux pas.

avatar jeserkrugger | 

@Ralph_

Seat Leon modele 2019, carplay et lecteur de cd d’origine dans la boîte à gant,

Pages

CONNEXION UTILISATEUR