(Nota per Mod: spostate pure il topic se trovate una sezione migliore)
Ho due set di file MP3, contenenti le stesse canzoni, che mi son ... procurato di recente.
Stavo ascoltando un file da uno dei due set e, poichè ci tengo ad avere dei file di qualità, ho guardato le proprietà del file.
Non è difficile immaginare come ci son rimasto quando ho scoperto che quel file, che a orecchio dovrebbe aver avuto un bitrate di 256-320 kpbs, ne aveva uno da 96. Esatto, Novanta-Sei !
Estremamente perplesso, ho aperto subito il file corrispondente dell'altro set. Qualità identica (a orecchio), durata identica (3:30), frequenza di campionamento identica (44100 Hz), dimensioni quasi identiche (6.3 vs 6.8 MB). L'unica cosa diversa è la codifica, i primi sono degli ".mp3" (MPEG 1 Audio, Layer 3), questi sono ".m4a" (MPEG-4 AAC audio), e ovviamente il bitrate, 96 kbps vs. 256 kbps.
Veramente confuso, ho provato a fare un semplice conto, e cioè dividere il bitrate per la frequenza di campionamento. Nel primo caso ci sono quasi 2 bit per campione, nel secondo quasi 5.
Ovviamente era un calcolo idiota.
Ho cercato cmq di tirare fuori delle regioni per questa abissale differenza:
- Il primo registra i campioni come numeri interi (tipicamente 16 bit no?), mentre il secondo come numeri floating-point (almeno 32 bit ci vogliono).
- Il primo ha una compressione maggiore del secondo quindi riesce a portare meno dati per la stessa unità di tempo.
Però rimane il problema di spiegare la dimensione del file, che è praticamente uguale, considerando le dimensioni relative dei due bitrate.
Qualcuno può spiegarmi cosa succede? Son sicuro che il problema è un'errata interpretazione che do al "bitrate".