[ Home | Redazione | HiFi Shows | FAQ | Ampli | Diffusori | Sorgenti | Tweakings | Inter.Viste ]

The TNT-Convertus: un DAC minimalista

[The TNT Convertus]
Parte 2
[English version]

2. Il lettore CD a due telai: problemi di implementazione

2.1 - I circuiti di pick-up e controllo

Il lettore CD usa un sofisticato pick-up laser per legger il disco. In questa fase sono usati normalmente dei chipsets standard, costruiti soltanto dalle maggiori industrie di elettroniche (Philips, Sony...).
Poche case esoteriche sviluppano ed usano algoritmi proprietari per estrarre tutte le possibili informazioni dal disco, in modo che non sia possibile individuare errori di lettura neanche quando avvengono.

Questo è un altro problema critico possibile. In fatti l'algoritmo di correzione lavora automaticamente, eventualmente ricreando i campioni mancanti, senza alcun controllo dell'utente. Questa è la ragione per cui un lettore CD non "clicca" come un LP: quando un campione manca, può essere ricostruito usando tutti i campioni adiacenti e l'informazione extra che è stata inclusa specificatamente per questa ragione.
Questa è veramente una cosa buona.....per uno standard di bassa qualità! Gli audiofili non apprezzano molto questo comportamento, dato che potrebbe celare grandi imperfezioni nei CD registrati.
Una questione, non così facile da spiegare, per esempio, è come possano suonare così diversamente due copie differenti della stessa registrazione digitale, considerato che non siano state rimasterizzate.
Il sospetto che ci possa essere un fattore di qualità intrinseca nel supporto che alteri il livello della qualità del segnale, è piuttosto diffuso...
Ma ciò che è peggio, è che in questo modo si distrugge uno dei fondamenti dell'audio digitale, e cioè che il segnale digitale registrato può essere recuperato senza errori.
Ad ogni modo, mentre in passato nei lettori di qualità spesso vi era un limite nell'uso di algoritmi di correzione, così che è potuto accadere che un lettore di alto livello non poteva leggere CD che fossero apparentemente leggibili da lettori di basso costo, recentemente pochi marchi audio dall'alta reputazione hanno migliorato i propri algoritmi di correzione, al fine di garantire una lettura senza problemi anche di CD difettosi.
Ad ogni modo, ciò significa che essi accettano un livello di imperfezione maggiore e tentano di correggerlo, ma nessuno (a parte forse il progettista......) può essere sicuro che i campioni ricostruiti siano definitivamente corretti, come gli esemplari originali.

Ciò che si può immaginare, ahimè, è che se non sono disponibili sufficienti informazioni per ricostruire il segnale originale, gli algoritmi di correzione possono solo indovinare ciò che era l'originale.
Notate, ad ogni modo, che ciò non sembra effettivamente corretto dal punto di vista di un purista, e infatti non è corretto, ma evita probabilmente l'equivalente digitale di quei terribili clicks degli LP (ad ogni modo un click digitale spesso appare esattamente come un click analogico.....).

Durante l'ultimo Top Audio in Milano, ho parlato con Marco Antonio Lincetto, un ingegnere del suono molto conosciuto (Velut Luna, Sicut Sol ed altre etichette discografiche) ed egli mi ha detto che generalmente ogni "meccanica CD" dovrebbe essere capace di leggere un CD in modo impeccabile: ciò significa che se estrai il segnale digitale da un CD e confronti diverse volte le differenti versioni, non puoi trovare differenze.
All'epoca ho accettato l'informazione, ma ora capisco che questo test dimostri soltanto che un lettore CD può leggere un CD in maniera coerente, e non c'è ancora nessuna prova che il segnale digitale sia corretto: un altro lettore CD con algoritmi di correzione differenti, potrebbe estrarre coerentemente un segnale differente.

Notate che anche da questo punto di vista il convertitore digitale/analogico non riconosce il problema, è completamente inconsapevole della sua esistenza, persino quando si inserisce il muting - dato che l'algoritmo di correzione non è capace di estrarre alcun campione ragionevolmente ricostruito - il DAC entra in automuting soltanto dopo diversi campioni nulli, ma non esegue alcuna operazione di correzione.
Come conseguenza di ciò, l'unico flusso di informazioni dal lettore al DAC, che è il segnale di cui parlavamo, è codificato nel protocollo SPDIF: ne parleremo nella prossima sezione.

2.2 La IEC 958 Consumer mode 1 ovvero interfaccia SPDIF

L'interfaccia SPDIF è stata progettata da Sony e Philips (l'SP nel nome) al fine di ottenere una interfaccia di basso costo (parole magiche....) che potesse effettivamente (da un punto di vista economico) trasportare i dati digitali provenienti da una sorgente digitale per esigenze di tipo consumer (ad ogni modo, per scopi professionali si presume venga usata l' interfaccia bilanciata AES-EBU: è sicuramente migliore perchè è molto più immune alle interferenze di tipo EMI sulle lunghe mandate necessarie nell'uso professionale, ma è affetta esattamente dallo stesso tipo di problema che ci accingiamo a discutere...).
Notate che esisteva una interfaccia precedente che usava due cavi per portare separatamente il segnale ed il clock: all'epoca l'effetto di una impropria taratura della conversione AD-DA non era completamente noto, nonchè il problema della riduzione dei costi era preponderante nella decisione, così che la interconnessione a singolo cavo fu proposta ed accettata come standard.

Il segnale proveniente dalla meccanica CD (o lettore CD) deve essere portato al DAC. Ha una frequenza che dipende dalla frequenza di campionamento (44.1Ksps per i CD: invece dei Khz spesso si trovano i Ksps, che significa migliaia di campioni per secondi) e dal numero di bits trasmessi (24 per ogni campione, dei quali solo 16 sono usati nei CD, più altri bits di servizio, per un totale di 32 bits per ogni campione di ogni canale), che porta il flusso fino a 2.822 Mbps.

Il flusso di bit è codificato con un codice a marcatura bifase che rende il segnale indipendente di assoluta polarità e soprattutto impedisce al segnale di essere costantemente alto o basso, ciò è necessario per il ricevitore al fine di renderlo capace di riconoscere automaticamente il bit di clock, cosa che sarebbe impossibile in caso di dati binari, dove potrebbero esserci lunghe sequenze di 1 e 0.
La codifica a marcatura bifase implica semplicemente che ad un qualunque limite di bit avviene un cambiamento ed un secondo cambiamento avviene a metà tempo di bit quando il bit è un mark (digital 1).

Fig. 7

Ciò, come conseguenza, rende la banda richiesta doppia rispetto alla frequenza di bit, circa 5.6Mhz. Certamente non è una frequenza molto alta, ma è molto più alta delle frequenze normalmente maneggiate dagli amanti dell'autocostruzione.
È abbastanza alta da ottenere un accoppiamento anche quando non è richiesto....Per esempio ho notato che l'uscita del prototipo ha cominciato a lavorare prima di connettere effettivamente l'interconnessione digitale: è stato sufficiente terminarlo molto vicino!!

Ad ogni modo ciò significa che bisogna prestare particolare attenzione per prevenire seri problemi. A parte il fatto che è necessario un attento layout, vi sono altri problemi.

Nel caso di codice bifase, il modello mostra che l'onda è piuttosto distorta a seconda del simbolo precedente: è un problema molto noto dal nome interferenza inter-simbolo.

L'imperfezione deriva dal fatto che il DAC deve ottenere il bit clock dall'uncio segnale che riceve. Ma, come abbiamo visto prima, il segnale SPDIF è alterato dalla sequenza di simboli, così che il limite fra un simbolo e l'altro non corrisponde allo stesso livello soglia; poichè normalmente la ricognizione del limite avviene intercettando i cambiamenti ad un determinato livello soglia, l'alterazione dell'onda è traslata in uno spazio di tempo di alcune transizioni, se comparata con altre.
Quindi il segnale da cui si suppone di ottenere il clock non contiene uno stabile indicatore di clock (la transizione del limite di bit), dato che è affetto da un ritardo variabile ed imprevedibile.

Ad ogni modo, il codice non è neanche un codice realmente di pura marcatura bifase: i dati sono organizzati in strutture ed è necessario trasferire in qualche modo la struttura iniziale di informazioni. In altre interfacce è possibile (anche se non così facile) reperire l'allineamento della struttura analizzando dati codificati (tipicamente uno su N bits è usato solo per trasmettere questa informazione di allineamento, e questo N bit contiene uno schema fisso, per esempio 0,1,1).
Nel flusso SPDIF, invece, l'informazione di allineamento è trasmessa inserendo le violazioni di flusso nella regola generale del codice di marcamento bifase: nell'esempio sopra (i dati sono quasi tutti zero) potete vedere due violazioni (tre semi-periodi con lo stesso valore) fra 4 e 6 ed un altra a 16us. Ciò rende il codice un rapporto di clock persino (leggermente) meno stabile.

Perchè un rapporto di clock stabile è così importante? Beh, considerate una sinusoide a 1 KHz campionata a 44.1Ksps.
La precisione del clock di campionamento originale non è un problema (in vero, è un fattore indipendente che ne' l'utente, ne' l'apparecchio di riproduzione può controllare), ma se immaginate che la riproduzione di un singolo campione è dilazionata rispetto al corretto tempo di riproduzione, troverete che il valore ricostruito contiene un errore dipendente dalla pendenza dell'onda in quel momento.
L'errore temporale nella conversione di un campione in relazione al tempo ideale è chiamato Jitter.

Nell'immagine seguente la linea scura è stata ottenuta applicando un grande ammontare di Jitter prima della fase di conversione D/A: ovviamente il segnale ricostruito sarà molto differente dall'originale.

Fig. 8

Giusto per spiegare ciò che sta accadendo, il secondo campione (valore della linea rossa dove incrocia la seconda linea verticale) è riprodotto con il corretto valore, ma al tempo sbagliato: infatti la linea blu raggiunge il valore della linea rossa leggermente prima. Notate che nelle figure l'errore temporale è chiaramente esagerato, infatti è circa il 20% del periodo di campionamento: normalmente parliamo di centinaia di pico secondi (10E-12sec), che corrispondono a circa 0,001% del periodo di campionamento a 44.1Khz.

Fig. 8a

Il Jitter è un tipico fenomeno di distorsione temporale, ma può essere studiato anche nella proprietà di frequenza (in questo caso è propriamente chiamato disturbo di fase): in pratica il Jitter fa apparire le bande laterali dietro quelle fondamentali.
Le analisi di queste bande laterali possono essere usate per quantificare l'ammontare di bitter. La formula da usare affinchè il Jitter non causi un errore più grande della metà del bit in un sistema di bit con una frequenza di segnale massima f, dovrebbe essere Jitter massimo = 2 EXP n/(pi*f) (Nota: ho trovato la formula in una collezione di vecchie e-mails sul Jitter dal newsgroup rec.audio.high-end. Si diceva che derivasse da un manuale AD, ma tentando di capire come fosse stata formulata, ho ottenuto un valore 4 volte più basso.....)

Da questa formula si ottiene 242ps (pico-secondi) come massimo jitter per un sistema a 20KHz/16 bit. Ovviamente per un più alto numero di bits il jitter ammesso decresce rapidamente, raggiungendo valori critici per la corrente tecnologia già per 20KHz/20 bits. Immaginate cosa accade per 96 KHz e 24 bits.

Qual è l'effetto del Jitter? Devo dire che non ho ancora fatto alcun esperimento in tal senso, ma si manifesta come mancanza di fuoco, disturbo dell'immagine sonora. Ciò che è strano, ad ogni modo, è che pochi autori hanno riportato di aver notato un suono caldo e rotondo, ma più tardi hanno scoperto di aver inavvertitamente inserito Jitter nel clock. Quindi anche in termini di effetto sul suono il Jitter è estremamente ambiguo.

2.4 Un punto di vista purista

Il punto di vista di un purista potrebbe semplicemente essere che sicuramente ogni registrazione analogica suona meglio dello stesso pezzo in una qualunque registrazione digitale.
Non voglio entrare in questa guerra. Ahimè, i puristi la hanno persa, e in verità, tempo prima che il suono di una registrazione digitale potesse leggermente assomigliare ad una registrazione analogica. Ma hanno perso la guerra definitivamente e l'hanno persa contro il mercato globale della musica registrata, del quale i puristi sono solo una piccola parte della già piccola fetta rappresentata dagli audiofili.

Invero hanno perso la guerra e credono che tutti i danni siano venuti da ciò. Non sono così sicuro. Potete immaginare due scenari nella battaglia per la qualità che gli audiofili stanno combattendo.

Il primo scenario, le major decidono che il mercato audiofilo è ricco e grosso e decidono di fornirlo di apparecchi di qualità speciale che richiedono un supporto speciale, chiamiamolo YperCD, diverso e non compatibile con il supporto standard di largo consumo.
Il costo del singolo YperCD in questo caso deve salire molto, è una registrazione di qualità speciale prodotta in basso numero, diciamo tre volte quello attuale.

Dal punto di vista della diffusione nessun utente ascoltatore normale accetterebbe il costo extra e la disponibilità di software YperCD (se il prezzo resta limitato) o il suo prezzo (se un largo numero di titoli viene reso disponibile) diventerebbe presto il fattore limitante del mercato (cosa sta accadendo oggi con il vinile?).
Circa la produzione del lettore YperCD, i numeri coinvolti sono così bassi che il prezzo dell'unità sarebbe troppo alto e non cercherebbero di abbassarlo poichè le basse entrate non consentirebbero alcuna ulteriore ricerca nel settore (ricordate il DAT?).
Come conseguenza, la sua capacità nel rimanere una soluzione tecnologica all'avanguardia viene progressivamente erosa dal progresso della tecnologia a basso costo, ove ogni piccolo miglioramento tecnico può portare grossi incrementi di vendite (ricordate DAT contro CD). Notate che se il costo della produzione di supporti ad alta qualità dovesse in un qualunque momento diventare più basso di quello per la produzione di supporti di qualità consumer, le majors immediatamente eliminerebbero il più costoso costringendo il consumatore verso l'altro......

Nell'altro scenario, le Majors decidono che nessun supporto differente possa essere utilizzato e producono un supporto di qualità accettabile. Il prezzo di vendita può e deve essere ridotto, dato che la manodopera costa sempre meno e sebbene buona parte del vantaggio ottenuto vada nei profitti dei produttori, parte di questo viene diviso con il cliente grazie alle leggi del mercato.
La disponibilità delle nuove registrazioni non è limitata. Il lettore singolo è molto diffuso, ed il suo prezzo scende, sebbene i lettori ad alta qualità manterrebbero un costo alto almeno per mantenere la propria immagine.
La ricerca tecnologica circa il buon suono sarebbe portata avanti dalle industrie High-end che sarebbero ad ogni modo sicure che i risultati dei loro studi potrebbero essere venduti alle case di tipo consumer, mentre la riduzione di costi sarebbe garantita dai sempre migliori chips di prodizione di massa, progettati da queste ultime.

Senza dubbio preferisco il secondo scenario; il primo porta ad un mercato di elite con una soglia di accesso molto alta sostenuta solo da prezzi sempre crescenti con nessun progresso tecnico (di rilievo).
L'esempio è il mercato corrente dei vinili: non riesco a trovare niente di veramente interessante dal punto di vista musicale, a parte alcune re-edizioni di vecchie esibizioni.

Alla fine, l'assenza di competitori reali potrebbe anche non essere così cattiva in questo mercato. Attualmente il nostro villaggio globale di utenti di elettroniche sembra essere diventato troppo piccolo e pazzo perchè la competizione produca una vera selezione di pregio. Ricordate Beta contro VHS?
Il vincitore (che fu il peggiore dei due, non lo dimenticate) controllò il mercato di massa per decadi, prima che qualcosa di definitivamente migliore apparve e lo sconfisse.
Lo stesso con l'audiocassetta: fu capace di sopravvivere ad Elcaset, DAT e i Minidiscs e morì di vecchiaia già prima che i CDR prendessero il comando (almeno qui in Italia, ove i Minidisc non sono ancora così diffusi). Ma sebbene non emerga una vera competizione dai pochi seguaci del suono puro, emerge invece una critica dura, aspra e profonda.

Una delle posizioni più avanzate è espressa da Ryohei Kusunoki in un articolo in tre parti pubblicato da MJ, una importante rivista Giapponese di progettistica elettronica, disponibile anche sul Web.

Kusunoki dice che con il sovracampionamento è molto peggio che senza. Il suo punto di vista è quello che segue. Il sovracampionamento è stato introdotto al fine di ridurre la compressione cui erano soggetti il DAC ed i filtri analogici seguenti, come abbiamo spiegato nella prima parte di questo articolo.
Ma nessuno ha considerato il Jitter, dice. Da questo punto di vista, considerando che l'errore medio (che può anche essere visto come il piano di disturbo che limita lo spettro di dinamica disponibile) è la metà dell'LSB, bit meno significativo, si potrebbe decidere che questo sia anche il livello massimo accettabile per l'errore introdotto dal Jitter.

In questo caso il Jitter massimo accettabile è 173ps alla frequenza di campionamento base e precisione (44.1Ksps e 16 bit), calcolato come 1/44100/2exp16/2. Ma se si considera per esempio un sovracampionamento con un ordine di 20 bit, allora per raggiungere la stessa precisione, lo Jitter dovrebbe essere basso 1.35psec, il che è assolutamente impossibile da raggiungere.
Da ciò Kusunoki deduce che una unità con sovracampionamento non è capace di offrire la stessa precisione di una unità senza sovracampionamento.

Con riferimento ai filtri anti-alias digitali che normalmente vengono forniti con il DAC in caso di sovracampionamento, Kusunoki pensa semplicemente che non servano a nulla dato che il senso uditivo dell'uomo è un potente filtro passa basso, e filtra qualunque componente superiore a 20KHz.
Persino l'effetto di questi filtri digitali sulle periferiche successive è molto limitato, perchè esse filtrano tutti i componenti fino alla frequenza di sovracampionamento, ma non quelli sopra di essa.

Ad ogni modo Kusunoki critica tutti i filtri digitali. Dice che che un qualunque filtro digitale è soltanto una sequenza di blocchi ritardanti con qualche elaborazione dei campioni ritardati.
Il blocco ritardante di base a 44.1KHz è comunque 0.022usec, ma i ritardi sono cumulati in modo che il ritardo totale spesso raggiunge i 2msec, il che è il ritardo limite percettibile dall'essere umano.
Così, sostiene, il ritardo può essere percepito e causare grossi danni al suono. La migliore conseguenza conosciuta di questo fatto, dice, è la tipica risposta in frequenza di un lettore CD ad un impulso , che risulta invero lontano da quella ideale.

Bene, devo ammettere di aver letto soltanto un estratto tradotto del suo articolo, ma non posso concordare con molti punti espressi sopra. Ad ogni modo, poichè Kusunoki sembra essere un purista conosciuto e stimato, penso sia importante conoscere anche questo, così diverso, punto di vista.
Notate che sebbene alcuni punti di vista tecnici sembrano non essere completamente corretti da un punto di vista tecnico, questo dimostra che nessuna tecnologia accertata dovrebbe essere accettata senza una buona e sicura dose di scetticismo.

Attualmente, c'è almeno una cosa che Kusunoki dice non poter essere smentita da (quasi) nessuno: la risposta impulsiva di un normale lettore CD è veramente modesta; qualunque altro componente con la stessa risposta impulsiva, a parte forse i trasduttori, sarebbe forse considerato non accettabile.
Ciò che è peggio, la risposta impulsiva di un filtro digitale, e quindi di un normale lettore CD, ha un comportamento profondamente innaturale, il che significa che ha un innalzamento che inizia prima dell'impulso reale, il che è veramente difficile da trovare nel comportamento di un qualunque strumento musicale.

Fig. 9

Un tipico impulso in uscita dal DAC (l'uscita è invertita)

Ho letto di recente in una rivista italiana che il "ringing" è assolutamente corretto, poichè coincide con la risposta teorica impulsiva di un filtro digitale. Bene, devo dire che questo assioma illuminato non mi rende meno dubbioso circa l'intera sostanza. Ad ogni modo, credo di ricordare dai tempi dell'Università che il "ringing" non è la teorica risposta di un filtro ideale, ma la teorica risposta di un filtro pratico, dato che quello ideale richiede un ritardo infinito e sembra essere leggermente impossibile da implementare.
Kusunoki dice che secondo lui questo ringing rende il suono meno naturale e musicale. Vorrei farvi notare che nel caso di una nota transiente improvvisa (un piano o una percussione, per esempio) il ringing precederebbe la nota di 0.5ms; sebbene questo tempo potrebbe non essere lungo abbastanza e la frequenza di risonanza troppo alta (circa 22KHz) da sentire, questa "coda portante" potrebbe ipoteticamente ridurre l'impatto dinamico percettivo del suono ed alterare la qualità del suono stesso.

Giusto per dimostrare, comunque, che il problema non è così marginale, alcuni recenti lettori hi-end giapponesi, presentano una risposta impulsiva senza ringing, ottenuta tramite filtri di sovracampionamento molto sofisticati.
Non so se la teoria di Kusunoki sia adesso supportata da studi seri o semplicemente l'effetto Kusunoki abbia colpito il mercato sebbene non supportato da alcuna evidenza, ma apparentemente le grandi industrie giapponesi vogliono risolvere questo problema.

[Avanti alla Parte 3 - schemi] [Indietro alla Parte 1]

© Copyright 2000 Giorgio Pozzoli - http://www.tnt-audio.com
Traduzione: Luca Veneziani

Come stampare questo articolo

[ Home | Redazione | HiFi Shows | FAQ | Ampli | Diffusori | Sorgenti | Tweakings | Inter.Viste ]