Giochino

Pagina 2 di 2
prima
1 2
Visualizzazione dei risultati da 11 a 20 su 20
  1. #11
    Moderatore L'avatar di rogers
    Registrato
    Dec 2010
    Località
    Cagliari
    Messaggi
    800
    configurazione

    Predefinito

    Paolo facciamo a non capirci??
    Le cose che scrivi sono sacrosante e note. Ma stai uscendo per la tangente,
    perchè non si parla propriamente del sistema DAC (segnale ricostruito) ma del numero di campioni che mano a mano che la frequenza da digitalizzare crese diventano sempre meno,
    e questo è il dato. nell'immagine d'esempio questo è chiarissimo , simulando un campionamento a 44.1 kHz, ovvero circa ogni .022 ms, una sinusoide i "punti" sono pochini già a 10kHz.

  2. #12
    tebibyte L'avatar di bigtube
    Registrato
    May 2012
    Località
    cagliari
    Età
    69
    Messaggi
    2,258
    configurazione

    Predefinito

    Originariamente inviato da rogers
    Paolo facciamo a non capirci??
    Le cose che scrivi sono sacrosante e note. Ma stai uscendo per la tangente,
    perchè non si parla propriamente del sistema DAC (segnale ricostruito) ma del numero di campioni che mano a mano che la frequenza da digitalizzare crese diventano sempre meno,
    e questo è il dato. nell'immagine d'esempio questo è chiarissimo , simulando un campionamento a 44.1 kHz, ovvero circa ogni .022 ms, una sinusoide i "punti" sono pochini già a 10kHz.
    il tuo giochino è stato molto istruttivo altrochè...ma sei un incompreso !!!

  3. #13
    tebibyte L'avatar di UnixMan
    Registrato
    Sep 2013
    Messaggi
    2,529
    configurazione

    Predefinito

    Originariamente inviato da rogers
    non si parla propriamente del sistema DAC (segnale ricostruito) ma del numero di campioni che mano a mano che la frequenza da digitalizzare crese diventano sempre meno,
    e questo è il dato. nell'immagine d'esempio questo è chiarissimo , simulando un campionamento a 44.1 kHz, ovvero circa ogni .022 ms, una sinusoide i "punti" sono pochini già a 10kHz.
    non vedo dove sia la novità: questa è una cosa ovvia ed evidente, che dovrebbe essere ben nota a tutti.

    Ciò che è meno ovvio e probabilmente meno noto è che quei pochi punti sono sufficienti a ricostruire *perfettamente* il segnale originale... a patto che siano rispettate determinate condizioni. Ed è proprio qui che sta tutto il problema (perché tali condizioni non sono perfettamente realizzabili con un sistema fisico reale).
    Ciao, Paolo.

    «Se tu hai una mela, e io ho una mela, e ce le scambiamo, allora tu ed io abbiamo sempre una mela per uno. Ma se tu hai un'idea, ed io ho un'idea, e ce le scambiamo, allora abbiamo entrambi due idee.»

  4. #14
    tebibyte
    Registrato
    Dec 2010
    Località
    Cagliari
    Messaggi
    2,403
    configurazione

    Predefinito

    Aspettate un attimo! L'upsampling fatto con un PC che utilizza algoritmi fatti bene ha un effetto assolutamente percepibile nel mondo reale. Per cui trovo un po' fuorviante la definizione di "perfettamente ricostruito" relativa ad un segnale 16/44,1. La realtà dice che è "accettabilmente" ricostruito a quella frequenza, mentre diventa "meglio ricostruito" a frequenze di campionamento superiori. Questo fa parte del mondo reale, assieme a tutte le altre variabili in gioco nella riproduzione di un segnale musicale digitale convertito, cosa che è per niente banale e realmente molto difficile.

  5. #15
    tebibyte L'avatar di UnixMan
    Registrato
    Sep 2013
    Messaggi
    2,529
    configurazione

    Predefinito

    Originariamente inviato da audiodan
    Aspettate un attimo! L'upsampling fatto con un PC che utilizza algoritmi fatti bene ha un effetto assolutamente percepibile nel mondo reale. Per cui trovo un po' fuorviante la definizione di "perfettamente ricostruito" relativa ad un segnale 16/44,1. La realtà dice che è "accettabilmente" ricostruito a quella frequenza, mentre diventa "meglio ricostruito" a frequenze di campionamento superiori.
    Denny, l'upsampling fatto dal PC non può recuperare informazioni che non ha, che non sono presenti nel file di partenza. Sempre quei pochi campioni reali che sono presenti nello stream registrato hai a disposizione. I punti mancanti devi pur sempre "ricostruirli" in qualche modo. Così come fanno tutti i DAC (in vari modi, chi meglio chi peggio).

    La differenza è che con l'upsampling fatto in software puoi usare anche algoritmi molto più complessi e sofisticati di quelli solitamente implementati (in hardware) nei chip dei filtri digitali e/o nei DAC stessi. E per giunta lavorando in software puoi sceglierli e cambiarli facilmente.

    Fare upsampling in software prima di inviare lo stream al DAC è equivalente a "modificare" il tuo DAC, è come impiegare un DAC diverso. Che nel complesso può essere migliore, peggiore o semplicemente diverso rispetto a quello (hardware) che effettua la conversione finale.

    Ovviamente il risultato finale cambia, sia dal punto di vista tecnico che da quello percettivo.

    Il caso limite è quello che stai sperimentando di recente, con la conversione da PCM in DSD: così facendo stai di fatto implementando (quasi) tutto il tuo DAC in software, lasciando all'hardware ben poco da fare.

    Se però puoi ottenere degli effettivi miglioramenti anche a partire da uno stesso stream di dati 44/16 semplicemente cambiando il modo in cui effettui la conversione D/A (nel suo complesso, cosa che include anche qualsiasi elaborazione dei dati nel dominio digitale), questo lo devi proprio al teorema di Shannon ed alle sue conseguenze teoriche e pratiche.
    Ultima modifica di UnixMan : 22-06-2014 a 20:53
    Ciao, Paolo.

    «Se tu hai una mela, e io ho una mela, e ce le scambiamo, allora tu ed io abbiamo sempre una mela per uno. Ma se tu hai un'idea, ed io ho un'idea, e ce le scambiamo, allora abbiamo entrambi due idee.»

  6. #16
    Moderatore L'avatar di rogers
    Registrato
    Dec 2010
    Località
    Cagliari
    Messaggi
    800
    configurazione

    Predefinito

    Originariamente inviato da UnixMan
    non vedo dove sia la novità: questa è una cosa ovvia ed evidente, che dovrebbe essere ben nota a tutti.
    Ciò che è meno ovvio e probabilmente meno noto è che quei pochi punti sono sufficienti a ricostruire *perfettamente* il segnale originale... a patto che siano rispettate determinate condizioni. Ed è proprio qui che sta tutto il problema (perché tali condizioni non sono perfettamente realizzabili con un sistema fisico reale).

    Mi sembra una polemica inutile.
    Tiri in ballo Shannon, ma che ci azzecca ora con quello che volevo far notare?
    mi sembra quasi di vedere la scena in cui sto indicando la luna e tu vedi il dito

    Ora vado un attimo OT con la questione del teorema MATEMATICO suddetto che è quindi essenzialmente TEORICO: nel mondo reale le cose vanno diversamente ( e meno male che da qualche parte lo ammetti pure tu!)
    Già perchè ricostruire una sinusoide perfetta per il teorema sarebbe possibile, ma nella realta poi non è così perchè il campionamento dovrebbe essere sincrono con i massimi e i minimi del segnale sinusoidale altriementi la ricostruzione del segnale non ha molto di perfetto... e la sincronia quando e dove la tiri fuori nel mondo reale...
    ma non basta, perchè per ricostruire il segnale a partire dai pochi campioni, occorre avere a disposizione un filtro passa-basso ideale, ma in quanto tale, sappiamo che un filtro così non è realizzabile nel mondo reale.

    A questo punto se il discorso che nella realtà non vale molto per una sinusoide (segnale semplice) vale ancora meno per una forma d'onda da complessa ad estremamente complessa quale è il segnale MUSICALE.
    Quindi la valutazione positiva sul lavoro dei ricercatori Philips che hanno azzeccato il giusto equilibrio tra costi-benefici-capacità tecniche del momento (anni 80) per ottenere un prodotto tutto sommato ancora valido oggi, ci sta.
    ciò non toglie che con le capacità tecniche attuali di immagazinamento di dati (gigabyte ormai a pochi centesimi di euro) non si debba ogni volta sia possibile usufruire delle maggiori risoluzioni.


    (PS: non volevo fare un papiro, ma neanche mezzo o un quarto...son cose che odio sui forum)

  7. #17
    tebibyte L'avatar di UnixMan
    Registrato
    Sep 2013
    Messaggi
    2,529
    configurazione

    Predefinito

    Originariamente inviato da rogers
    Mi sembra una polemica inutile.
    uh? no, Rugge', ma quale polemica.

    Originariamente inviato da rogers
    Tiri in ballo Shannon, ma che ci azzecca ora con quello che volevo far notare?
    mi sembra quasi di vedere la scena in cui sto indicando la luna e tu vedi il dito
    magari sono un po' duro di comprendonio, ma il senso mi sfugge: cosa sarebbe la luna, e cosa il dito?

    Se con "la luna" intendi il fatto che frequenze di campionamento maggiori forniscono una maggiore "densità" dei campioni e che, entro certi limiti, nel mondo reale questo semplifica la ricostruzione del segnale analogico e permette una migliore accuratezza... come detto è talmente ovvio ed evidente che non vedo neanche la necessità di discuterne. Qualcuno ha forse espresso dubbi in proposito?

    Con il mio intervento volevo solo sottolineare il fatto che la linea continua nell'immagine che hai postato (tracciata dal software usando un semplice algoritmo di interpolazione) rischia però di essere del tutto fuorviante per chi la osservi senza conoscere nei dettagli teoria e pratica della conversioni A/D-D/A.

    Qualcuno (che non conosce la teoria e non sa come funziona la conversione D/A) potrebbe infatti essere portato a credere che quella linea continua assomigli a ciò che uscirebbe da un DAC (reale) in risposta a flussi di dati come quelli rappresentati dalle corrispondenti sequenze di campioni discreti (evidenziati dai punti sul grafico), mentre invece sappiamo bene che non è affatto così: quelle linee continue non somigliano affatto (neanche lontanamente) a quello che sarebbe il corrispondente segnale di uscita di un qualsiasi DAC. Come sai meglio di me, se mandi quegli stessi stream ad un qualsiasi DAC reale appena decente, l'uscita che ne ottieni è -in tutti i casi- una sinusoide a 10KHz pressoché indistorta (cioè quello che dovrebbe essere) e, dopo la conversione, le differenze tra i segnali ricostruiti a partire dagli stream alle diverse frequenze di campionamento tendono a scomparire (almeno finché parliamo di una sinusoide a 10KHz come quella in oggetto; per segnali non sinusoidali che contengano frequenze fino a 20KHz o più le cose ovviamente non vanno altrettanto bene).

    Dato poi che all'aumentare della frequenza di campionamento tendono ad evidenziarsi maggiormente problemi tecnici di altra natura è anche possibile (anzi, oserei dire certo) che, a seconda del DAC impiegato, al di sopra di una certa frequenza di campionamento le prestazioni effettive anziché migliorare peggiorino (e questa è un'altra cosa che forse non tutti sanno...).

    Originariamente inviato da rogers
    Già perchè ricostruire una sinusoide perfetta per il teorema sarebbe possibile, ma nella realta poi non è così perchè il campionamento dovrebbe essere sincrono con i massimi e i minimi del segnale sinusoidale altriementi la ricostruzione del segnale non ha molto di perfetto...
    eh? e questo da dove salta fuori? non mi risulta proprio.

    Il teorema prende in considerazione un segnale qualsiasi, non necessariamente sinusoidale, purché a banda limitata (cioè il suo spettro non deve contenere componenti a frequenza superiore ad un dato valore massimo) e non parla affatto di sincronismo tra il segnale campionante (il clock) e quello campionato.

    L'unico vincolo che pone perché sia (teoricamente) possibile riprodurre in modo perfetto il segnale originale è che la frequenza di campionamento sia (almeno) doppia rispetto alla massima frequenza presente nello spettro del segnale stesso.

    Originariamente inviato da rogers
    ma non basta, perchè per ricostruire il segnale a partire dai pochi campioni, occorre avere a disposizione un filtro passa-basso ideale, ma in quanto tale, sappiamo che un filtro così non è realizzabile nel mondo reale.
    senza dubbio... ed è questo uno dei due maggiori problemi che affliggono le conversioni A/D-D/A reali (l'altro è, come ben sappiamo, la precisione e soprattutto la "costanza" della distanza temporale tra un campione e l'altro al momento della conversione, cioè il famoso "jitter").

    Per altro, è proprio per questo motivo che entrano in gioco l'oversampling (o upsampling che dir si voglia), i filtri digitali, ecc.

    [semi-OT]
    Originariamente inviato da rogers
    Quindi la valutazione positiva sul lavoro dei ricercatori Philips che hanno azzeccato il giusto equilibrio tra costi-benefici-capacità tecniche del momento (anni 80) per ottenere un prodotto tutto sommato ancora valido oggi, ci sta.
    insomma... sì e no. Se pure su un piano puramente teorico potrebbero essere più che sufficienti, su quello pratico, nel mondo reale, 44.1KHz sono veramente pochi, troppo pochi, per poter riprodurre correttamente e senza problemi l'intera banda audio fino ai canonici 20KHz.

    La soluzione semplice, di cui qualcuno comincia (finalmente...) ad accorgersi soltanto ora, sarebbe stata quella di rinunciare ad un po' di banda passante in cambio di una riproduzione più corretta del resto dello spettro (con materiale 44/16 IMO questa resta tutt'ora la cosa migliore da fare...).

    Ma invece, probabilmente spinti anche dalla guerra dei numeri in gran voga all'epoca (non sia mai che la banda passante del nuovo supporto fosse dovuta risultare inferiore a quella dei vecchi sistemi analogici...) ci si è sempre arrampicati sugli specchi pur di avere una risposta "completa" fino ai canonici 20KHz, nonostante ciò comporti una quantità enorme di problemi e di compromessi vari che finiscono inevitabilmente per produrre disastri, di certo ben più gravi di una pressoché ininfluente riduzione del limite superiore della risposta in frequenza.

    Diversamente, volendo garantire a tutti i costi i canonici 20KHz, molto più saggio sarebbe stato adottare una frequenza di campionamento un po' più alta, ad es. almeno quella di 48KHz adottata dallo standard DAT. Cosa che avrebbe reso già molto meno gravoso il compito dei filtri del DAC e quindi garantito prestazioni sensibilmente migliori, pur restando tranquillamente entro i limiti tecnologici dell'epoca e quelli di "banda" (capacità di memorizzazione e velocità di trasferimento) consentiti dal supporto. Che cambiava se un CD anziché contenere un massimo di 74 minuti di registrazione ne avesse permessi soltanto 68 quando poi la stragrande maggioranza dei CD sul mercato contengono meno di un'ora di musica? (ma c'erano logiche commerciali che premevano proprio per arrivare ad almeno 74 minuti...).

    Oltre tutto, adottare lo stesso standard del DAT avrebbe permesso il trasferimento diretto delle registrazioni da master DAT ai CD, senza dover ricorrere a dannosissimi resampling.

    Questo però avrebbe consentito anche l'operazione inversa (cioè la copia digitale diretta da CD a DAT) e, dato che all'epoca i produttori pensavano (speravano...) che il DAT avrebbe presto preso il posto delle vecchie audiocassette, è a dir poco probabile che la scelta di un formato dei dati diverso ed incompatibile sia stato dettato più da stupide logiche commerciali piuttosto che da scelte tecniche razionali.

    Tutto questo per dire che gli ingegneri ed i tecnici hanno sicuramente fatto un ottimo lavoro, ma che purtroppo sono stati condizionati anche da miopi scelte di natura commerciale che hanno penalizzato sensibilmente la qualità del prodotto finale, specie dal punto di vista dell'ascolto.

    Certo è facile parlare col senno di poi, ma sarebbe bastato veramente poco per risparmiarci un mucchio di rogne...

    [/semi-OT]


    Originariamente inviato da rogers
    ciò non toglie che con le capacità tecniche attuali di immagazinamento di dati (gigabyte ormai a pochi centesimi di euro) non si debba ogni volta sia possibile usufruire delle maggiori risoluzioni.
    su questo non ci sono dubbi... e con me sfondi una porta aperta. Anzi, spalancata!
    Ultima modifica di UnixMan : 22-06-2014 a 22:26
    Ciao, Paolo.

    «Se tu hai una mela, e io ho una mela, e ce le scambiamo, allora tu ed io abbiamo sempre una mela per uno. Ma se tu hai un'idea, ed io ho un'idea, e ce le scambiamo, allora abbiamo entrambi due idee.»

  8. #18
    Moderatore L'avatar di rogers
    Registrato
    Dec 2010
    Località
    Cagliari
    Messaggi
    800
    configurazione

    Predefinito

    Siccome non ho molta voglia di scrivere e/o leggere papiri sui forum (se voglio leggere qualcosa seriamente, perdonatemi, ma apro un buon libro), brevemente:
    la luna è il campionamento nella conversione analogico-->digitale. Le immagini postate col "giochino" si riferiscono a quello e mostrano cosa succede , diciamo visivamente, quando il segnale viene "affettato" e quanto sia meglio che siano fitte queste fette.Punto.
    Da subito nei tuoi messaggi parli di conversione digitale-->analogica e io che cerco di farti capire che sto a parlare di quello che avviene prima...
    Il Nyquist-Shannon - che due palle-lo sappiamo a memoria.
    Il campionamento sincrono esiste eccome e si trova in studi più approfonditi circa la teoria dei segnali ( che affermano che gli errori di fase ed ampiezza possono essere non trascurabili, roba che studiai qualche lustro fa).

  9. #19
    mebibyte L'avatar di pgfiore
    Registrato
    Jun 2011
    Località
    Genova
    Età
    61
    Messaggi
    567

    Predefinito

    Originariamente inviato da rogers
    [...]se voglio leggere qualcosa seriamente, perdonatemi, ma apro un buon libro...
    Da parte mia però un grazie Rogers e Unixman, mi fa sempre piacere leggere un po' di teoria ben espressa.

    Un libro che non sia di livello universitario, che consigliate?

  10. #20
    Moderatore L'avatar di rogers
    Registrato
    Dec 2010
    Località
    Cagliari
    Messaggi
    800
    configurazione

    Predefinito

    La materia è multidisciplinare, infatti in mezzo c'è matematica, fisica, elettronica, informatica, etc. per cui servono diversi libri delle scuole superiori..però un testo che un po riassume è questo "Manuale di tecnologia audio digitale" di Maes-Vercammen che comprende (tratto dal sito Hoepli):
    Storia della tecnologia audio. Parte prima: principi sull'elaborazione digitale dei segnali. Campionamento - Quantizzazione - Conversione A/D e D/A - Convertitori A/D e D/A - Codici per la registrazione magnetica digitale - Correzione degli errori. Parte seconda: il Compact Disc. Caratteristiche del supporto - Codifica del Compact Disc - Opto elettronica e blocco ottico - Servo circuiti dei riproduttori CD - Elaborazione del segnale. Parte terza: registrazione audio digitale. Formato video PCM - Formato audio digitale (DAT) - NT-DAT - Mini Disc. Parte quarta: tecnologie audio avanzate. Super audio CD (SACD) - Audio DVD - Compressione audio.
    Poi ci sarebbe il testo di Uncini "audio digitale" ma è molto più complesso...

Pagina 2 di 2
prima
1 2

Informazioni Thread

Users Browsing this Thread

Ci sono attualmente 1 utenti che stanno visualizzando questa discussione. (0 utenti e 1 ospiti)

Regole d'invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
nexthardware.com - © 2002-2022