LINEE GUIDA – LE BASI PER UN SUONO DI QUALITA’

Di seguito alcune linee guida indicative secondo miei personali studi, esperienze sul campo e test eseguiti nel corso degli anni, cosi da ottenere le basi per poter raggiungere un alto livello di conoscenza al fine di gestire il segnale audio e la percezione uditiva nel migliore dei modi per poter ottenere un suono di qualità.

Alcune di queste indicazioni sono spiegate più in dettaglio in argomenti già trattati nel blog, mentre altre verranno approfonditamente viste più avanti.

Per una maggiore comprensione si consiglia lo studio dei seguenti argomenti:

 

 

LIVELLO DI ASCOLTO

Non esporsi a pressioni sonore sopra ai 100 dB sia per un avvicinamento alla soglia del dolore che per intervento del Riflesso Aurale da parte dell’orecchio, che per inizio trasmissione sonora via ossea con conseguente aumento vertigini, disorientamento, mancata concentrazione occasionale, da vibrazione cranio.

Utile quindi tenere monitorato il livello di pressione sonora in cui il livello dB MAX deve essere inferiore ai 100 dB Max. Mentre il livello dBA nel rispetto delle normative vigenti (gen. 95 dBA).

Se il rumore ambientale lo permette abbassare il livello entro gli 85 dB lineare per rientrare sotto l’intervento del Riflesso Aurale che porta una naturale compressione del suono.

n.b. Monitorare in ogni caso il livello dBA per rimanere nei termini di legge, ma utilizzare la ponderazione Lineare per monitorare il riflesso stapediale ed il livello di pressione sonora effettivamente incidente sulle nostre orecchie e non quello simulato percepito da ponderazione.

n.b. Utilizzare diffusori di qualità in quanto che livelli di distorsione armonica portano a generare battimenti (quindi percezione di oscillazioni, il cui fenomeno è fisico dovuto all’interazione della fase e ampiezza delle varie sinusoidi). Questo fenomeno è molto più evidente dal singolo altoparlante che da una serie in quanto che le distorsioni per oscillazione sono maggiormente di valore essendo più ravvicinate e riprodotte da un unico elemento. Più altoparlanti porteranno invece maggiori distorsioni di fase per altri motivi legati alle caratteristiche ed installazione dell’impianto audio.

La distorsione aurale sono le armoniche di distorsione naturali dell’orecchio, e hanno più valore tanto più è alto il livello SPL incidente, soprattutto 2nd e 3nd armonica e soprattutto in medio-alta e alta frequenza. Per questo è importate non superare i valori limite definiti prima e non enfatizzare eccessivamente le medio-alte ed alte frequenze.

Lo stress di ascolto definisce il tempo per il quale riusciamo ad essere concentrati prima di avere un calo delle capacità psichiche acustiche, questo tempo è di circa 3 ore e più oggetti e luci ci sono in movimento e intense e più questo tempo cala.

Che sia in studio o live è importante testare il Loudness dell’album o dell’evento, per fare questo è consigliato fare il check sound con il brano di maggiore livello per determinare il loudness massimo e rapportare cosi tutto il resto dei brani.

Mentre per il Live è fondamentale creare il mix a livello adeguato per quel tipo di evento, per lo Studio e Mastering è buona norma per ottimizzare un tipo di ascolto medio, ascoltare il mix con diversi sistemi di riproduzione sonora, da impianto audio consumer a pro, da cuffie, in ear, a differenti livelli di volume, in quanto che diversi possono poi essere i livelli di volume ascoltati dall’utente finale.

AMPLIFICAZIONE (Gain e Fader)

Utilizzare sempre pre-amplificatori con risoluzione di guadagno a < 0,5 dB. Boostare o Attenuare > 0,5 dB in quanto che 0,5 dB è la risoluzione minima delle nostre orecchie per variazioni di pressione sonora.

A livello di Pre-Amplificazione è molto importante amplificare il minimo necessario in quanto che soprattutto a livello analogico più si amplifica e più aumenta il livello di distorsione armonica introdotta.

E’ comunque regola amplificare a dovere fino a garantire un utilizzo dei Fader di controllo dei canali input e output a 0 al fine di mantenere basso sempre il livello di distorsione armonica introdotta, che è maggiore in amplificazione rispetto all’attenuazione (per fare questo anche l’impianto audio deve essere adeguato all’evento, in relazione alla dimensione dell’ambiente da sonorizzare, altrimenti può risultare sotto o sovra dimensionato), quindi tutti i controlli e dispositivi di processamento – amplificazione – diffusione oltre che di qualità devono essere considerati in un progetto a regola d’arte.

L’utilizzo della pre-amplificazione per definire il livello del segnale mantenendo il fader a 0 dB si chiama Gain Compensation, Lavorando di fader per definire il livello del segnale di uscita si chiama Fader Compensation.

La filosofia di base per un suono di qualità è sempre quella di: Meno si amplifica e meglio è.

L’utilizzo di Sub Group e DCA o VCA aiuta nel processo di mixaggio, potendo così lavorare su gruppi di strumenti invece che su singoli, molto più lento e complesso soprattutto quando molti sono i canali audio da gestire.

Se bisogna scegliere sempre meglio mantenere i fader a 0 e amplificare a dovere.

In caso che lo stesso mixer sia utilizzato anche come mixer da palco (consigliato sempre l’utilizzo di mixer e quindi controlli separati) è necessario mediare a livello di pre-amplificazione il livello di segnale audio in quanto che può risultare ottimale per il P.A. esterno ma basso o troppo alto per il monitoraggio di palco.

Per quanto riguarda il recording è importante rimanere con il segnale inviato all’ingresso microfonico o linea del registratore analogico a circa – 24 dB rispetto al valore massimo di picco. Mentre in dominio digitale è possibile gestire il livello di segnale fino allo 0 dBFS, meglio qualche dBFS prima del clip a 0 dBFS, facendo sempre attenzione alle distorsioni introdotte durante la fase di amplificazione.

CONDIZIONI AMBIENTALI  ED ELETTRONICHE

Nell’ambiente in cui viviamo il suono viene percepito per via aerea e si trasmette attraverso il fluido Aria, questo fluido non è lineare e presenta viscosità, per cui resistenza intrinseca, umidità, pressione atmosferica, vento, pioggia, campi elettromagnetici, inversione termica (di mattina il suono tende ad andare verso il basso in quanto che il terreno è più fresco rispetto all’aria soprastante che via via tende a riscaldarsi per l’arrivo del sole, il suono tende sempre ad andare verso zone di maggiore inerzia, quindi verso a perdere energia, di sera invece il suono tende ad andare verso l’alto in quanto l’asfalto rimane più caldo essendo stato irradiato dai raggi solari tutto il giorno e l’aria soprastante diventa sempre più fredda per via del calo del sole e l’arrivo della sera), faranno variare i parametri acustici direzionali delle sorgenti sonore.

Per questo è importante considerare attraverso le simulazioni acustiche l’impostazione dell’impianto audio, questa tipologia di alterazioni che ci sono nella corretta percezione del suono, vanno in contrasto con le teorie di ottimizzazione della percezione e localizzazione-focalizzazione che vedremo.

Tutto questo è molto più rilevante all’aperto ed in ampi spazi (dove tutti questi parametri variano costantemente durante il giorno), mentre al chiuso ed in piccoli spazi il tutto è molto più contenuto e le probabili alterazioni sono essenzialmente derivate dal riscaldamento e condizionamento che porta il calore verso l’alto e per cui in questo caso il suono tende ad andare verso il basso.

In caso di vento, forti livelli di umidità, ambienti molto riverberanti e riflettenti, è opportuno utilizzare filtri anti-vento (wind filter) sulle capsule microfoniche.

Per quanto riguarda invece l’elettronica dei componenti utilizzati, soprattutto gli altoparlanti, il loro riscaldamento per un continuo lavoro (essendo perennemente attraversati da tensione elettrica che genera fenomeni di induzione e trasformazione dell’energia elettrica in calore, quantomeno per gli altoparlanti a bobina mobile), il loro rendimento cala con il tempo e quindi si genera un attenuazione del livello di pressione sonora in uscita.

Amplificatori Finali digitali, in classe D, ma anche e soprattutto amplificazione via software, consentono di ridurre questo fenomeno che comunque resta, in quanto che gli altoparlanti sono fisici ed analogici (questo fenomeno non è invece presente o comunque in misura molto limitata negli altoparlanti elettrostatici).

Ad oggi con le nuove tecnologie di finali ed altoparlanti il fenomeno della Power Compression è limitato a circa 3 – 4 dB nell’arco di 2 – 3 ore.

Il fenomeno di attenuazione è detto Power Compression e deve essere considerato nel mix, può essere buona norma partire con un livello master fader a circa – 5 dB per poi aumentare quando necessario fino ad arrivare al massimo a 0 dB, che rappresenta lo standard di riferimento per un pulito livello di segnale.

n.b. Attenzione a non confondere la Power Compression con i fenomeni di compressione naturale e stress dell’orecchio, in quanto che per prolungate esposizione ad elevati livelli SPL il nostro sistema uditivo tende a comprimere e ridurre le proprie capacità. Per questo è sempre utile un monitoraggio dell’impianto via software attraverso appositi tool di analisi spettrale, ma anche attraverso fonometri.

DISTANZA DI ASCOLTO

Minima: E’ importante trovarsi con l’ascolto al di fuori del campo vicino dell’impianto audio (soprattutto in considerazione di frequenze omnidirezionali e in altoparlanti a radiazione diretta) così da evitare le riflessioni, diffrazioni ed interferenze, non ché turbolenze soprattutto in bassa frequenza generate dalle dimensioni fisiche dell’impianto stesso.

E’ inoltre importante trovarsi oltre la lunghezza d’onda della minima frequenza riprodotta per poterla cosi percepire correttamente.

Massima: La distanza di ascolto massima è in relazione al progetto acustico, tale da consentire un omogenea copertura (SPL, risposta in frequenza, dinamica) dell’area destinata all’ascolto.

E’ importante poi trovarsi nel centro del fuoco dell’impianto audio, tale da percepire una corretta fase, un suono mono percepito perfettamente centrale, così da poter gestire al meglio un mix di mediazione nell’immagine e dinamica.

In un ambiente riverberante è importante che il campo riverberante e quello vicino dell’impianto audio siano il più lontani possibile.

Per un ascolto medio all’interno di un area sonorizzata, la posizione ottimale è quella che va dal centro con minima distanza di 6 – 7 metri dall’asse dell’impianto audio (quanto meno per percepire correttamente i 60 Hz che sono la più bassa frequenza per cui grazie alla naturale ricostruzione apparente del nostro sistema uditivo siamo in grado di ricostruire la dinamica e timbro dello strumento), fino a circa la metà della distanza tra il centro e la posizione dell’impianto audio come da figura sottostante.

b.jpg

Dalla figura sopra si capisce come anche chi si trova al di fuori della zona ottimale, percepisce seguendo sempre i principi della tecnica ventriloquo un’immagine sonora naturale, in quanto che per una sorgente vista più lontana il nostro cervello si aspetta un suono più scuro, meno definito a volte riverberante, e per cui il deficit sulla focalizzazione e localizzazione è contenuto.

OTTIMIZZAZIONE DELLA CATENA AUDIO

Alternare processi di conversione A/D – D/A non porta buoni risultati ma solo rumore ed errori di conversione, per questo è buona norma effettuare tutti i processamenti analogici insieme e digitali insieme, o tuttalpiù lasciare il processo analogico all’inizio e alla fine della catena audio.

E’ molto importante la stabilità della tensione-corrente elettrica soprattutto in utilizzo di convertitori e processamento digitale, causa DC Offest con riduzione dinamica ed un più vicino livello Max prima della distorsione.

n.b. Strumenti con naturale ampia dinamica come la voce sono i primi a risentirne, soprattutto quando all’impianto audio viene richiesta molta energia (elevati livelli).

Utilizzare per cui sempre stabilizzatori di corrente-tensione, amplificatori finali in classe D con tecnologia di assorbimento modulare (quindi assorbe corrente-tensione solo quando viene richiesto e quindi inviata più tensione all’ingresso del finale di potenza). In caso ci si trovi in queste situazioni senza la possibilità di soluzione è consigliato mantenere bassi livelli di tensione-corrente (anche qui un impianto più efficiente può essere la soluzione).

In ambito analogico è importante il rispetto delle impedenze in cui ZOut < ZIn fino a limiti legati al grado di attenuazione e amplificazione, per cui una troppo elevata impedenza di ingresso catturerà si meglio il segnale audio ma offrirà anche una maggiore attenuazione sul segnale poi da recuperare ed amplificare maggiormente rispetto a come se ci fosse  un impedenza di ingresso più bassa. Per questo e perché più si amplifica e più si introducono distorsioni armoniche ed inarmoniche la qualità del Pre-Amplificatore è fondamentale.

Per comparazione un dispositivo analogico preso singolarmente può ottenere dinamiche superiori a quelle digitali, ma all’interno di una catena audio in cui si gioca con le impedenze ed interferenze esterne, diventerà sempre più povero e meno qualitativo.

In più il livello di distorsione armonica introdotta sul segnale audio analogico rispetto a quello digitale è distribuito su tutto il percorso di amplificazione-processamento, tanto più ci si avvicina al livello Max prima di distorsione dichiarata come standard dal produttore e tanto più le armoniche e livelli di distorsione cresceranno.

Nel dominio analogico la maggior parte dei rumori oltre che per un non corretto rapporto di impedenza in cui se quella di ingresso è troppo bassa si generano perdite in medio-alta ed alta frequenza ed incremento armonico di distorsione, anche da un impoverimento dei condensatori e VCA che tendono a generare un rumore bianco a volte oscillatorio.

In dominio digitale invece le impedenze sono sempre perfette ZOut = ZIn ed i livelli di ottimizzazione del trasferimento del segnale audio sono determinate dal livello di tensione, in questo caso la circuiteria di ingresso del dispositivo che riceve determina la qualità del segnale audio, più la tolleranza è piccola e tanto più qualitativo sarà il circuito perché meno mediato nelle operazioni di calcolo, a scapito però di una perdita di informazioni in caso che vi siano sbalzi di tensione non controllati, che finiscono a livelli sotto quelli di tolleranza creando artefatti e in certi casi la perdita di sincronismo e trasferimento del segnale.

La distorsione del segnale audio avviene solo una volta superati gli 0 dBFS e per questo si ha molta più pulizia anche a livelli alti di tensione/amplificazione.

n.b. E’ consigliato in ogni caso di rimanere sempre almeno -3 dBFS sotto lo 0 dBFS in quanto può capitare che tra l’uscita ed ingresso di più processori ma soprattutto durante la fase di conversione D/A (spesso ottimizzata dal costruttore, in cui avviene anche la maggiore perdita di informazioni ed impoverimento dinamico) si verifichino leggere risonanze che portano ad un aumento del livello di uscita rischiando appunto di superare gli 0 dBFS (limite prima della piena distorsione in onda quadra del segnale digitale).

Altri fenomeni di distorsione digitale sono i Jitter ed errori di conversione, per cui qualsiasi processamento a partire dalla conversione A/D genera errori di codifica e decodifica.

In dominio digitale è molto importante non portare in distorsione il software utilizzato per il processamento o ancor più il convertitore, causa elevati digititis.

In generale anche se con un rapporto inferiore rispetto al caso analogico, in dominio digitale più ci si avvicina allo 0 dBFS e più aumenta il livello di distorsione digititis.

n.b. Per digititis si intende l’insieme degli errori digitali.

In dominio analogico per la gestione del livello di segnale da inviare ad un circuito di ingresso o di uscita è sempre bene rimanere entro i – 24 dB rispetto al valore massimo dichiarato. Per i pre-amplificatori integrati è possibile guadagnare qualche dB in quanto il rapporto segnale rumore è ben più alto rispetto a quelli attivi o ancor più passivi.

n.b. E’ importante sapere quindi che se ci si trova con il meter che mostra il livello di uscita con il segnale ben oltre lo 0 dB, è necessario aumentare la potenza o comunque pressione sonora dell’impianto audio utilizzato per quell’evento, così da ridurre il livello di segnale in uscita e migliorare la qualità audio finale. Al contrario diminuire la potenza se il livello di segnale è molto sotto lo 0 dB.

Detto questo il processamento a livello digitale, ancor più software è sempre la soluzione migliore (se di qualità, altrimenti gli errori e rumori danno un risultato molto più scadente) tranne che per la realizzazione di distorsioni, in quanto i digititis che si vanno a creare in dominio digitale sono più complessi e difficili in quanto non armonici da campionare per i vari stadi di processamento in dominio digitale. In questo caso una distorsione come ad esempio distorsione per chitarra elettrica e basso elettrico è sempre consigliato farla attraverso dispositivi analogici che garantiscono un livello di distorsione armonica e poi effettuare la conversione in digitale.

Il segnale audio digitale ha livelli operativi di tensione molto più elevati rispetto all’analogico e questo permette di avere maggiori dinamiche ed essere con il livello di segnale più lontani dal rumore di fondo.

Lavorare sempre ai più alti livelli di campionamento e quantizzazione per ottimizzare la conversione dell’onda analogica, ottenere più ampie dinamiche e minimizzare il problema dei digititis di distorsione.

Fondamentale poi la qualità dei convertitori e circuiteria In/Out che sia hardware o software per minimizzare Jitter, problemi di sincronismo, clock e trasferimento dati. Anche la Latenza deve essere la più bassa possibile, migliorando così il trasferimento lungo la catena audio con minime perdite di informazioni da interferenze esterne e dalla circuiteria utilizzata (in cui quella di ingresso a sua volta deve essere ottimizzata per lavorare alla stessa velocità della circuiteria di uscita). Importante poi anche la qualità di qualsiasi dispositivo hardware o software di codifica e decodifica (processamento) per minimizzare i Jitter.

Convertitori PCM sono sempre migliori rispetto a quelli DSD e Sigma Delta in quanto presentano una maggiore fedeltà dinamica, ma soprattutto quelli a bassa risoluzione necessitano di dither per la conversione A/D, D/A quindi rumore introdotto, sono anche più costosi in quanto che più complessi come circuito, mentre i Sigma Delta (i più utilizzati) sono più semplici lavorando ad 1 bit di quantizzazione e non necessitano di dither, ma sono anche meno precisi.

Considerare sempre l’utilizzo con controllo remoto dei pre-amplificatori di stage box digitali in quanto se non controllati il livello di amplificazione viene dato digitalmente dal mixer, ma avendo di base un basso livello di segnale per mancata amplificazione porterà risultati scadenti con bassi range di amplificazione, soprattutto se si utilizzato encoder scadenti. Al contrario invece si ottimizzerà il livello di segnale audio per la conversione.

A livello analogico i pre-amplificatori hanno più alti livelli di tensione prima della piena distorsione, ma rispetto ai circuiti integrati (pre-amplificatori digitali) hanno anche un maggiore rumore armonico generato. I circuiti integrati hanno un livello massimo di ingresso a +24 dB secondo lo standard digitale SMPTE, che è anche il limite di livello di ingresso nei convertitori A/D, in quanto limite per il segnale digitale a 0 dBFS, per cui anche applicando un pre-amplificatore analogico con Max Input a +30 dB, questo dovrà essere comunque limitato a +24 dB per non mandare in distorsione il convertitore.

Vale comunque sempre la regola: Meno si Amplifica e Meglio è !

Utilizzare protocolli che garantiscono qualità, con più bassa latenza possibile, più veloce trasferimento di segnale e ampia bandwith, più basse tolleranze tra circuiti di In/Out, con la possibilità di realizzare ridondanze per aumentare il livello di sicurezza contro cadute di segnale accidentali, che permettano diverse tipologie di configurazione per ottimizzare il percorso di segnale audio secondo le necessità (anello, stella, cerchio, punto a punto). Se possibile utilizzare sempre lo stesso protocollo per garantire un maggiore sincronismo e meno distorsione tra le varie circuiterie di ingresso, quantomeno non abbassare la velocità di trasferimento del segnale audio bitrate, ed utilizzare sempre il clock del protocollo in utilizzo, in quanto che utilizzandolo esterno possono esserci problemi di corretto sincronismo soprattutto se il clock esterno ha una velocità bitrate inferiore. Utilizzarlo esterno se ha velocità superiore o se quello integrato nel protocollo è scadente o ha problemi di sincronismo. Gli oscillatori al quarzo sono i migliori generatori di clock, quelli digitali sono più precisi ma anche più instabili in quanto dipendono dalle capacità della CPU. Da qui si capisce come la stabilità del clock sia fondamentale e per questo ancor più in digitale la tensione elettrica di alimentazione deve essere garantita pulita, lineare e stabile.

Utilizzare sempre e se possibile un trasferimento di segnale Sincrono, in quanto più rapido e preciso rispetto a quelli Asincroni e Isocroni, anche se di contro hanno una limitata configurazione e meno versatilità.

Lavorare con processori multibanda senza l’utilizzo di equalizzatori e processori di dinamica è la soluzione ottimale per un suono di qualità, potendo effettuare simultaneamente correzioni tonali e dinamiche, riducendo così rumori ed artefatti dal collegamento di più processori in cascata, ma anche in parallelo.

In caso di utilizzo plugin, software, hardware digitale, utilizzare sempre il massimo della risoluzione di quantizzazione, in quanto che a 16 – 24 bit si hanno problemi di troncamento LSB con necessario l’utilizzo del dither e quindi distorsione e rumori. Valori ottimali > 24 bit.

Evitare di inviare un segnale audio eccessivo all’ingresso dell’amplificatore finale di potenza in quanto che è il più debole della catena audio avendo solo 3 dB di Headroom (picco di segnale), quindi può essere facilmente portato in distorsione, i più professionali presentano sezioni di limiting e compressione, che non permettono la distorsione ma tendono a schiacciare la dinamica del segnale audio in ingresso. Fare quindi attenzione a rimane con i picchi ad un livello di dB sotto i 3 dB di headroom del finale, che spesso non coincidono con il livello di segnale audio in uscita dal mixer in quanto poi lungo la catena audio che va dall’uscita del mixer all’ingresso del finale ci possono essere perdite di segnale.

Utilizzare pre-amplificatori con il più basso livello di rumore, il più alto livello di guadagno, il più basso livello di Step sulle variazioni di amplificazione, con il più alto livello di Max. Input, più bassa impedenza di uscita, adeguata impedenza di ingresso in base all’impedenza del segnale in uscita dal dispositivo da collegare e con i più bassi valori di Crosstalk (soprattutto in dominio analogico).

In ambito analogico per piccole distanze utilizzare sempre connessioni sbilanciate in quanto che il bilanciamento introduce sempre rumore di fondo e distorsione dell’onda. In caso si utilizzano linee bilanciate come ad esempio in grandi eventi in cui il segnale deve percorrere grandi distanze, utilizzare sempre i migliori trasformatori e bilanciare il segnale sbilanciato con le migliori D.I.Box considerando il giusto rapporto di impedenze tra Out/In. Prevedere l’utilizzo di D.I.Box anche per linee sbilanciate al fine di ottimizzare il trasferimento di carico sulle impedenze.

E’ importante che il cavo abbia le migliori caratteristiche possibili, soprattutto più basso livello capacitivo, resistivo ed impedenza al Km, ottenibile con il più pulito reticolo cristallino del materiale utilizzato per far attraversare il segnale audio, a partire da cavi OFC 100%, considerare l’utilizzo di cavi NON-PVC per minimizzare i fenomeni di interferenza.

Non lasciare mai un qualsiasi cavo adibito al trasporto audio vicino a cavi di corrente per via dell’effetto pelle che porta risonanze sul segnale audio. Un ottimo cavo audio è poi realizzato intrecciato per minimizzare l’effetto capacitivo). I cavi audio di potenza non sono né da intrecciare e né da tenere vicini a cavi di corrente sempre per l’effetto pelle, che ha valore per elevati livelli di tensione-corrente elettrica.

In dominio digitale è importante scegliere il giusto cavo per il giusto protocollo del segnale trasportato, es. il campionamento a 48 Khz ha generalmente una banda di trasmissione di 100 M/Bits ed è correttamente trasportabile con cavi ethernet cat5, 96 Khz ha una banda di 1000 M/Bits ed è correttamente trasportabile con cat5e o meglio cat6 e superiori.

La fibra ottica garantisce il più veloce trasferimento dati tra connessione di uscita ed ingresso, ed anche qui è necessario scegliere il cavo adatto a seconda del bitrate e bandwith richiesto dal protocollo.

La fibra ottica è anche più fragile rispetto al cavo ethernet ma consente di raggiungere più ampie distanze, per l’ethernet il limite massimo con velocità di bandwith a 1000 M/Bits è 100 – 150 metri, ma il limite corretto da tenere anche contro interferenze e minimizzare errori di trasporto è 75 metri. Più la velocità di banda è bassa e più corto dovrà essere il cavo. Per 500 M/Bits consigliato 50 – 70 metri.

n.b. I M/Bits del protocollo sono la velocità di invio pacchetto dati da parte del circuito di uscita e quindi circuito di ingresso, la bandwith è invece lo spazio occupato da quel tipo di segnale, derivato dal numero e tipo di informazioni di cui è composto, il cavo digitale ha una sua capacità di trasporto, quindi velocità e bandwith.

Per testare se uno streaming, una riproduzione da interfaccia audio digitale risulta ottimale è buona norma inviare una sinusoide (es. 1 Khz) e vedere il livello di buffer da tenere prima che il segnale audio cominci a “saltellare”, più basso è il suo valore e migliore saranno i driver e scheda audio stessa, o trasmissione in streaming.

In utilizzo di Media Player da PC è necessario seguire e quindi scegliere il giusto e più qualitativo software che garantisca questi fattori:

  • Non dare SRC in modo automatico, e se presente disattivarlo (quindi possibilità di disattivarlo).
  • Poter definire il dither da associare correttamente al DAC quando necessario ( in quanto audio a 32 bit e superiore o DAC Sigma Delta non ne necessitano, mentre i player consumer inviano dither a priori, mentre molti brani hanno già un loro dither presente inserito in fase di bounce “mix finale”).
  • Un player in grado di gestire il clock dell’interfaccia collegata alle variazioni si sample rate, questo utile esclusivamente se risponde meglio del clock interno dell’interfaccia (in quanto il clock del player è generalmente su software mentre quello dell’interfaccia è spesso analogico al quarzo, utile ad esempio dopo anni di utilizzo di quello interno all’interfaccia che ha quindi subito variazioni di stabilità).
  • Possibilità di gestire il livello buffer al fine di ottimizzare sempre la qualità audio.
  • Utilizzare sempre un flusso dati tramite driver ASIO ( questo dipende dall’interfaccia audio collegata ), in alternativa utilizzare DirectX se pur meno di qualità, è un driver di Windows per cui compatibile con qualsiasi interfaccia compatibile con Windows.

OTTIMIZZAZIONE DELLA RIPRESA MICROFONICA

In caso di multi microfonaggio è molto importante la correlazione di fase tra i vari segnali, in caso di problemi di fase in medio-alta e alta questo è possibile risolverlo anche pannando i vari segnali tra Left e Right e/o Surround per minimizzare i problemi di fase dalla loro somma mono, verranno percepiti dalle nostre orecchie come un estensione stereofonica o surround sul piano orizzontale o 360°. Sulle basse frequenze soprattutto è invece fondamentale la correlazione di fase per non creare comb-filter e controfasi.

Alcuni esempi possono essere le riprese di prossimità insieme a quelle d’accento e a distanza nella ripresa di un orchestra. E’ importante che i microfoni più vicini siano correttamente ritardati per andare in fase con quello di ripresa più lontano. Se ai microfoni più lontani ci sono ulteriori rientri, esempio di altre sezioni, è importate che tutto l’insieme del microfonaggio dia un tempo di ritardo (tra l’uno e l’altro) medio complessivo più basso possibile. Questo è comunque guadagnato rispettando la regola del 3:1 e il livello SPL dei ritorni inferiore ai – 10 dB. Microfoni adibiti alla ripresa ambientale possono non essere messi in fase in quanto non sono utilizzati per la ripresa dello strumento.

Quindi quelli da mettere in fase sono solo quelli diretti alla ripresa dello strumento o insieme di strumenti.

Altri esempi sono il doppio o triplo microfonaggio di prossimità, come rullante sopra e sotto, grancassa dentro e fuori più Sub Kick. Tutti microfoni da mettere in fase, quindi ritardare i più rapidi per metterli in fase con il più lontano. Oppure ancora il microfonaggio della batteria con Over Head porta ad aumentare il numero di errori di fase da rientro e somma nel mix, l’utilizzo di expander e gate aiuta a ridurre i rientri, ma questo soprattutto nel Live dove non c’è possibilità di editing, come ad esempio in studio in cui è possibile rimuovere manualmente ogni tipo di rientro che non coincida ad esempio con piatti ed effetti, porta ad avere un certo contributo di rientro (altrimenti c’è il rischio di creare oscillazioni e/o riduzione dell’attacco o ancor più perdita della dinamica dello strumento, se l’utilizzo del gate o expander è troppo eccessivo e mal tarato). In più gli Over Head aiutano la percezione naturale dello strumento, impoverito dinamicamente dalla ripresa di prossimità, per questo non è mai consigliato agire troppo aggressivamente con gate ed expander, ma anzi utilizzarli solo per ridurre i rientri più fastidiosi. In studio consigliato invece agire manualmente attenuando o eliminando i rientri eccessivi, meglio che utilizzare un processore.

Non potendo definire un preciso ritardo da applicare ai microfoni di prossimità in quanto che agli Over Head giungono tutti gli strumenti che compongono la Batteria, si considera la distanza tra lo strumento e la capsula del microfono Over Head a lui adibito per la ripresa e pannaggio, per cui la posizione deve essere fondamentale, tale da gestire al meglio i rientri sui microfoni Over Head utilizzati.

In studio dove le tracce sono registrare ed è possibile agire sul ritardo temporale della traccia tutto è più semplice e preciso. Ma anche in ambiente live in situazioni dove la qualità è fondamentale e la precisione altrettanto, è possibile registrare o analizzare in tempo reale tramite apposito software il tempo di ritardo di ogni singolo strumento verso gli OH e ritardarlo di conseguenza.

n.b. E’ importante non sommare in mono una ripresa OH stereo o ancor più a 3 microfoni in quanto che i differenti tempi e rientri, soprattutto se non correttamente ritardati (ma anche perché il tempo di ritardo verso un OH può essere differente da quello verso l’altro OH, dipende dalla posizione), contribuiscono a creare problemi di fase. Un leggero pannaggio verso il centro può aiutare a mediare fase e distribuzione in fase di amplificazione, in quanto che nel Live pannare un segnale tutto da un lato può facilmente portare a zone d’ombra e sfocamenti dell’immagine. Per cui ad esempio per un ascoltatore a destra anche se il piatto di sinistra è un po’ meno forte, è ben accettato in quanto visto più lontano e viceversa.

E’ importante anche pannare correttamente i vari tamburi che compongono la batteria, soprattutto quelli con contributo in medio-bassa e medio-alta frequenza (a cui siamo maggiormente sensibili), in quanto che il pannaggio degli OH potrebbe sfasare leggermente la percezione dello strumento, ad esempio con ripresa di prossimità in posizione centrale ma poi in rientro sugli OH spostato a sinistra, in cui si aggiunge il contributo dei rientri sugli altri microfoni, creando appunto sfasamento, mentre un pannaggio leggero verso la dove è presente anche la posizione dell’OH in relazione alla distribuzione dei tamburi aiuta a creare un estensione che da naturalezza e dimensione senza sfocarne l’intelligibilità.

n.b. Un’altra buona regola da seguire per ottimizzare l’immagine di percezione dello strumento nella sua presenza e grandezza, è quella di NON pannare mai gli OH (che siano 2 o 3, ecc..) più della massima estensione data ai tamburi della batteria. Questo evitare di spostare l’attenzione dello strumento, dando una percezione di deviazione ed errata focalizzazione.

n.b. E’ anche importante considerare alla base un eventuale sfasamento e latenza data dai cavi audio e catena audio in cui passano questi segnali (quindi una volta messo in fase teoricamente è bene tramite appositi software di visualizzazione grafica, rifinire l’ accoppiamento di fase).

E’ importante che il microfonaggio Over Head non sia troppo ravvicinato ai Piatti ma anche al contrario che quello di prossimità ai tamburi non sia troppo ravvicinato ai piatti per evitare fenomeni di oscillazione derivati dal movimento del piatto che oscilla avvicinandosi ed allontanandosi ai microfoni, creando effetto Doppler. Questo è attenuabile (in quanto sempre presente) ad esempio posizionando il microfono Over Head tra il bordo del piatto ed il centro della campana (zona mediana), così da mantenere l’attacco e la chiarezza (laddove le bacchette incidono sul piatto) ed allontanarsi dall’effetto doppler oscillatorio, mentre se posizionassimo il microfono più verso la campana del piatto, ci sarebbe il minor effetto oscillatorio ma anche la minore chiarezza e attacco. La distanza minima da tenere (sempre per minimizzare i problemi oscillatori) è circa 50 cm dal punto di ripresa (più ha valore l’oscillazione e più dovrà essere posto lontano, in quanto ci sono piatti tenuti più fermi, altri più morbidi ed oscillanti, quindi al contrario più è fermo e più si può avvicinare la ripresa). E’ importante poi controllare che la distanza Piatti-Over Head sia maggiore della distanza Piatti-Microfoni Prossimità cosi da ottimizzare il ritardo imposto a questi ultimi. Per il microfonaggio dei tamburi può essere utile utilizzare un diagramma polare super cardioide cosi ma minimizzare il livello di rientro dei piatti.

Anche il corretto posizionamento del microfonaggio Over Head aiuta a minimizzare problemi di fase-ampiezza (in quanto che strumenti più vicini ai microfoni suoneranno più forte di strumenti più lontani), e problemi oscillatori, c’è da considerare la regola che all’interno di un cerchio prendendo il punto centrale, tutte le rette che partono verso la circonferenza sono di lunghezza uguale, quindi sempre in fase e alla stessa ampiezza. Questa è la teoria da seguire per il microfonaggio Over Head.

n.b. Per quanto riguarda l’ottimizzazione di fase-ampiezza degli Over Head, questo dipende dal tipo di tecnica utilizzata in quanto che piccole variazioni di fase ed ampiezza in una ripresa stereo, contribuiscono a far percepire un estensione e naturalezza dello strumento per le regole di percezione ITD e ILD.

Considerando la batteria con ripresa Over Head, non potendo allontanare più di tanto il microfonaggio per rientri ed ambiente, quindi non potendo far vedere la batteria molto piccola ai microfoni così da minimizzare ritardi di fase ed ampiezza, in quanto se troppo vicini vengono molto esaltati cosi da distorcere la percezione di estensione fino a percepire in certi casi pure brevi eco, è buona norma partire con un cerchio dal centro acustico definito per l’ottimizzazione dei ritardi di fase visti precedentemente, ampliando questo cerchio fino a raggiungere l’ampiezza del raggio desiderato è possibile applicare la proprio tecnica mantenendo sempre le capsule microfoniche sulla linea di raggio del cerchio. Ricordo che la distanza minima consigliata tra piatti e Over Head è 50 cm.

Il mio approccio personale è quello di posizionare uno o due microfoni centrali, il cui punto rappresenta la maggiore correlazione di fase-ampiezza (con tecnica X-Y), ma si ottiene un contributo poco realistico in quanto l’immagine risulta molto centrale e prettamente improntata alla ripresa dei piatti e zona centrale della batteria. Utile in piccoli ambienti dove c’è poco spazio per effettuare ampie riprese.

Ancora meglio (rivisitazione della Glin Johns), 1 microfono centrale (cardioide e pannato tendente a destra nel caso di esempio in figura) sempre per avere come base il punto di maggiore correlazione fase-ampiezza, ma in questo caso rivolto verso il centro del rullante per ottimizzare la chiarezza e focalizzazione dell’estensione stereo prendendo come punto di riferimento lo strumento mediano dell’estensione verso destra (sempre in riferimento all’immagine), avendo cosi una ripresa con meno valore energetico verso i microfoni pannati tendenti a sinistra) e 1 o 2 microfoni (cardioidi e secondo l’estensione della batteria) laterali al fine di ottimizzare l’ampiezza e l’estensione dell’immagine, come da figura sottostante.

f.jpg

Rispetto alla Glin Johns si ottiene un’oscillazione del suono tra left e right più contenuta.

Nell’esempio il secondo microfono (cardioide e pannato tendente a sinistra) è direzionato sull’asse dello strumento mediano pannato tendenzialmente a sinistra (che è in questo caso l’incrocio tra mid-tom e timpano).

n.b. E’ importante bilanciare correttamente il livello SPL sia diretto che di rientro agli Over Head (es. equalizzando opportunamente i rientri), in quanto differenti altezze portano differenti livelli e distorsione dell’immagine, seguendo il raggio del cerchio questi problemi sono attenuati.

E’ anche opportuno come detto non pannare troppo il bilanciamento degli Over Head per non spostare troppo la focalizzazione dell’immagine dalla posizione in cui si trova per il pannaggio della ripresa di prossimità.

In caso di ritardo della Batteria è opportuno ritardare anche il Basso a sua volta in fase in caso di utilizzo con ripresa microfonica più D.I.Box, questo per migliorare la correlazione di fase tra strumento con stesso contributo in frequenza (che ricordo essere maggiormente problematico in frequenza bassa).

n.b. Tutto questo è più comprensibile prendendo come esempio le nostre orecchie, le nostre orecchie sono il microfono che preleva e ci fa sentire il suono che incide sulla membrana timpanica, questo suono è l’insieme del suono dello strumento più eventuali riflessioni ambientali. Per emulare questo quindi serve 1 microfono, se aggiungo un secondo microfono è come se aggiungo un altro paio di orecchie e le sommo insieme (nel caso di mix mono), questo porta inevitabilmente a sommare le fasi dei suoni prelevati dal microfono e a creare problemi di fase.

n.b. In caso di performance Live è molto importante che questi ritardi non portino a percepire eco a chi ascolta e a chi suona lo strumento.

C’è da considerare infine che l’aggiunta di un processore Delay porta ulteriormente errori e rumori sul segnale audio.

OTTIMIZZAZIONE DELLA PERCEZIONE

 

Ottimizzazione della Fase e Disposizione dell’Impianto Audio

Prima di procedere ad un qualsiasi mix, con aiuto da parte del P.A. Manager è importante testare la polarità e fase dell’impianto audio, inviando un segnale mono e ascoltando (anche tramite analizzatore di spettro) se il segnale è percepito perfettamente in centro o ci sono spostamenti dell’immagine. Lo stesso per la fase facendo suonare uno strumento che lavora in bassa frequenze (es. basso elettrico), invertendo poi la fase si deve percepire uno sfasamento, se il contrario allora la partenza è in controfase, quindi da correggere.

Non è necessario che sia in controfase ma bastano anche piccole variazioni di fase per percepire un degrado della presenza in bassa frequenza.

 

Regola dei 3 Strumenti

Vista la capacità di focalizzare un massimo di 3 strumenti di cui principalmente 1 è percepito a fuoco e gli altri più in secondo piano, è utile durante il mix far risaltare alternativamente i vari strumenti, prendendo sempre come riferimento per il livello massimo la voce o strumento in solo. L’ottimizzazione di questa tecnica avviene attraverso un attenuazione degli strumenti rispetto a quello da focalizzare (subtractive mixing). Questo è utile farlo non casualmente per ovviare ad un effetto ping pong o vicino-lontano che si verrebbe a creare, ma in presenza di cambi di ritmo ed accenti da parte dello strumento stesso da focalizzare.

n.b. In un contesto live questo può risultare abbastanza difficoltoso, per cui è possibile aumentare lo strumento da far risaltare, facendo sempre attenzione a non superare mai oltre 3 – 4 dB.

Quando si enfatizza o attenua il livello di segnale di uno strumento ma anche mix, è importante che questo venga eseguito piano piano senza essere bruschi e decisi nel movimento, in quanto veloci cambi di livello di pressione sonora sono maggiormente percepibili e quindi disturbanti, mentre se si è dolci e con piccoli step l’incremento percepito è più naturale. Il segreto è non far percepire in modo diretto dell’avvenuto processamento, e questa è una teoria che vale per un qualsiasi processamento del segnale audio.

Tenere la voce ed assoli a più alto livello rispetto ad un tappeto sonoro rappresentato dagli altri strumenti oltre l’utilizzo della tecnica dei 3 strumenti, favorisce l’attenzione verso appunto il cantato e l’esecuzione strumentale, in quanto che il nostro sistema uditivo tende a concentrarsi sempre di più verso sorgenti con volumi più alti.

Il nostro sistema uditivo è in grado di separare e focalizzare strumenti con un rapporto segnale-rumore di circa 15 dB, più il mix è bilanciato su di un piano 360° e più ci si avvicina in alcuni casi supera questo valore, mentre mixare in mono affatica e riduce al minimo le capacità di focalizzazione. Per questo è sempre bene mixare almeno in stereo.

Per allontanare uno strumento rispetto ad altri è possibile anche attenuare le alte e medio-alte frequenze, simulando l’attenuazione naturale dell’aria e dando una percezione di suono più lontano.

Per aumentare la sensazione di Loudness è utile utilizzare un processamento di equalizzazione dinamica multibanda, cosi da lavorare sul Loudness Parziale ed enfatizzando porzioni di banda si va a percepire un incremento di Loudness (in quanto siamo più sensibili agli incremento di sensibilità), sostenuto dal livello di compressione. Questo è un processo migliore che equalizzare in boost in quanto che semplicemente equalizzando in boost ci si avvicina maggiormente al livello di distorsione in/out, si incrementano le distorsioni armoniche per amplificazione ed è meno preciso a livello di ascolto in quanto è più facile percepire quello che eccede e poi attenuare che il contrario.

Aumentare il livello di segnale in uscita insieme a lavorare dinamicamente sul segnale audio generale o singolo dello strumento, può portare ad una compensazione del mancato loudness per sottrazione.

Equalizzare porta a sua volta una sensazione di incremento del Loudness Parziale (in misura inferiore rispetto al processamento dinamico).

Nel caso di mixaggio in surround od in cui il suono proviene dal dietro, è molto probabile che il tipo di equalizzazione e processamento dinamico sia differente da quello come se il suono provenisse dal fronte, in quanto che diverso è il rapporto ambientale e diversa è la percezione (più scura, meno armonica, meno localizzata e focalizzata).

Utilizzare diffusori per la riproduzione delle basse frequenze in modalità stereo o multicanale è sempre consigliato in quanto che oltre a migliorare la percezione delle stesse per ITD, consentono anche di ridurre i fenomeni modali presenti all’interno dell’ambiente (fasi e controfasi o ventri e nodi creati per interferenza di queste frequenze dirette con quelle riflesse dall’ambiente).

Evitare di utilizzare Cappelli con visiera ed altri oggetti in testa in quanto si altera la risposta percepita. Il cappellino con visiera creare un Notch Filter a 2 Khz.

Un ottimo aiuto alla percezione dei suoni è la vista, attraverso meter come RTA è possibile visualizzare in tempo reale l’andamento dello spettro dello strumento o mix e valutarne più finemente possibili correzioni. Attraverso invece lo Spettrogramma è più facile rilevare fondamentali ed armoniche, non chè rumori e risonanze sempre con lo scopo di processarle più precisamente possibile.

Per quanto riguarda l’ascolto per musicisti attraverso monitor di palco, ma ancor più in-ear monitor, evitare di enfatizzare troppo il riverbero in quanto che il musicista può facilmente essere distratto dall’effetto quando invece il livello di segnale più presente e chiaro deve sempre essere il suo, in tappeto ma correttamente bilanciati il resto degli strumenti da lui richiesti. Seguire soli e tecniche di mixaggio aiutano a migliorare la percezione del mix. In caso di monitoraggio in stereo utilizzare le tecniche viste per il mixaggio solo seguendo il punto di vista del musicista che generalmente è l’inverso di quello del fonico.

Per un fonico di palco è poi buona norma ascoltare ripetutamente tramite cuffie o monitor (meglio nello stesso formato di ascolto del musicista, in quanto a volte può essere anche 3D), il solo del monitor dei musicisti per capire se va tutto bene o ci sono correzioni da fare.

Sempre per un monitoraggio stereo ma anche 3D, è utile mixare ricreando l’immagine sonora di posizionamento degli strumenti cosi come la vede e sente il musicista, focalizzando il suo strumento centralmente (per una maggiore concentrazione) mentre nello spazio tutti gli altri (minimizzando così il disturbo che ci sarebbe se tutti gli strumenti fossero in mono e migliorando anche la focalizzazione e chiarezza di ognuno).

E’ possibile aumentare l’estensione di un suono mono su di un piano orizzontale tramite l’utilizzo di stereo enancher, questo aiuta a creare un effetto più avvolgente e dimensionale ed in certi casi a migliorare la percezione e focalizzazione di altri strumenti mono.

In alternativa è possibile farlo manualmente, sdoppiando il segnale mono, pannando poi i due segnali uno opposto all’altro e ritardare il segnale sdoppiato secondo quantità ricercate al fine di allargare e stringere l’immagine.

BATTIMENTI E MASCHERAMENTI

Per ovviare a possibili battimenti e mascheramenti per suoni con simile o identico spettro in frequenza è utile pannare adeguatamente questi in modo da dare una maggiore estensione e quindi percezione, mascherata o per battimento nel caso siano tutti in mono.

Ad esempio più di una chitarra elettrica, più di una voce (per il coro), sequenze, ecc..

Anche la tecnica di miglioramento della percezione consente di abbassare il livello di battimento e mascheramento.

E’ importante che il livello della voce ed assoli non sia troppo elevato tale da mascherare sempre più il resto degli strumenti.

Tendenzialmente un livello di segnale più alto tende a mascherare in primis le armoniche e frequenze alte, tanto è più alto e tanto più range di frequenza tenderà a mascherare. Anche un eccessivo livello di basse frequenza porta allo stesso problema.

Per quanto riguarda i battimenti, ottimizzando il mascheramento e la banda critica degli strumenti già si risolvono molti problemi, l’aspetto da tenere conto per un’ulteriore gradino di qualità è quello di utilizzare strumentazione più qualitativa possibile, anche un eccessiva distorsione armonica della strumentazione audio può portare alla percezione di battimenti.

Anche la frequenza di crossover e pendenza di taglio incidono sulla qualità del suono, un cui se lungo la catena audio ci sono ripetuti tagli alla stessa frequenza può soprattutto per processamenti non a fase lineare, produrre piccole oscillazioni che generano fenomeni di battimento e mascheramento. Da evitare per cui di tagliare lo strumento musicale alla stessa frequenza del taglio crossover dell’impianto audio o altri filtri lungo una stessa catena audio. Quindi possibile tra più processamenti in parallelo ma da evitare per processamenti in cascata.

GESTIONE DELLE BANDE CRITICHE

Attraverso l’analisi della risposta in frequenza temporale dello strumento, è possibile definire la Banda Critica ed ottimizzare il processo di mixaggio tramite equalizzazione e dinamica.

La frequenza limite per cui la percezione rimane costante dipende dalla frequenza come da foto:

fvvf.jpg

Più è alto il livello di pressione sonora e più questo effetto è presente sopra i 150 Hz (aumenta il livello di intensità sonora percepito) mentre rimane invariato sotto.

Sarà quindi importante ridurre la banda critica tramite processo o di equalizzazione e/o dinamica al fine di far rientrare diversi o stessi strumenti entro la banda critica.

Es. Attenuare 100 Hz – 120 Hz sulla Grancassa e lasciarli al Basso per oltre che far risaltare meglio il Basso come visto per le tecniche di miglioramento chiarezza e presenza al fine di ovviare a possibili mascheramenti, anche per migliorare il coupling tra i due strumenti ed evitare sbalzi di pressione “percezione” quando suonano sulla stessa nota.

OTTIMIZZAZIONE DELLA CHIAREZZA E PRESENZA

Il mascheramento porta a generare suoni più scuri, chiusi, mascherati l’uno all’altro. Oltre al pannaggio come precedentemente visto per più di uno strumento simile o uguale nel suo spettro, è possibile agire attraverso variazioni dinamiche e frequenza.

Subtractive Mixing. Lavorare in sottrazione tramite Subtractive Gain e Subtractive Fader che vedremo meglio quando parleremo di Mixaggio. Questo perché l’orecchio è sì più sensibile ed attratto (quindi portato a mixare e processare) dalle variazioni positive (in amplificazione), ma questo oltre che produrre un maggiore rumore e distorsione sul segnale audio, considerando i componenti reali (strumentazione) con cui si lavora sul segnale, porta quanto prima ad un livello massimo del segnale prima della distorsione, mentre più ne siamo lontani e più pulizia avrà il nostro segnale, cercando di mediare come riferimento a 0 dB il livello di segnale massimo ottimale. Al contrario più attenuiamo e più ci avviciniamo al rumore di fondo.

Per il principio di psicoacustica per cui un suono più forte è percepito più chiaro e presente di un suono più debole, attenuando il livello di alcuni segnali è possibile farne risaltare altri, così da risparmiare energia ed eventualmente aumentare il livello generale del mix. Regola che può essere anche applicata per la tecnica dei 3 strumenti.

n.b. E’ anche uno dei motivi per cui si preferisce ed è più qualitativo oltre che più preciso in fase di equalizzazione di uno strumento musicale, percepire quali sono le frequenze che eccedono per poi attenuarle. Lavorare quindi in Sottrazione e non in Boost. E’ importante agire finemente (magari utilizzando un equalizzatore peaking o digitale, comunque con campanatura variabile) sulle frequenze che disturbano per ovviare al problema che attenuando si percepisce anche meno loudness, meno presenza ed è meno gradito all’orecchio. Utilizzare eventualmente (rispettando sempre la dinamica dello strumento), un processore di dinamica per recuperare parte del loudness percepito perso, e insieme od in alternativa regolare in amplificazione il guadagno del pre-amplificatore, fino a percepire un segnale pieno e chiaro, nonostante si sia agito in sottrazione per eliminare eventuali disturbi, risonanze, colorazioni del suono eccessive. Durante l’equalizzazione  importante bypassare e attivare l’eq dopo un lungo periodo di ascolto per ottenere un giudizio più oggettivo sulla percezione del loudness dello strumento o mix, al fine di determinare quale preferito.

Per ridurre le sibilanti, oltre che l’utilizzo di de-esser può essere valutabile l’inserimento di un equalizzatore in sidechain ad un compressore (che è il principio su cui si basano la maggior parte dei de-esser), tale da enfatizzare all’interno della sezione di Controllo le frequenze desiderate (quindi anche plosive ed altre risonanze) ottenendo così un’attenuazione più mirata verso questo range di frequenze. Un’altra alternativa può essere il controllo attraverso un compressore multibanda (più efficiente e trasparente rispetto alla soluzione precedente).

Per ottimizzare la presenza e chiarezza della Voce può essere utile ridurre le fondamentali di questo strumento sugli altri in esecuzione, cosi da mascherarne meno il suo livello. In opposto effettuare se possibile (dipende dal genere) una più schiacciata ed elevata compressione per far risaltare anche il contributo armonico e le bassi parti dinamiche che possono facilmente essere coperte da strumenti percussivi e distorti (es. nel caso di presenza di una batteria acustica e strumenti elettrici).

Armoniche della voce che creano molto disturbo/fastidio all’ascolto in quanto spesso risonanti sono quelle da 1 Khz a 4 Khz (risonanze condotto uditivo e tendenzialmente microfoni dinamici). Altre risonanze da tenere in considerazione sulla voce sono quelle da 150 Hz a 250 Hz in cui rientri, risonanze del palco e possibili risonanze microfono dinamico ne fanno parte.

Quando c’è un Assolo è importante che questo sia chiaro e presente, allo stesso livello della Voce e mai sotto o superiore al livello medio tenuto, la Voce poi in ogni caso deve essere sempre quella di maggiore rilevanza e presenza in quanto che l’ascolto è rivolto sempre su di essa, dando così meno fatica e stress di ascolto.

La base corretta per un mix pulito su cui poi si applica la tecnica dei 3 strumenti per aumentare il livello di percezione di tutto l’insieme strumentale, è sempre quella di a parte la voce ed assoli che devono sempre essere padroni, livellare il più possibile su di un piano di correlazione, in fase, ben accoppiati, in cui nessuno strumento maschera l’altro ma anzi enfatizza la percezione di entrambi facendo attenzione ai battimenti e bande critiche, migliorando l’accoppiamento e minimizzando cosi la distrazione.

Le risonanze sono parte di suono che mascherano e disturbano l’ascolto, di norma un palco (legno e similari) e soprattutto se non correttamente costruito per minimizzare le risonanze, tende a risuonare su di un range di frequenze 100 – 250 Hz dipendente dalle dimensioni e struttura (più grande ed elastico più bassa sarà la frequenza di risonanza, al contrario più piccolo è “tipo palchetti per batteria” e più alta sarà). Questo è maggiormente presente in caso di utilizzo di monitor da palco a diretto contatto con il palco stesso.

n.b. E’ quindi fondamentale nella taratura dell’impianto audio considerare anche l’emissione sonora dai monitor che incide sulle risonanze del palco.

n.b. Per palchi in cemento e similari le risonanze sono più concentrare per prime riflessioni sulle medie e medio-alte frequenze.

Dal punto di vista del microfonaggio è bene mantenere una corretta distanza (altezza) dal palco, minimo 40 – 50 cm e con un elevato rapporto tra la distanza di ripresa dello strumento e quella rispetto al palco < 1:30, in caso non si riesca come ad esempio nel microfonaggio di una grancassa da batteria posta generalmente direttamente sul palco o palchetto sarà fondamentale agire con una corretta equalizzazione.

Le risonanze ambientali sono da controllare tramite appositi elementi assorbenti ed isolanti, come linea guida è bene trovarsi il più lontano possibile dal campo riverberante, ed in caso utilizzare wind-filter per minimizzare i rientri delle riflessioni, soprattutto le prime, e facendo attenzione in fase di equalizzazione alle frequenze medio-alte che sono le prime a risuonare per prime riflessioni.

E’ utile in ogni caso filtrare con passa-alto le frequenze basse e medio-basse non riproducibili dallo strumento o in generale le sub-armoniche non desiderate che creano disturbo e risonanze.

n.b. Tutti gli strumenti presentano un più o meno contributo energetico sub-armonico, utile ad esempio per aumentare la profondità e corpo dello strumento, ma che in certi casi invece portano solo risonanze e mascheramenti di altri suoni.

Le armoniche superiori soprattutto le prime, contribuiscono in maggiore misura a definire la naturalezza dello strumento (le sub-armoniche sono generalmente di ben più basso livello di intensità), per questo è sempre bene ottimizzare anche la loro presenza. Da non confondere con le armoniche di risonanza (un eccessivo valore energetico delle armoniche naturali) e armoniche per distorsione, entrambe da controllare attraverso i processi (ripresa-dinamica-equalizzazione).

La posizione della sorgente determina una variazione del timbro sonoro percepito e quindi chiarezza e presenza. In una situazione standard con il suono provenire dal fronte è fondamentale il controllo delle frequenze di 2 – 3 – 4 Khz che sono le più risonanti. In una situazione con il suono provenire da dietro o per via riflessa (es. all’interno di un ambiente molto riflettente) è importante controllare anche la frequenza di 1 Khz che è quella di maggiore risonanza quando il suono proviene da dietro, valutare l’attenuazione data in alta frequenza per il suono che proviene da dietro. Quando il suono proviene dall’alto (sempre per gli stessi possibili motivi) è necessario controllare anche i 7 Khz che sono la frequenza di maggiore risonanza, (valutare il comb filter creato sopra ai 4 Khz per via delle riflessioni dovute dalla testa, spalle e corpo che incidono sulla risposta in frequenza percepita per suoni provenienti dall’alto).

n.b. Per un ascolto binaurale valgono le sole regole di ascolto frontale, con minore risalto delle frequenze di 2 – 3 – 4 Khz come sopra elencato in quando non c’è la presenza di testa e corpo.

Se si comprime troppo (soprattutto utilizzando compressori di scarsa qualità) e quindi poi si riguadagna per riportare il livello a regime, si generà un incremento delle alte frequenze percepite (in quanto vengono enfatizzate le armoniche) e schiacciamento dinamico in bassa (in quanto compresso), fare per cui attenzione a questi range di frequenze in caso di compressioni importanti.

La regola dei tre strumenti è importante anche per minimizzare l’effetto precedenza in cui se un suono soprattutto di frequenza vicina arriva con leggero ritardo viene mascherato, mentre se di differente volume è possibile che sia maggiormente percepibile.

Un corretto mix lineare oltre l’utilizzo della tecnica dei tre strumenti, come ad esempio la voce e soli in primo piano e gli altri strumenti su di uno stesso più basso livello o differenti livelli aiutano a contrastare i mascheramenti, migliorare l’accoppiamento di fase a scapito di introdurre bande critiche risolvibili con metodi precedentemente visti.

Quando si ascolta tramite in Ear-Monitor (ascolto binaurale) è facile che vi siano maggiori risonanze in medio-alta ed alta frequenza per via della radiazione diretta verso il condotto uditivo e la non presenza di testa, corpo e padiglione auricolare che portano ombre ed attenuazioni per interferenza, è opportuno quindi utilizzare cuffie opportunamente equalizzate e monitorare la gestione di queste frequenze.

Con Padiglioni Auricolari esterni queste risonanze sono più contenute ma aumentano le distorsioni armoniche per via del contatto diretto con il padiglione auricolare dell’orecchio, in questo caso il maggiore controllo deve essere eseguito sulla parte media e medio-alta.

Quando si ascolta in cuffia essendo un tipo di ascolto lateralizzato ed estremizzato tra orecchio destro e sinistro, l’estensione del mix deve essere leggermente più allargata altrimenti risulta troppo schiacciato in un ascolto stereo. O comunque proporzionato all’estensione data ai monitor per ascolto stereo.

In un ascolto Binaurale non ci sono riflessioni, rifrazione e diffrazioni ambientali, per cui pur essendo molto più definiti in quanto la sorgente è a diretto contatto con le orecchie, è necessario ponderarli opportunamente (attenzione alla chiarezza e livello).

Il Comb-Filter è una delle principali cause di degrado della qualità audio, dovuto principalmente ai rientri diretti degli strumenti e indiretti per via ambientale, per minimizzare questo è necessario che il segnale di rientro sia inferiore ai 10 dB rispetto a quello diretto.

OTTIMIZZAZIONE DELLA FOCALIZZAZIONE – LOCALIZZAZIONE

La vista è il senso prioritario per il nostro cervello ed è in grado di far modificare la percezione di un suono, per questo ottimizzare la localizzazione e focalizzazione di una sorgente sonora è fondamentale per ottenere un suono di qualità soprattutto quando questo viene visto.

n.b. Il nostro cervello prende per vero solo ciò che vede, che pensiamo sia vero o probabile, mentre tralascia ciò che pensiamo sia non veritiero, impossibile.

Per ottimizzare la percezione di provenienza delle basse frequenze (legate quindi alla posizione dello strumento) è utile spostarle su assi temporali differenti, in quanto che la percezione di provenienza in bassa frequenza è maggiormente legata all’ITD (differenze di livello temporale). Un esempio può essere quello di pannare la cassa della batteria leggermente verso destra e il basso elettrico o contrabbasso verso sinistra senza snaturare il mix, cosi da separare in un ascolto “ad esempio stereo” i due segnali provenienti da diverse angolazioni e quindi tempi di arrivo alle nostre orecchie.

n.b. Non utilizzare delay elettronici se non per mettere in fase cassa e basso, in quanto che c’è differenza tra ritardo temporale di un insieme di diffusori ad esempio L – R e ritardo temporale con delay ma sempre mono. Il ritardo deve essere quello naturale tra l’orecchio destro e sinistro e non ritardo elettronico che porta ulteriori ritardi e confusione di percezione, in quanto se ulteriormente pannato, si somma al ritardo naturale tra le orecchie.

In generale il Pannaggio aiuta la localizzazione per ITD sotto a 1 Khz di qualsiasi strumento, mentre sopra ai 4 Khz il nostro udito lavora per ILD.

Per frequenza intermedie (in cui ci sono molte fondamentali ed armoniche strumentali) è possibile che si verifichino degli errori di localizzazione come visto in argomento Psicoacustica, risolvibili in parte attenuando leggermente entro i 0,5 – 1 dB (per non essere percepito come attenuazione di volume) o enfatizzando il pannaggio (a scapito di uno spostamento dell’immagine).

Questo non risolve il problema ma distrae meno dalla localizzazione di tutto il resto della banda di frequenze.

L’effetto del pannaggio ha valore se > 1 – 2° per il piano orizzontale, in quanto che questa è la minima risoluzione di percezione delle nostre orecchie.

L’altezza dell’impianto audio andrebbe sempre considerando l’asse del diffusore a non più di 10° sopra o sotto le orecchie dell’ascoltatore, in quanto che oltre i 10° si comincia a percepire un innalzamento del suono verso l’alto e varia la risposta in frequenza percepita. In aiuto vengono comunque l’effetto ventriloquo e l’altezza del palco che possono consentire qualche grado in più (anche se in caso sia troppo distante dalla sorgente vi è un problema di focalizzazione dello strumento stesso). Anche l’altezza del palco in relazione alla distanza di ascolto andrebbe quindi ottimizzata per non porre la sorgente sonora (strumento musicale) sopra ai 10° rispetto all’ascolto.

n.b. Se si rimane all’interno di questa regola è minimizzato anche il problema della risposta in frequenza percepita per un suono provenire dall’alto in quanto rimane sempre all’interno di un ascolto frontale. Da considerare poi le intemperie atmosferiche e la non linearità dell’aria.

n.b. Se l’ascolto è molto vicino ben oltre ai 10° è possibile al fine di ridurre l’effetto di ascolto sfocato che si avrebbe se diffusore audio e sorgente sonora sono molto distanti, creare un offset per lo 0° di ascolto in una via di mezzo tra l’altezza della sorgente e i 10° di riferimento.

In un ambiente riverberante è ancora più importante il rispetto di tutti questi fattori in cui focalizzazione e localizzazione sono maggiormente distorti.

 

Gestione dell’immagine considerando un ascolto L – R:

La posizione ottimale dei diffusori acustici è sempre sulla stessa linea orizzontale in cui si trova la/le sorgenti.

Per un ascolto stereo è importante considerare il posizionamento come da teoria:

sd.png

Tanto più ci si trova lontani o si avvicinano le sorgenti (rispetto ad un ipotetico ascolto stereofonico) e tanto più i valori di ILD e ITD dovranno essere elevati per ottenere uno spostamento dell’immagine. Frequenze più basse necessitano di valori più elevati.

fdfd.jpg

Se l’ascolto è maggiormente concentrato vicino alle sorgenti audio è possibile prevedere una riduzione dell’estensione dell’immagine stereo, mentre al contrario se è molto lontana un estensione dell’immagine stereo.

Stereofonia Discreta: Realizzata tramite tecniche di ripresa stereofoniche e correttamente bilanciate nello spazio L-R.

Stereofonia non-Discreta: Realizzata bilanciando gli strumenti con ripresa mono in un piano L-R.

Per aumentare il senso di profondità e realismo di un mix è possibile aggiungere riverberazione e delay.

Per ascolti in prossimità, esempio come spesso accade in piccoli ambienti, piccoli palchi in piccoli ambienti, è molto importate visto l’estrema vicinanza dell’ascolto ai sistemi di diffusione sonora che creano un elevato livello di distorsione di localizzazione e focalizzazione, cercare di mixare il più possibile il suono naturale dello strumento con un minimo di contributo dai diffusori esterni e che questo sia mascherato, quindi non sia chiara e definita la sua provenienza dai diffusori, questo si ottiene mixando adeguatamente il suono diretto degli strumento con quello amplificato (monitor da palco compresi).

n.b. Frequenze percepite omnidirezionali avranno sempre meno valore nell’errore di localizzazione e focalizzazione, in quanto non è definita la loro provenienza, ed è questo l’unico contesto in cui è giusto mediare l’ottimizzazione della localizzazione in bassa frequenza con la sua omnidirezionalità.

 

Tipologie di Localizzazione e Focalizzazione in un Evento Live

gfgnn.jpg

Ottimizzazione della Localizzazione-Focalizzazione su di un piano Orizzontale

dsvsdv.jpg

Se panno uno strumento tutto a sinistra o destra si ottiene un risultato come da figura sopra in cui massime sono le zone d’ombra per chi ascolto dal lato opposto.

Lavorare con la Tecnica Ventriloquo per cui la localizzazione segue sempre la vista è la migliore soluzione, (la presenza visiva di una sorgente centrale ma con il suono che proviene da un lato sarà percepita dal nostro cervello come provenire dal centro, ma tanto più questo suono è sfasato rispetto alla posizione fisica reale dello strumento visto e tanto maggiore è lo sfocamento acustico percepito dello stesso).

Considerando che 20 dB sono il limite massimo medio per spostare una sorgente ad essere percepita da un lato e che a livello visivo questo valore si riduce di circa la metà. Considerando anche che a parità di distanza tra i diffusori acustici più ci allontaniamo e più servirà guadagno per lo spostamento dell’immagine in quanto l’angolo si va via via a ridurre, considerando anche di creare una zona d’ombra più piccola possibile, è opportuno per ottimizzare la localizzazione e focalizzazione non spostare la sorgente rispetto alla percezione mono media di circa 4 – 5 dB, di cui 3 – 4 dB per ascolti ravvicinati e 5 – 6 dB per ascolti lontani.

I risultati di questa tecnica sono nella figura sotto in cui le zone di sfocamento nella percezione dell’immagine sonora sono molto più ridotte.

vdvbsbsfb.jpg

In caso di presenza di Front Fill è opportuno per gli stessi motivi visti mantenere un corretto rapporto Left – Right come da figura sottostante.

dsvbsdbsb.jpg

Questo a differenza di come sarebbe mettendoli in mono, consente di mantenere il giusto rapporto di localizzazione-focalizzazione anche per le prime file ravvicinate in prossimità del palco, laddove l’impianto P.A. fatica a determinare una copertura omogenea.

Una soluzione alternativa ancora più efficiente è quella di creare piccoli gruppi di ascolto L – R come da figura sottostante.

vsbsbsdfbs.jpg

Così facendo ci sarà un’ulteriore aiuto alla focalizzazione anche per gli estremi di ascolto, ma sempre limitati dal fatto che al massimo si percepirà un suono provenire leggermente da sinistra ma poi vedere che lo strumento musicale suona completamente a sinistra sul palco.

n.b. In caso di riproduzione di un brano musicale stereo, quindi già mixato in studio, considerare anche in questo caso che l’ascolto è in prossimità delle sorgenti per cui valutare se stringere o allargare l’immagine stereofonica, come visto precedentemente.

Con l’utilizzo di Front-Fill è opportuno bilanciare i rientri di questi con il segnale audio proveniente dal P.A. ottimizzando fase e risposta in frequenza. Ed in caso vi sia anche il contributo naturale degli strumenti è molto importante bilanciare per prima cosa questo con tutto il resto del segnale audio amplificato.

Per quanto riguarda l’altezza delle sorgenti, al fine di sfasare meno l’immagine percepita è possibile utilizzare come limite un angolo di 10° tra l’asse della sorgente sonora e l’asse di ascolto cosi da minimizzare l’effetto di percezione di un innalzamento e distorsione della risposta in frequenza percepita.

E’ anche possibile calcolare il tempo di ritardo tra l’asse della sorgente sonora e l’asse di ascolto come da figura sottostante.

bsfbdfbfd.jpg

Per un ascolto ravvicinato è importante che sull’asse di ascolto non vi sia un ritardo superiore ai 2 ms tra l’asse della sorgente sonora e l’asse visiva dello strumento musicale. Per un ascolto più lontano 3 ms e per un ascolto molto lontano 4 ms.

In caso di utilizzo impianto audio in configurazione sub a terra e satelliti appesi avviene uno sfasamento dell’immagine dello spettro, in cui i bassi percepiti a terra ed il resto della banda percepita verso l’alto, come da figura sottostante.

trtetret.jpg

Questo problema è sempre risolvibile mantenendo il giusto angolo di altezza del diffusore appeso (< 10°) e corretto tempo di ritardo rispetto allo strumento musicale visto, oltre che utilizzare un tipo di configurazione con frequenze < 60 Hz a terra (in ogni caso non localizzabili) e > 60° appese cosi da ottimizzare anche la percezione di localizzazione e focalizzazione nelle frequenze basse, distorte invece nel caso precedente. Questo è illustrato nella figura sottostante.

dsvddsvsdvsv.jpg

n.b. E’ importante che i Sub-Woofer appesi siano in configurazione direttiva per ovviare a problemi di fase ed interferenze con i diffusori per la riproduzione del range di frequenze superiori.

Quando ci si trova in piccoli ambienti con piccoli palchi, comunque si effettuano ascolti in prossimità in cui il contributo energetico dello strumento musicale è rilevante e fondamentale per la percezione di localizzione e focalizzazione, il livello di distorsione della localizzazione e focalizzazione è massimo.

La linea ideale sarebbe quella di ascoltare o solo il suono naturale degli strumento o solo quello amplificato.

Per ottimizzare e ridurre queste distorsioni è buona norma mixare e bilanciare il ritorno di palco (suono naturale degli strumenti prima e quello amplificato dall’impianto audio poi). Anche l’impianto audio posto in linea con la posizione degli strumenti (prendendo come riferimento il bordo palco anche per ovvie ragioni di limitare i rientri) aiuta a ridurre questi sfasamenti dell’immagine.

In certi casi però sempre per la gestione dei rientri. l’impianto audio è spesso tenuto ben oltre la linea di fronte palco (mai metterlo dietro), in questo caso è utile apportare un tempo di ritardo all’impianto tale da consentire una correlazione di fase con il suono che arriva naturalmente dagli strumenti, come da figura sottostante.

bdfbdf.jpg

Come linea media di partenza per calcolare il tempo di ritardo da applicare all’impianto audio si prende sempre l’asse medio considerando la posizione degli strumenti sul palco.

n.b. Soprattutto in dominio digitale il percorso del segnale audio dalla sua ripresa microfonica alla sua diffusione impiega un certo tempo, per questo prima di impostare il ritardo all’impianto audio è opportuno misurare il tempo di ritardo che ha il percorso di segnale audio e confrontarlo con quello che servirebbe, questo in quanto potrebbe già essere più che sufficiente, così da utilizzare un processore in meno, che a sua volte impoverisce la qualità del mix finale.

n.b. E’ da considerare anche il livello di ritorno dell’impianto audio verso il palco, in quanto un ritardo troppo elevato può per effetto Haas essere percepito come eco, in quel caso mediare. Considerare questo fenomeno sempre con il monitoraggio di palco attivo, in quanto la presenza di una sorgente sonora sul palco può facilmente mascherare questo tipo di ritorno.

Anche i monitor da palco sono una fonte di disturbo non solo della risposta in frequenza e SPL per un ascolto in prossimità, ma anche di distorsione della corretta focalizzazione-localizzazione immagine. Questo è risolvibile utilizzando In-Ear monitor (monitoraggio in cuffia), cosi da eliminare tutto il contributo energetico ambientale generato dai monitor da palco, risolvendo anche altri molteplici problemi come ad esempio i rientri sui microfoni, la creazione di zone d’ombra di ascolto, più elevati rumori di fondo. In caso si richieda il suo utilizzo o questo sia l’unica soluzione possibile, utilizzare monitor più direttivi possibile ed equalizzarli opportunamente tale da generare il più basso livello SPL in arrivo alle prime file di ascolto. Sono in ogni caso fonte di risonanza da considerare durante la taratura dello spettro dell’impianto audio.

Impostare strumenti in stereo (ad esempio chitarre elettriche e voci) aumenta il livello di sfasamento di localizzazione e focalizzazione, per questo se non per scopi creativi o correttivi per migliorare l’intelligibilità del mix (utilizzare estensioni limitate) è sempre bene non utilizzarlo.

OTTIMIZZAZIONE DELLA SENSAZIONE – ASCOLTO EMOZIONALE

Un cambio di equalizzazione durante un cambio di tonalità, velocità, o comunque variazioni del programma musicale, determina anche una minore percezione di variazione dell’equalizzazione.

Tramite ascolto in cuffia si perde la sensazione ed emozione di ascolto che c’è ascoltando attraverso diffusori acustici in quanto non vi è la presenza del corpo e testa. Per migliorare l’ascolto emozionale può essere utile in ogni caso aggiungere monitor di ascolto almeno in riproduzione della parte bassa dello spettro che è quella di maggiore interesse nel far lavorare testa e corpo avendo maggiore energia e lunghezze d’onda tali da non essere ostacolate dalla presenza fisica di chi ascolta. Da considerare poi il ritardo temporale tra un ascolto in-ear monitor e tramite diffusori acustici, per cui è necessario ritardare temporalmente l’ascolto in In-Ear monitor per mettere tutto in fase.

Definizione della sensazione in base alla frequenza, rilevabile maggiormente per ascolto in campo libero, agire su questi range di frequenze per estendere ed ottimizzare la sensazione in quella parte del corpo facendo attenzione all’effetto di risalto sugli strumenti che riproducono quelle particolari frequenze.

Frequenza (Hz) Sensazione sul Corpo Definizione
20 – 40 Corpo – Bacino Basso Basse Profonde
40 – 160 Corpo – Bacino Alto Basse
160 – 315 Bacino Alto – Gola Medio Basse
315 – 2.500 Gola – Testa/Naso – Orecchie Medie
2.500 – 5.000 Orecchie Medio Alte
5000 – 10.000 Fronte Alte
10.000 – 20.000 Fronte Superiore Altissime

DINAMICHE ED IMPULSI

Variazioni dinamiche durante un cambio di tonalità, velocità, o comunque variazioni del programma musicale, determinano anche una minore percezione di introduzione del processamento.

Per brevi impulsi (pochi ms) il nostro apparato uditivo necessita di un differente livello di intensità sonora per percepirli in egual modo, fino ad un limite di 200 ms per cui oltre, l’orecchio medio tende a ridurre il livello di pressione sonora verso l’orecchio interno pareggiando il livello di intensità sonora percepita.

E’ quindi importante per dare presenza e dinamica agli strumenti considerare ed ottimizzare questi primi ms di inviluppo (generalmente legati all’attacco dello strumento).

Oltre i 200 ms non si hanno riferimenti per l’ottimizzazione del processo di controllo dinamico, in quanto diverse sono le variabili che portano all’alterazione dinamica vista.

Attraverso la compressione e guadagno post-compressione è possibile far risaltare armoniche e risonanze, i parametri di attacco e rilascio vanno bilanciati in base alla risposta armonica, in modo tale da rimanere al di fuori dell’attacco dello strumento e gestire il solo contributo armonico.

n.b. Un compressore multibanda sicuramente viene maggiormente in aiuto per la gestione separata di attacco ed armoniche.

Attraverso la compressione/limitazione è poi possibile gestire picchi e sbalzi di tensione limitando i livelli di distorsione e dinamica.

Attraverso la Downward Compression (utilizzare il compressore come limitatore per ridurre l’estensione dei picchi) è possibile ridurre l’escursione dinamica (soprattutto i picchi) degli strumenti al fine di livellarne l’ascolto con il resto del mix, limitando mascheramenti e distrazioni di ascolto, utile toglierlo ad esempio quando interviene un assolo per lasciare l’escursione dinamica che necessita. Serve anche per limitare picchi che possono portare a livelli di distorsione.

Attraverso la Upward Compression (utilizzare il compressore per ridurre l’escursione dinamica ed amplificare riguadagnando per compensare l’attenuazione da compressione), è possibile far risaltare armoniche e bassi valori dinamici mascherati, non chè portare il segnale di uno strumento sopra ad esempio ad un rumore di fondo, o ancora rivitalizzare brani con poco loudness e aumentare il loudness generale del mix. In questo caso attenzione ai rientri e risonanze che possono essere enfatizzate dal processo.

Lo stesso solo all’opposto vale per Downward Expansion (utile per attenuare rumori, rientri, suoni non utili e non desiderati nel mix), e Upward Expansion (per espandere la dinamica di strumenti e mix poveri di essa).

Per Upward Processing attenzione oltre che alle risonanze anche alla generazione di sibilanti e suoni squillanti in quanto le armoniche come detto tendono a prendere valore energetico rilevante.

Lavora in Upward Expansion è un processo più naturale che in Upward Compression in quanto rispecchia maggiormente l’andamento dinamico naturale dello strumento.

OTTIMIZZAZIONE DEL LOUDNESS TRAMITE LUFS METER

Vedi argomento LUFS Meter.

RIDUZIONE DEI RUMORI E PREVENZIONE

E’ molto importate che la massa e la corrente elettrica di alimentazione sul posto in cui ci si trova sia ben bilanciata, tale da trasferire correttamente tutte le interferenze a terra e garantire i livelli di corrente più stabili possibili che come visto portano a riduzioni dinamiche, dc offset, distorsioni e rumori di fondo (soprattutto in dominio digitale ed attivo).

Utilizzare per cui distributori di corrente con filtri e tecnologie per pulire la corrente da rumori ed eventualmente ricrearla (qualsiasi sia il livello di tensione in ingresso “generalmente entro una certa soglia di tolleranza” viene assorbito e ricreato a livelli di tensione definiti dall’utente), questo per avere risultati ancora più qualitativi.

Per ridurre il rumore è inoltre molto importante rispettare soprattutto in ambito analogico le impedenze di carico tra i circuiti di ingresso ed uscita.

Per prevenire sovraccarichi e rottura è bene utilizzare attrezzatura con doppi o più PSU, così da avere ridondanza sul circuito di alimentazione ed in caso si rompa uno il sistema continua a funzionare sfruttando la tensione elettrica proveniente dal secondario.

Per quanto riguarda la riduzione dei rumori da tracce audio, che siano analogiche, vecchie, da restorare, vedi argomento Noise Reduction.

 

In caso di utilizzo di Sub o altri elementi su canale separato, è buona norma evitare l’utilizzo di filtri per eliminare il contributo in frequenza dello strumento su frequenze che già non arrivano al Sub in quanto non indirizzate e filtrate dal crossover dell’impianto. A meno di non dover filtrare a frequenze superiori o solo in parte in quelle inferiori. In questo caso però può essere utile utilizzare filtri di equalizzazione parametrici, rispetto a filtri passa-alto che generano più rumore.

AMBIENTE E POSIZIONAMENTO (EFFETTI)

Le riprese in Close Miking limitano la reale dinamica dello strumento percepita, in quanto che sono prive di risonanze ambientali, per questo un corretto posizionamento di panoramici e tecniche di ripresa d’accento, a distanza, ambientali, sono spesso gradite soprattutto in generi musicali dove la dinamica è l’essenza del brano (vedi orchestre). In ogni caso l’aggiunta di riverberazione ed effetti può risultare più gradevole ed aiutare la dinamica percepita dello strumento.

In questo tipo di riprese fare attenzione all’effetto di prossimità che si viene a creare (basse e medio-basse frequenze), risolvibile quando possibile con microfoni dal diagramma polare omnidirezionale. Nei microfoni a condensatore per via del diverso principio di trasduzione il fenomeno è più contenuto.

n.b. Prendendo come esempio la Batteria Acustica l’utilizzo corretto di panoramici è fondamentale per aiutare il sostegno e quindi la parte centrale della dinamica dello strumento, naturalmente povero per una ripresa di prossimità. In questo caso però sarà poi necessario considerare fase e rientri in quanto che il suono dello strumento entra sia dal microfono a lui dedicato che dalla ripresa panoramica.

Nella creazione di un ambiente con l’utilizzo di effetti è importante per dare un senso di maggiore realismo non chè migliorare la percezione, sia del suono diretto che quello ambientale, aumentare il grado di spazialità dell’effetto ed aggiungere un più o meno tempo di ritardo. Questo perché nella realtà il suono riverberato/eco non è presente insieme alla sorgente (cosa che avviene semplicemente aggiungendo ad esempio riverbero ad una voce) ma il suono diretto è seguito dopo x tempo dalle prime riflessioni e riflessioni successive, che arrivano all’ascoltatore da diverse posizioni di riflessioni in base a come è la struttura dell’ambiente in cui si diffondono (quindi non è nemmeno sullo stesso fronte d’onda ma da diverse posizioni di ascolto), in questo caso uno Stereo Imager o Spaziale può aiutare.

Gestione del Riverbero. In realtà il riverbero non esiste, siamo noi che lo percepiamo cosi per via della bassa risoluzione del nostro sistema uditivo nel percepire e separare veloci transienti e suoni che arrivano a brevi distante l’uno dall’altro in cui si aggiungo mascheramenti e teoria degli impulsi. Per ottimizzare e ricreare la sua percezione naturale c’è da considerare che il suono diretto e le prime riflessioni sono le fondamentali e quelle maggiormente percepite nella definizione di localizzazione e focalizzazione dello strumento nell’ambiente, le riflessioni secondarie ed oltre determinano la percezione di profondità e grandezza.

Nella gestione del riverbero ed effetti è fondamentale in controllo delle risonanze in bassa frequenza che se con eccessivo riverbero vengono solo enfatizzate ulteriormente ed aggiungono confusione e distorsione di ascolto. Se il riverbero è troppo questo viene percepito come distorsione a partire dalle alte frequenze, è per cui utile controllare alte e medio-alte frequenze al fine di migliorare l’intelligibilità non solo del riverbero ma anche strumento a cui è associato.

Un leggero ritardo (delay) tra il suono diretto e quello riverberato aiuta la sua comprensione.

L’aggiunta di riverbero, meno sulle prime riflessioni, aiuta a ridurre l’efficienza percepita di un suono bright, squillante ed eccessivamente chiaro, questo perché a livello percettivo il nostro cervello tende a mediare i valori percepiti del suono diretto con quelli riverberati.

Per questo stesso motivo il riverbero tende a scurire il suono dry, può quindi in certi casi essere utile enfatizzare la parte alta dello spettro in frequenza. Al contrario può enfatizzare risonanze in medio-bassa e bassa, quindi da ridurre.

Se il segnale audio presenta troppe prime riflessioni (come nel caso ci si trovi vicino ad ostacoli e ambienti piccoli confinati, vicino pareti rflettenti, ecc..), provare ad aggiungere solo coda riverbero per dare profondità.

GESTIONE DEI RUMORI

In presenza di rumori (come ad esempio effetti sonori) da mixare insieme a suoni strumentali è importante che questi abbiano un livello mediamente più basso rispetto a quello medio strumentale, in quanto che il rumore prende più attenzione rispetto ad un suono armonico come quello strumentale.

DIFFUSIONE A PIOGGIA

In centri commerciali, supermercati, negozi, bar ecc.. capita molto spesso un tipo di diffusione a pioggia con altoparlanti a soffitto o comunque posizionati in alto. Un ascolto di questo tipo a livello psicoacustico è percepito diverso da quello frontale, con alterazioni dello spettro soprattutto in medio-alta e alta frequenza in cui i 7 Khz sono la frequenza media di maggiore risonanza.

Il nostro sistema uditivo è anche meno sensibile alla percezione di variazione sul piano verticale (tra le 8 – 10 volte in meno rispetto al piano orizzontale), per questo in un ascolto con diffusori a pioggia l’asse di copertura sonora è percepita inferiore, circa 10° in meno rispetto a come se lo stesso fosse in riproduzione frontale. E’ quindi fondamentale ridurre di 10° la copertura sonora dichiarata e considerarlo nel progetto di installazione dell’impianto audio stesso. Considerare anche che a livello fisico anche se siamo meno sensibili l’interazione acustica (fasi e controfasi) tra i vari diffusori avviene sempre allo stesso modo. Per cui attenzione a mettere troppo ravvicinati i diffusori magari pensando di ottimizzare la percezione di ascolto ma avere poi un problema di fase tra i diffusori stessi.

Considerare quindi un tipo di equalizzazione idoneo e se possibile creare un mix ad hoc utilizzato un tipo di installazione “configurazione” dell’impianto a pioggia, quindi cosi come poi lo si andrà ad ascoltare in questo tipo di situazioni.

DELAY TOWER, MATRIX

In questi casi di installazione ad esempio necessari per coprire omogeneamente ampi spazi o effettuare più punti di diffusione ravvicinata in ambiente molto riverberanti per ottimizzare la chiarezza di ascolto ed aumentare il rapporto tra campo diretto e campo diffuso, mantenendo lontana la distorsione di focalizzazione e localizzazione da riverbero, l’errore di localizzazione e focalizzazione è massimo in quanto si è sempre sfasati nella posizione da dove si ascolta rispetto a quella di presenza della sorgente (i quali diffusori andrebbe sempre posti in asse orizzontale con le sorgenti). L’effetto ventriloquo aiuta a compensare ma evitare quando possibile situazioni di questo tipo.

La soluzione migliore è sempre quella di far percepire la provenienza del suono dai sistemi delay tower, colonne e distribuzioni il meno possibile, ottimizzando il tempo e fase di ritardo tra l’impianto principale e quelli ritardati, cosi che l’effetto ventriloquo ha più valore e si distorce meno l’immagine sonora percepita.

AUDIO IN PRESENZA DI VIDEO

Un ascolto stereo o frontale per alcuni setup di ascolto surround (da valutare quindi l’impostazione del formato surround utilizzato) tende ad estremizzare la percezione di dimensione ed estensione sull’asse orizzontale, per cui i 60° e triangolo equilatero come da teoria stereo non sono in questo caso più validi, ma invece è necessario ridurre l’angolo di ascolto L – R a 30°.

vdfvdvdv.jpg

Per ottimizzare la focalizzazione e localizzazione seguire sempre il movimento della sorgente presente nel video, in quanto che se la sorgente si sposta a destra ma il suono viene continuamente percepito in centro o ancor più sinistra si ha uno sfasamento di percezione audio-video.

E’ importate ridurre il parlato al solo mix mono in quanto un estensione troppo pronunciata porta a confusione e distrazione. Mentre rumori ed effetti buona norma riprenderli e mixarli in stereo o surround.

Utilizzare all’interno del mix suoni e rumori esterni all’angolo di ripresa video è utile al fine di ottimizzare un senso di realismo e dare maggiore dimensione sia audio che video, limitata appunto dall’angolo di ripresa. Per immagini sfocate anche l’audio deve essere meno presente, definito, intelligibile, in quanto a livello psicoacustico il nostro cervello si aspetta un suono lontano e confuso, cosi come visto.

CONSIDERAZIONI

  1. L’obbiettivo finale di un ottimo ascolto è quello NON più di ascoltare il suono dello strumento musicale o mix considerando lo strumento in sé nel suo insieme, ma scomporre il suo spettro in frequenza e parte dinamica, rilevarne possibili cause e correzioni per raggiungere un suono di maggiore qualità con minor percezione di variazione e distrazione possibile, naturalezza, neutralità di ascolto ed attenzione sono fondamentali per un risultato ottimale.

 

  1. Anche se il nostro apparato uditivo è meno sensibile alle variazioni di frequenza via via che queste aumentano, per cui vi è un tipo di percezione logaritmica, è sempre bene agire con l’equalizzazione e dinamica sul range di frequenze interessate e mai su di un contesto via via più generico (tipo shelving), in quanto si potrebbe dedurre che percependo in egual misura un più ampio range di frequenze via via che queste aumentano allora si potrebbe lavorare anche interessando con il processo un range di frequenze più grande. In realtà il processore interessato tanto più ampio è il range in cui lavoro ed al contrario tanto più si cerca di rendere un filtro selettivo e tanto più genera distorsione, errori, rumore.

Per questo è sempre meglio ottimizzare questi parametri sul range di frequenze interessate al processamento e mai su contesto generico.

  1. Attenzione a non enfatizzare eccessivamente frequenze oltre il range di riproduzione +/- 3 dB dell’altoparlante, cosi da minimizzare distorsioni ed evitare rotture.

 

  1. Muovere testa e corpo il meno possibile durante la fase di mix, in quanto oltre che concentrarsi sul movimento il nostro cervello percepisce rumori provenire da sfregamento muscolare e osseo.

 

  1. Provare ad ascoltare il mix con tutte le tipologie di ascolto a cui è destinato per correggere e mediare il mix stesso (stereo – binaurale – surround).

Acquista Attrezzature Audio dai principali Store

 

logo amazon.it

Thomann_logo1

The-new-eBay-logo

Annunci

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...