Acustica Architettonica – IX

Metodo della Radiosità

Analizziamo ora l’ultimo dei tre metodi utilizzati per le simulazione acustiche architettoniche, il Metodo della Radiosità.

Il modello a Sorgenti Virtuali e Ray Tracing come detto nel precedente articolo considerano sempre come base un tipo di riflessione speculare, e poi tramite algoritmi paralleli di calcolo, elaborano virtualmente una possibile riflessione diffusa, con i limiti precedentemente definiti.

Il metodo della Radiosità schematizzato in figura 1, è invece specifico e stato appositamente sviluppato per simulare una riflessione diffusa, mentre al contrario è meno preciso per le riflessioni speculari.

Fig. 1 DSC_0012

Questo metodo è dimostrato tramite un test per cui si assume che le pareti siano uniformemente diffondenti, si consideri anche l’intensità sonora ricevuta da una generica superficie infinitesimamente piccola, l’energia che arriverà al ricevitore è l’integrazione del contributo di tutti gli elementi della parete e del segnale diretto dalla sorgente.

Tramite un algoritmo di formula complessa è possibile calcolare ricorsivamente l’energia sonora tra superfici (che investe e che irradia per riflessione), dividendole in parti infinitesimamente piccole, in cui viene considerato anche lo scambio termico tra superifici per irraggiamento.

La formula di base utilizzata è la seguente:

dsv

Dove Bi indica la Brightness e cioè l’energia ricevuta da un ricevitore per radiosità diffusa di distribuzione del suono, ti è il primo istante in cui la potenza emessa dalla più vicina sorgente sonora (ni), raggiunge la superficie i-esima (rn,i), la distanza tra la ni-esima sorgente sonora e la superficie i-esima ɓn,i, l’angolo formato dalla congiungente tra l’ni-esima sorgente sonora e la superficie i-esima e la normale alla superficie i-esima stessa.

Il modello della Radiosità, assume che tutte le pareti siano uniformemente diffondenti, quindi molto utile per il calcolo di un ambiente molto riverberante e quindi valutazioni sul tempo di riverberazione (soprattutto elevato).

E’ un metodo più efficiente rispetto alle Sorgenti Virtuali e Ray Tracing nella parte terminale della risposta all’impulso, quindi nel valutare e simulare la coda di riverbero, quando appunto la diffusione è il fenomeno dominante.

 

Algoritmo di Calcolo

La Radiosità è un metodo deterministico e indiretto (quindi il risultato lo si ha solo alla fine del calcolo e non è possibile visualizzarlo in tempo reale). Costruisce sistematicamente la distribuzione della radiosità tra le superfici, non simula esplicitamente il processo di propagazione sonora. Sono note a priori le posizioni della pareti, delle sorgenti e dei ricevitori, ma non l’entità di energia (come invece nei metodi precedenti), che ogni riflessione porta verso ogni ricevitore in ogni istante di tempo. Mentre è noto il contributo energetico del suono diretto.

L’energia riflessa viene costruita da un passo preliminare che occupa la maggior parte del tempo di calcolo e poi ceduto globalmente ai ricevitori.

E’ invece inadatto alla previsione della struttura temporale della risposta dell’ambiente durante i primi istanti, caratterizzati da poche forti riflessioni speculari.

Perchè il sistema funzioni, si devono verificare i seguenti dati (e quindi il progetto deve rispettare queste condizioni per non incombere in errori):

– La faccia interna della superficie deve vedere la faccia interna di almeno un’altra superficie, o ricevitore (test visibilità).

– La faccia interna della superficie deve avere assegnato un fattore di forma relativo alla faccia interna di ogni altra superficie (calcolo preliminare dei fattori di forma), inoltre l’algoritmo deve eseguire per ogni superficie ed ogni passo del calcolo iterativo, il seguente test:

  • E’ stato raggiunto il massimo ordine di riflessione, oppure la nuova radiosità calcolata non differisce dalla precedente per più di una quantità predeterminata (test di convergenza).

n.b. Il fattore di forma è l’elemento che permette di scomporre le superfici in parti infinitesimamente piccole.

Una volta realizzato il fattore di forma, il calcolo converge rapidamente (il tutto dipendente dal numero di pareti) verso i possibili percorsi di diffusione.

 

Modelli Ibridi

L’evoluzione del metodo delle Sorgenti Virtuali a portato in alcuni casi all’inserimento di un metodo matriciale di trasformazione delle coordinate (derivato dal metodo della Radiosità).

Data una sorgente definita, per determinare la sorgente virtuale di prima riflessione, si può esprimere il suo vettore di raggio come il prodotto dello stesso nel sistema di riferimento speculare (rispetto alla parete), per la matrice di trasformazione dal sistema di coordinate speculare al sistema originario.

Questo sistema è poi applicabile a qualsiasi ordine di riflessione.

Questa procedura permette un notevole risparmio di memoria sul computer a parità di efficienza di risultati, in quanto non si necessità più di memorizzare i dati relativi ad ogni sorgente virtuale, ma basta calcolare tante matrici di trasformazione quante riflessioni e poi determinare direttamente la sorgente virtuale di ultimo ordine, tralasciando la definizione di quelle di valore intermedio.

Per che questo sia un calcolo più rapido rispetto al metodo tradizionale è necessario che:

– Il punto di riflessione deve cadere non solo sul piano di riflessione, ma anche entro i confini della superificie finita reale.

– Non vi devono essere ostacoli sul percorso sorgente-ricevitore. Vi sono poi altri due controlli che permettono di escludere a priori le combinazioni impossibili di riflessioni successive:

  •  Escludere i percorsi contenenti successioni di superfici mutuamente invisibili.
  • Escludere per la riflessione di ordine (l), le superfici candidate che non sono visibili dalla posizione della sorgente virtuale di ordine (l-1).

 

Una seconda evoluzione del metodo Sorgenti Virtuali è la possibilità di utilizzare il metodo Ray Tracing per la ricerca di queste sorgenti virtuali.

Si presenta come alternativa al test di visibilità delle Sorgenti Virtuali, in cui l’algoritmo prende nota dell’ordine con cui le superifici di riflessione sono state investite dai raggi, per cui risulta immediata la ricostruzione dell’esatta sequenza delle sorgenti virtuali. Eseguito questo calcolo il Ray Tracing viene abbandonato e per la valutazione della risposta della sala si considera separatamente il contributo delle varie sorgenti virtuali.

Con questo metodo si utilizzano anche ricevitori a sfera per consentire il prelievo di maggiori informazioni rispetto al metodo classico, in cui dopo un’analisi inversa simile a quella del test di visibilità classico, è possibile identificare i raggi che passano perfettamente dal centro della sfera (ricevitore).

n.b. I moderni software hanno quasi tutti un mix di analisi tra l’utilizzo possibile delle Sorgenti Virtuali con metodo Ray Tracing, e quello con metodo Ray Tracing standard, cosi da avere una qualità e precisione assicurata su tutti i fronti, tranne per la coda di riverbero il cui il metodo della radiosità risulta migliore.

 

Metodo a Fasci Divergenti (Cone Tracing)

Il Metodo a Fasci Divergenti o Cone Tracing, è un metodo che media le caratteristiche deterministiche del metodo a Sorgenti Virtuali con quelle statistiche del metodo Ray Tracing.

Il principale vantaggio di questo metodo è la sostituzione dei raggi sonori uniformemente distribuiti attorno alla sorgente (tipico del Ray Tracing), con dei coni (fasci divergenti), i cui assi coincidono con i raggi originari.

Dopo ogni riflessione il vertice del cono coincide con una sorgente virtuale associata alla relativa superificie, che fa parte della sequenza di quelle colpite dal raggio. Se un punto di ricezione cade all’interno del cono tra due riflessioni successive, la corrispondente sorgente virtuale è potenzialmente visibile e deve essere presa in considerazione.

Questo metodo permette un aumento delle prestazioni permettendo di eliminare le incertezze dovute al carattere statistico del Ray Tracing, soprattutto per le riflessioni di ordine elevato.

n.b. Solo i software di più alto livello utilizzano questo metodo, in quanto più complesso da realizzare come algoritmo.

Il principale difetto è che non riesce a riprodurre correttamente un modello di sorgente omnidirezionale utilizzando dei coni circolari, in quanto parzialmente sovrapposti.

E’ comunque risolvibile (tramite l’algoritmo), mediante il tracciamento dei Coni, dei Fasci, delle Piramidi.

Con il metodo dei Coni Circolari classico, essendo sovrapposti cosi da non lasciare spazi vuoti, porta al ricevitore di individuare più volte lo stesso cammino del raggio. Per risolvere questo il sistema memorizza le sorgenti virtuali associate al percorso corrispondente ad ogni intercettazione su di un ricevitore ed esegue ripetuti controlli per eliminare i duplicati. Questo è il metodo più dispendioso in termini di tempo di calcolo e memoria.

Il metodo di tracciamento dei Fasci, risolve il problema della sovrapposizione degli stessi mediante un’opportuna funzione di distribuzione dell’energia associata al fronte del cono (esegue una ponderazione). In pratica ogni raggio diviene l’asse di una sorgente elementare altamente direttiva (fig. 2).

Fig. 2 DSC_0012

La generazione del fascio è data da un piano di distribuzione gaussiano e viene eseguito un overlap con un fissato grado di sovrapposizione per ogni fascio tale da simulare una propagazione omnidirezionale.

Questo metodo è più efficiente del precedente anche per ordini di riflessione più elevati.

Sia il metodo a Coni che a Fasci soffrono sempre degli errori di captazione dei metodi Sorgenti Virtuali e Ray Tracing, in questo caso attribuiti maggiormente alla brusca transizione tra zone di visibilità e zone d’ombra. Il metodo dei Fasci rispetto a quello dei Coni, tramite la funzione di pesatura vista, fornisce una transizione più graduale.

Il metodo delle Piramidi o Pyramid Tracing, si basa sulla possibilità di suddividere esattamente una superficie sferica in triangoli curvilinei (basi di modellazione 3D poligonale da cui trae spunto questa teoria).

Come metodo di suddivisione della sfera esistono vari pensieri:

Tenenbaum et al., hanno suggerito di partire dagli ottanti della sfera e di procedere poi per bisezioni successive (fig. 3).

Fig. 3 xvx

Questo metodo rende possibile la generazione dei Triangoli in maniera deterministica, senza sovrapposizione delle piramidi.

Lewers, ha invece suggerito un metodo basato su approssimazioni successive della superficie sferica mediante triangoli (fig. 4).

Fig. 4 vxcvxc

In pratica si aumenta il numero di triangoli fino ad ottenere graficamente una sfera con meno spigoli possibile in base a come viene vista, quindi più l’oggetto è lontano e meno triangoli serviranno per far vedere la sfera alla sorgente e viceversa.

Nel metodo piramidale non si utilizzano le funzioni peso e la traiettoria del fascio viene assimilata a quella dell’asse centrale dello stesso, ed anche in questo caso si presenta il problema delle sorgenti duplicate.

La tecnica dei Fasci Divergenti necessita sempre di fattori di compensazione per le immagini mancanti, che sono appunto i fasci non captati dalla sorgente. Nel Ray Tracing classico la progressiva divergenza tra i raggi, porta a sottostimare il valore delle immagini mancanti, ma essa è mediamente compensata dalla mancata divergenza dell’energia trasportata da ogni raggio e dalla conseguente sovrastima del contributo di ogni captazione. Con i Fasci Divergenti invece, un numero progressivamente crescente di sorgenti virtuali non viene considerato, perchè il loro riconoscimento si basa sempre e soltanto sulla storia dell’asse centrale del fascio, cosicchè il numero medio di captazioni per unità di tempo segue approssimativamente la legge Van Maercke, Martin):

DSC_0012

dove tc è il tempo critico, definito dall’intersezione della legge per il numero medio di captazioni per unità di tempo da parte di un ricevitore per le Sorgenti Virtuali, con la retta rappresentante il valore limite effettivo n(t).

In figura 5 un esempio comparativo di come cambia la stima delle captazioni energetiche in base al tempo. Se l’analisi del tempo di riverberazione è entro i 0,70 secondi, le captazioni di un classico metodo a Sorgenti Virtuali rispetto a quello a Fasci Divergenti, con andamento effettivo come si vede in figura 5, sono molto simili, mentre per tempi superiori il metodo a Fasci Divergenti tende a sottostimare.

Fig. 5 DSC_0013

Per compensare questa perdita nel caso di una sorgente che emana fasci omnidirezionali pesati, si ricorre generalmente ad una correzzione di tipo moltiplicativo, l’energia sonora calcolata mediante il tracciamento dei fasci, viene divisa per il fattore:

xcccx

Mentre per sorgenti direttive vengono utilizzate altre tipologie di algoritmo.

All’utilizzo dei fasci divergenti sono associati diversi algoritmi per il tracciamento della coda della risposta all’impulso. Quello più elementare consiste nel lasciare che i fasci divergano progressivamente, fino a diventare ampi come l’ambiente che li contiene. In questo modo ogni ricevitore sperimenta continui arrivi di energia sonora e diviene quindi possibile un calcolo dell’energia riverberante con un numero molto ridotto di fasci. Tuttavia l’utilizzo di fasci cosi ampi spesso trova contrasti teorici e forzature matematica che non ne fanno un metodo di calcolo realistico.

Per questo alcuni algoritmi combinano due differenti tecniche per una adeguata predizione della risposta all’impulso:

  • Per le prime riflessioni, quando è importante una ricostruzione dettagliata dell’Ecogramma, viene attivato il Beam Tracing.
  • Per le riflessioni di ordine successivo, viene sfruttata una statistica sui fasci lanciati durante la prima fase.
  • Per la coda riverberante, viene valutata con un modello statistico, tralasciando lo studio degli effetti legati ai singoli fasci, non più facilmente distinguibili l’uno dall’altro.

Per evitare una discontinuità tra le prime riflessioni e la parte riverberante, la transizione è determinata dall’ordine di riflessione e non da un valore temporale fissato. Questo comporta anche una velocità nel tempo di calcolo.

 

Calcolo della Diffusione

Nel modello a Fasci Divergenti la Diffusione rimane un problema come per i casi precedenti, problema non solo predittivo ma anche nel tempo di calcolo impiegato quindi implementazione pratica, in quanto che per un corretto calcolo della diffusione bisognerebbe permettere che ogni singolo fascio desse origine al momento della riflessione ad un gruppo di nuovi fasci, distribuiti secondo la desiderata legge di diffusione, i quali a loro volta dovrebbero dare origine al momento di una riflessione diffusa ad altri fasci secondari e cosi via…

Per ottimizzare questo è stato proposto un metodo per cui ogni superficie diffondente è suddivisa in porzioni piane che funzionano sia da ricevitori per l’energia incidente sia da sorgenti secondarie per le riflessioni. Ad ogni porzione di superficie sono attribuiti un coefficiente di assorbimento ed uno di diffusione (gestibili dall’utente nei software più evoluti). In un primo passo sono attive solo le sorgenti reali, ad ogni riflessione di un fascio su di una porzione di superficie, una frazione dell’energia sonora viene riflessa specularmente togliendo parte di energia data dal coefficiente di assorbimento e riflessa per il coefficiente di diffusione, la parte assorbita viene immagazzinata in una lista primaria che fa riferimento alla porzione di superficie sulla quale il fascio ha impattato. In un secondo passo, le porzioni di superficie funzionano come sorgenti secondarie che emettono un prefissato numero di fasci, questi si dividono l’energia immagazzinata nella lista primaria e sono spazialmente distribuiti secondo la voluta legge di diffusione. I fasci secondari subiscono a loro volta riflessioni sia speculari che diffuse e provocano la sostituzione della lista primaria di ogni porzione di superficie con una lista secondaria. Questo secondo passo può essere ripetuto più volte, incrementando la creazione di fasci secondari per suddivisione, quindi diffusione dell’energia. Quando un fascio secondario incontra un ricevitore, gli cede energia secondo la sequenza di riflessioni contenuta nella lista associata alla porzione di superificie di origine che conserva memoria della sequenza di riflessioni che l’ha colpita, dei relativi tempi di arrivo e dei livelli energetici.

Il tempo di calcolo è ridotto grazie appunto al fatto che in una sola interazione fascio-ricevitore venga trasmessa l’energia dell’intera sequenza di riflessioni memorizzata nella lista.

C’è anche un terzo passo in cui l’energia residua delle liste viene emessa mediante fasci con direzioni causali (per non perderla). L’energia ceduta nei cari passi ai ricevitori viene sommata.

Un’altra teoria è quella di suddividere non solo le pareti ma anche i fasci nella loro direzione di propagazione, introducendo dei vettori direzionali a valori discreti. Per quanto riguarda i piramidali, l’algoritmo di calcolo considera che quando un fascio intercetta una o più porzioni di superficie contemporaneamente (problema principale del precedente metodo), da ogni porzione si riparte con un nuovo fascio. Per velocizzare il tempo di calcolo, la maggior parte di questo controllo avviene da un certo ordine di riflessione in su, in cui l’energia associata a tutti i fasci piramidali aventi la stessa direzione appositamente discretizzata, viene fusa insieme, provocando cosi una riunificazione dei fasci che contrasta la crescita esponenziale del calcolo. L’energia dei fasci di ordine più alto può a sua volta essere suddivisa in nuovi fasci, e via dicendo.

E’ una procedura del tutto simile al Metodo della Radiosità.

Un ultimo metodo è quello di suddividere i fasci che trasportano l’energia, e questo metodo viene chiamato Adaptive Beam Tracing. In cui la propagazione dei fasci non è più guidata dall’asse centrale degli stessi, ma ad ogni riflessione si determina la zona intercettata su tutte le superfici coperte, anche solo parzialmente dalla sezione efficacie del fascio. Da ognuna di queste zone di diparte un nuovo fascio. Una quota dell’energia del fascio di origine viene sempre ceduta alle varie superfici colpite tramite assorbimento e temporaneamente immagazzinata per essere poi rimessa in gioco secondo un meccanismo di scambio radiante diffuso.

 

Auralizzazione

L’Auralizzazione è un insieme di tecniche che permettono di ricostruire un ambiente uditivo virtuale ad alta fedeltà, comprendente anche gli effetti binaurali, quali sensazione di spazialità, localizzazione della sorgente timbrica ecc..

In pratica una volta eseguita la simulazione, tramite un apposito tool di auralizzazione è possibile inserire una musica (mono o stereo, nel caso stereo è necessario avere nel modello almeno due sorgenti) od un parlato e poter ascoltare quel tipo di suono come se ci si trovasse all’interno dell’ambiente prima creato tramite modellazione, e poi simulato tramite modello a Sorgenti Virtuali, Ray Tracing, ecc.. In pratica quel suono verrà diffuso dalla/e sorgente/i virtuale/i presente/i nel modello ed ascoltato nei punti ricevitori stabiliti (è possibile ascoltare solo un punto di ricezione alla volta), così da avere una più chiara e valutabile simulazione reale di come si sente in quel determinato punto dell’ambiente, una simulazione di ascolto.

Per fare questo il software crea un processo di convoluzione integrando il file audio importato con la risposta all’impulso dell’ambiente virtualmente creato (RIR, Room Impulse Response) e con la risposta all’impulso di una ripresa binaurale (generalmente già integrata e realizzata tramite le teste e corpi artificiali, già visti nei precedenti articoli) atta a simulare più fedelmente il reale ascolto umano, ed essendo quindi un risultato di suono binaurale è necessario ascoltarlo in cuffia. Alcuni permettono anche l’ascolto tramite coppia di altoparlanti (stereo), questo è possibile unicamente attraverso un processo di Transcodifica, che rendere l’ascolto Binaurale a Transcanale (che è poi l’ascolto reale delle nostre orecchie quanto ascoltiamo da una coppia di diffusori acustici), altrimenti si andrebbero perse tutte le informazioni di spazialità e profondità, si percepirebbe un suono molto medioso, povero di basse ed altissime.

In ogni caso l’ascolto in cuffia è preferibile, in quanto che cè un passaggio di codifica in meno, causa di un aumento di errori di processamento.

Le sensazioni uditive percepite con questo metodo da un certo ascoltatore in un certo punto dell’ambiente, possono essere riprodotte nella loro totalità, fornendo i segnali che arrivano all’orecchio destro e sinistro, tramite il Binaurale.

Per il test di una voce o impulso nel valutare l’acustica della sala dal punto di vista dell’intelligibilità è fondamentale utilizzare un suono dry, quindi registrato in camera anecoica o comunque privo di effetti di riverberazione, che andrebbero a rendere la simulazione falsata.

Grazie a questo metodo è appunto possibile variare i vari parametri di assorbimento delle superifici, posizione delle sorgenti ed ascoltare il tutto nei vari punti di ricezione.

Questo è l’ultimo passo prima della chiusura di un progetto acustico e successiva messa in opera. Utile poi confrontare l’ascolto reale con quello auralizzato del modello per vedere dove e perchè ci siano eventuali differenze, al fine di ottimizzare il prossimo progetto.

I limiti maggiori di questo processo sono:

– Ripetute convoluzioni sono necessarie in quanto chè ogni volta può esserci un risultato leggermente differente, giusto quindi comparare. E’ inoltre un processo molto pesante che quindi richiede un tempo di rendering molto alto tanto più si richiede accuratezza. Alcuni software per ovviare a questo problema limitano la possibilità di importare audio esclusivamente mono e di pochi secondi. Alcuni possono eseguire anche un processamento in tempo reale, altri creano il file poi da scaricare o ascoltare direttamente tramite il tool fornito, ma in ogni caso non in tempo reale.

– Se per fare questo processo si utilizzano dei programmi esterni, come ad esempio un programma di simulazione numerica, (e per questo consiglio vivamente di utilizzare il tool integrato nel software di simulazione acustica), questo deve essere in grado di fornire per ogni posizione di ricezione la corretta risposta all’impulso, completa di effetti sulla direttività e non uniformità della sorgente, tempi di ritardo delle singole riflessioni e di più sorgenti se presenti, angoli di incidenza sulle superifici, divergenza geometrica, attenuazione del suono nell’aria, effetti vari di attenuazione (umidità, ecc..), sfasamento e diffrazione delle superfici di riflessione, effetti di interferenza tra le onde, ecc..

– L’esatta misurazione delle risposte all’impulso relative alla testa è una questione molto delicata, per cui la testa deve avere un certo tipo di materiale, simile alla pelle umana, che quindi da riflessioni e assorbimento, non chè trasmissione adeguata verso il condotto uditivo. Gli stessi microfoni per la ripresa del segnale devono essere opportunamente selezionati e posizionati. Per questo è consigliato scaricare dei file di impulso già appositamente registrati dalle aziende più affidabili e che forniscono risultati più accurati (es. Bruel & Kjaer).

– Per ottenere una riproduzione fedele bisogna tenere conto anche dell’effetto del dispositivo di emissione sonora, quindi per l’ascolto in cuffia, la tipologia di cuffie e suo pre-amplificatore (che ovviamente devono essere il più trasparenti possibili). Teoricamente poi bisognerebbe calcolare la risposta all’impulso delle proprie orecchie, quindi della risposta in frequenza e fase della propria testa, cosi da utilizza questa risposta come metodo di convoluzione ai fini di un più reale ascolto “proprio”. Mentre attraverso la risposta all’impulso delle teste artificiali è sempre un tipo di ascolto medio, che va pur sempre bene per sale da concerto in quanto che come già detto in questa serie di articoli l’ascolto è molto soggettivo. Per quanto riguarda le cuffie, può essere opportuno un equalizzatore in modo tale da linearizzare il più possibile l’ascolto dato dall’interazione della risposta in frequenza delle cuffie e quella delle proprie orecchie.

n.b. La risposta acustica data da un impulso binaurale è sempre leggermente mediosa, questo per via della non perfetta linearità dei microfoni utilizzati e soprattutto dato dalla composizione della testa artificiale con le sue derivate risonanze. E’ quindi utile eseguire dei test di equalizzazione per permettere un ascolto cuffia-percezione il più trasparente possibile.

 

Linee Guida di Utilizzo per la Simulazione Acustica

Sicuramente la padronanza del programma, quindi conoscenza di tutti gli aspetti non solo puramente tecnici dei modellatori e simulatori ma anche dei tool forniti dal software per eseguire le operazioni, è di fondamentale importanza per una simulazione affidabile. Questa la si ottiene esclusivamente tramite lo studio del manuale, sperimentazione ed esperienza nel corso del tempo.

Ogni software può dare risultati differenti, e possono rendere al meglio in determinate tipologie di analisi, è quindi utile testarli per utilizzare quello più adeguato al proprio scopo di analisi.

Indipendentemente dal software è possibile seguire queste linee guida per ottenere un risultato affidabile:

– Affidare la scelta ed utilizzo del programma ad un operatore competente (in caso che non siate voi l’utilizzatore).

– Seguire un chiaro protocollo operativo.

– Seguire le necessarie regole di modellazione 2D, 3D (rimando a fonti esterne sui programmi di modellazione).

– Eseguire un corretto setup prima dell’analisi (prima utilizzare un metodo più leggero per valutare il corretto lavoro di processamento ed eseguire eventuali rifiniture sul modello, poi eseguire il rendering finale alla più alta risoluzione che si vuole ottenere).

– Scegliere la presentazione dei risultati più adatta al caso.

– Considerare i risultati non come assoluti, ma come relativi (tecnica del confronto prima-dopo), eseguire quindi più calcoli e compararli.

 

A livello operativo può essere utile seguire anche questi passaggi:

Costruzione del Modello Geometrico della Sala

Il modello deve contenere solo entità 3D, anche le stesse superfici di contorno (pareti, pavimento, soffitto), per avere la certezza di calcolare il suono che incide negli angoli e bordi. Il modello dovrebbe essere il più semplificato possibile evitando dettagli acusticamente non rilevanti e che invece aumenterebbero notevolmente i tempi di calcolo. Sono da evitare superfici troppo piccole, che in buona parte dell’intervallo di frequenze utili non rispettano le condizioni di validità dell’acustica geometrica. Alcuni software richiedono che le superfici curve siano realizzate con più superfici piane. Per l’analisi in ambiente al chiuso è fondamentale assicurarsi che il modello sia chiuso, non vi siano bordi aperti o buchi, per evitare la fuori uscita dei raggi sonori che impoverirebbero il risultato finale, per questo molti software hanno un Hole Check Control che evidenzia eventuali buchi aperti.

 

Modellizzazione Fisica

Alle sorgenti sonore va attribuito la corretta distribuzione energetica sonora, in cui rientra la risposta in frequenza e direttività, non chè la corretta presenza dei valori dei materiali assorbenti utilizzati.

 

Calcolo di Taratura

La fase di taratura è il punto cruciale dell’affidabilità dei risultati di analisi. Se l’ambiente da simulare è un ambiente reale in ristrutturazione allora è bene partire con il riferimento dei dati presi in loco (reali), dalla risposta all’impulso, il cui metodo di analisi lo vedremo più avanti. E’ poi necessaria una corretta impostazione dei parametri di inizializzazione del programma usato, cioè è necessario ricreare l’ambiente e questo deve fornire dati più similmente possibile a quelli rilevati dalla realtà (si va quindi a simulare lo stato di fatto), se ci sono troppe divergenze si può ricorrere a variazioni sulla modellazione ed eventualmente a correzioni manuali sulle risposte (anche se non sempre consigliate in quanto che possono differire poi sui risultati finali dopo il restauro, rispetto al contesto reale che si andrà a creare).

Fatto questo si procede alla fase di ristrutturazione del modello virtuale e nuove analisi di calcolo.

La taratura andrebbe fatta sui valori dei descrittori acustici più significativi affetti da minore incertezza di calcolo, avendo comunque un certo grado di tolleranza.

 

Calcolo Effettivo

Questa fase va compiuta sul modello ottimizzato, impostando il metodo di calcolo e parametri secondo velocità di processamento e qualità finale che si vuole ottenere.

 

Presentazione dei Risultati

Per l’analisi di singoli punti di ricezione è possibile utilizzare gli ecogrammi locali o i percorsi dei singoli raggi, mentre per l’analisi globale della copertura energetica si utilizzano le mappe a falsi colori, come vedremo nei prossimi articoli. A volte può essere utile produrre visualizzazioni tridimensionali dell’ambiente dopo la correzzione acustica e auralizzazione di brani noti con il modello nello stato di progetto.

 

Metodologie di Misura in Ambiente Reale

Come detto prima di eseguire il progetto, se l’obbiettivo è la ristrutturazione acustica della sala è importante ricreare il modello 3D esatto dell’ambiente reale (avvalendosi delle piante e prospetti già esistenti, e realizzando poi il modello 3D, o semplicemente importando ed eventualmente convertendo nel giusto formato di importazione a seconda del programma di simulazione acustica utilizzato, di un modello 3D già esistente).

Una volta terminato il progetto virtuale è poi utile compararlo con quello reale.

Durante la fase di progetto è molto utile fare attenzione e spesso questo è regolamentato, per cui non si può nemmeno progettare acusticamente a piacere il determinato tipo di ambiente, al tipo di destinazione d’uso dell’ambiente, se l’ambiente a valore storico, quindi se è necessario mantenere il più possibile la sua acustica naturale e la ristrutturazione interessa solo la parte strutturale dell’ambiente o nel caso in cui vengono inseriti condizionatori, ecc….quindi valutazione sull’impatto del rumore.

La prima cosa da fare è quindi quella di registrare la risposta all’impulso dell’ambiente reale, e questo ad oggi è standardizzato come procedura per il rilievo del tempo di riverberazione (quindi procedura de seguire per la presentazione del progetto agli enti del comune in cui verrà realizzata l’opera, e se questo progetto non rispetta queste normative è probabile incorrere a diverse problematiche di stop dei lavori o non consenso all’avvio).

 

ISO-3382 e UNI 10844

La ISO-3382 è la normativa specifica per il calcolo del tempo di riverberazione negli ambienti al chiuso, mentre la UNI 10844 è la normativa specifica per quanto riguarda il problema specifico della valutazione dell’efficacia dei trattamenti fonoassorbenti sempre negli ambienti chiusi.

Analizzando la ISO-3382 vengono considerate preliminarmente alcune definizioni quali:

 

Curva di Decadimento

Definisce il calcolo del livello di pressione sonora in funzione del tempo in un determinato punto dell’ambiente, dopo l’interruzione della sorgente. Questo decadimento può essere misurato sia direttamente rilevando l’andamento del livello di pressione sonora dopo l’effettiva interruzione della sorgente (omnidirezionale), con emissione stazionaria (continua), sia derivato indirettamente dall’integrazione all’indietro della risposta all’impulso, procedura nota anche come Metodo di Schroeder.

Esiste anche un terzo metodo ed è quello del colpo di pistola a salve, molto utilizzato in passato, genera un impulso sonoro da cui si può ricavare l’andamento del tempo di riverbero sempre per integrazione inversa. Non è però quasi più utilizzato in quanto che non viene previsto all’interno della normativa, in quanto che ritenuto poco accurato, per via della direzionalità data al suono che invece deve essere il più possibile omnidirezionale a tutte le frequenze, e per via di una non linearità della sua risposta in frequenza.

 

Risposta all’Impulso

E’ l’andamento della pressione sonora in funzione del tempo, risultante dall’eccitazione dell’ambiente con un impulso di durata estremamente breve (teoricamente non dovrebbe essere più breve di un dato tempo in ms vedremo poi meglio questo aspetto, in quanto che un impulso troppo breve può risultare non riproducibile dalla sorgente in quanto che la sua resistenza di movimento dell’altoparlante può richiedere un’energia di maggiore valore, lo stesso vale per la sua sensibilità, quindi se la durata di quell’impulso è in grado di eccitare correttamente gli elettroni che passano come corrente elettrica per far muovere l’altoparlante, a cui si associa un aumento dei valori di distorsione, una possibile non corretta risposta in frequenza ecc…, oltre a questo la durata dell’impulso incide sul tempo di riverberazione percepito, per cui è bene che l’impulso non abbia un tempo più breve di quello che potrebbe essere il minimo percepibile).

Spesso si utilizza il metodo di più impulsi o brevi suoni transitori, per avere più riferimento comparativi.

Una tecnica alternativa è quella di generare segnali pseudocasuali costituiti da sequenze di massima lunghezza (MLS, che vedremo più avanti), e nella trasformazione della risposta misurata in una risposta all’impulso.

 

Tempo di Riverberazione

E’ il tempo espresso in secondi, necessario al livello di pressione sonora presente nell’ambiente, in condizioni stazionarie, per decrescere di 60 dB, e come vedremo più avanti per via del possibile rumore di fondo e della poca dinamica dell’ambiente si va calcolando per retta di regressione lineare (se tramite Ecogramma), da – 5 dB a – 35 dB, quindi un T30, se il rumore di fondo è molto elevato è anche possibile calcolarlo da – 5 dB a – 25 dB, T20.

 

Stato di Occupazione dell’Ambiente

Il tempo di riverberazione in un ambiente può essere condizionato dal numero di persone e dalle condizioni di allestimento ed arredamento. Un’accurata descrizione dello stato di occupazione e di allestimento dell’ambiente è di decisiva importanza nella valutazione dei risultati ottenuti dalle misure. Si definisce un ambiente occupato quando sono occupati tra l’80% ed il 100% dei posti disponibili.

Le misurazioni sono però effettuata a sala vuota, per via dell’impossibilità di eseguire il lavoro durante un evento, ma anche difficilmente realizzabile anche solo per una simulazione. Per questo motivo durante la simulazione di calcolo come già visto nei precedenti articoli è necessario tenere conto anche di questi fattori.

Per quanto riguarda i teatri deve essere fatta distinzione tra diverse situazioni, come sipario aperto o chiuso, fossa d’orchestra aperta o chiusa, e vanno considerate le condizioni di allestimento del palcoscenico.

 

Altro su Acustica Architettonica

Acustica Architettonica – I (Percezione Ambientale, Definizione della Dimensione, Descrizione Modale, Frequenza di Scroeder, Riverbero, Tempo di Decadimento e Risposta all’Impulso, Fluttuazione dei Modi, Teorie Pratiche).

Acustica Architettonica – II (Campo Perfettamente Diffuso, Campo Riverberante, Definizione degli Ambienti, Riflettore Rettangolare Sospeso, Diffusori di Schroeder, Regime Stazionario, Distanza Critica).

Acustica Architettonica – III (Regime Transitorio, Sabine ed il Tempo di Riverbero, Tempo di Riverberazione secondo la Teoria Classica, Tempo di Riverberazione secondo altre teorie, Assorbimento dell’Aria negli Ambienti Chiusi, Modelli Empirici per Ambienti di Grandi Dimensioni ed Irregolari, Valutazione della Qualità Acustica delle Sale per lo Spettacolo, Requisiti Acustici delle Sale per lo Spettacolo, Attributi Soggettivi della Sale Musicali).

Acustica Architettonica – IV (Generi Musicali e loro Requisiti, Tipologie di Ambienti e loro Requisiti, Prestazioni Acustiche delle Sale, Valori Ottimali per i Criteri di Valutazione, Prime Riflessioni, Parametri Soggettivi, Fattori Soggettivi).

Acustica Architettonica – V (Nitidezza, Definizione, Massa della Sala, Chiarezza, Tempo Centrale, Supporto, Funzione di Autocorrelazione, Spazialità, Frazione dell’Energia Laterale, Impressione Spaziale, Impressione della Sala, Efficienza Laterale, Funzione di Correlazione Mutua Interaurale, Indice di Intensità).

Acustica Architettonica – VI (Comfort Acustico in ambienti destinati all’ascolto della parola, Intelligibilità del Parlato, Voce Umana, Articulation Index, Speech Interference Level, Speech Intelligibility Index, Speech Transmission Index, Rapid Speech Transmission Index).

Acustica Architettonica – VII (Test a Vocabolario, ALcons, CIS, Rumore e Disturbo Soggettivo, Noise Criteria, Room Criteria, Balanced Noise Criterion, Noise Climate).

Acustica Architettonica – VIII (Modelli di Simulazione Acustica, FEM, BEM, Acustica Geometrica, Sorgenti Virtuali, Ray Tracing).

Acustica Architettonica – X (Strumentazione e Condizioni di Misura, Tecniche di Misura con Rumore Stazionario, Tecniche di Misura tramite Risposta all’Impulso, Determinazione del Tempo di Riverberazione, Misura del Rumore di Fondo, Misura di Grandezze Oggettive, Rappresentazione delle Misure e dei Risultati, Considerazioni sugli Impulsi, MLS, Dirac, Sweep, Misurazione della Risposta all’Impulso con Metodo Indiretto).

Acustica Architettonica – XI (Ecogramma, Spettrografo, Spettrogramma, Reflettogramma, Istogramma, Energy Time Curve, Retta di Regressione Lineare, Valutazioni Operative, Protocollo Operativo).

Acustica Architettonica XII (Software di Acustica Architettonica EASE, Caratteristiche e Funzionalità del Programma, Personalizzazione della Sorgente Sonora, Personalizzazione dei Materiali Acustici, Fattori di Analisi).

Acustica Architettonica XIII (EASE Analisi Approfondita, Room DATA, Calcolo del Tempo di Riverberazione).

Acustica Architettonica XIV (Aura, Auralizzazione, Rendering).

 

Acquista Attrezzature Audio dai principali Store

 

logo amazon.it

Thomann_logo1

The-new-eBay-logo

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...