You are on page 1of 16

Informatica Musicale Modulo 1

Le più grandi evoluzioni nel territorio dell’ informatica sono state esplorate e raggiunte nei primi 40 anni di
ricerca (più o meno dal 1950 agli anni ’90). Durante il corso tratteremo il passaggio da analogico a digitale, con
relative problematiche, la sintesi del suono e vari argomenti correlati.
Il primo modulo in questione si estenderà, sul libro di testo fino ai primi 2 capitoli (Pag. 345) ed affronterà i
concetti BASE che riguardano l’ ambito DIGITALE, la SINTESI del SUONO DIGITALE, il
CAMPIONAMENTO e le modalità di sintesi sviluppate negli ultimi anni.

Pietro Grossi, concertista di fama mondiale (violoncello), si avvicina al mondo dell’ elettronica e dei
CALCOLATORI, affascinato dalle potenzialità di questi ultimi, se applicati alla musica.
E' nel decennio tra il 1960 e il 70 che Pietro Grossi, interprete brillante, concertista virtuoso e di chiara fama,
con cariche prestigiose al suo attivo, si rivolse all'attività compositiva con l'impiego via via sempre più
esclusivo del mezzo elettronico e l'adesione totale e incondizionata alla produzione del suono artificiale.
L'impiego del calcolatore elettronico, da pochi anni iniziato in maniera sensibile, apriva alla pratica elettronica
musicale prospettive esorbitanti di gran lunga le pur ampie possibilità di un classico studio di fonologia. Nel
maggio del 1967 per iniziativa dello Studio di Fonologia Musicale di Firenze (S 2F M) e la collaborazione della
General Electric Information Systems Italia hanno avuto luogo le prime esperienze italiane di computer music.
Un elaboratore elettronico GE-115, programmato opportunamente, è stato usato come esecutore e sorgente
sonora contemporaneamente e sono state eseguite opere di Bach, Paganini, Webern. Nessun organo di
conversione né altro apparato elettronico è stato usato, il suono, generato direttamente dai circuiti dell'unità
centrale è stato registrato di volta in volta su nastro.
In una prima fase, anche con l'aiuto di esperti del centro Scientifico IBM, il Maestro cominciò a sperimentare
procedure di generazione di musica sia in tempo differito (IBM 1800 e S/7 provvisti di DAC) che in tempo
reale con le procedure del DCMP (Digital Computer Music Program) che forniva una sola uscita monofonica
ad onda quadra. Il grande dispendio di tempo macchina (assai costoso all'epoca) rappresentava un notevole
inconveniente a cui si poteva ovviare indirizzandosi verso un sistema ibrido. Su proposta del Maestro, alcuni
progettisti hardware dell'IEI coordinati dal prof. Franco Denoth, con l'apporto di un team di esperti del CNUCE,
avviarono l'ambizioso progetto di un originale terminale audio da interfacciare come una qualsiasi periferica al
sistema di calcolo in time sharing IBM 360/67 del CNUCE. La scelta della tecnica di sintesi ricadde sulla
sintesi additiva, una scelta coraggiosa per le difficoltà dell'implementazione, ma che offriva una timbrica
musicalmente più interessante. Un primo prototipo, il TAU1 forniva due voci a 4 armoniche e leggeva i dati di
esecuzione su un nastro di carta perforata preparato al CNUCE dai collaboratori di Grossi. Questo primo
prototipo servì a definire gli intervalli di quantizzazione ed i campi di validità dei parametri. Inoltre evidenziò la
complessità della problematica della computer music, la cui natura è ampiamente multidisciplinare, dato che
coinvolge elettronica, elaborazione dei segnali, informatica, musica, fisica del suono, psicoacustica...
Trattandosi di una applicazione in un settore emergente e in assenza di riferimenti precisi, la definizione delle
specifiche, la definizione dell'architettura e la realizzazione rappresentarono una notevole difficoltà che
comunque fu superata con la realizzazione definitiva (TAU2) in cui si disponeva di tre canali con timbriche,
dinamiche e volume dinamicamente controllabili, ciascuno con un massimo di quattro voci. Un felice
compromesso tra difficoltà realizzativa, praticità d'uso e complessità musicale. L'interfaccia con il mainframe
avveniva tramite collegamento parallelo diretto con un grosso cavo multipolare di 150 metri tra CNUCE ed IEI.
Dal punto di vista della tecnologia realizzativa il terminale non utilizzava i VCO (Voltage Controlled
Oscillators) come la maggior parte dei sintetizzatori dell'epoca per problemi di stabilità di frequenza e per
l'elevato numero di segnali simultanei da generare. Una serie di oscillatori ad onda quadra quarzati e filtrati con
filtri risonanti ha risolto il problema. Per la selezione delle frequenze furono utilizzati gli innovativi interruttori
analogici CMOS a controllo digitale. Il progetto hardware fu portato a termine nel 1975. Il TAU1 ed il TAU2
erano calcolatori IBRIDI, in parte analogici ed in parte digitali.

1
Storicamente la prime forme di registrazioni nascono nel primo quarto del secolo scorso (Edison) grazie ad un
macchinario detto FONOGRAFO, in grado di registrare meccanicamente la voce o un suono simile sulla
stagnola.
Solo successivamente si arriverà alla registrazione su di una piastra circolare in gommalacca, antenata del disco
in Vinile, letto da una puntina metallica magnetizzata.
Ovviamente vi erano molte problematiche legate alla registrazione, inizialmente si utilizzavano imbuti metallici
per convogliare il suono da registrare. Nella metà degli anni ’20 Georg Neumann inventò il primo microfono
elettrico che fu commercializzato. Si incideva su dischi o, dagli anni ’30, su FILO MAGNETICO, inventato in
Svezia ma che non ebbe grande diffusione. Proprio in quegli anni, grazie allo sviluppo tecnologico; nasce l’
INDUSTRIA DISCOGRAFICA, che ebbe un vero e proprio boom nel dopoguerra.
Il sistema di registrazione basato sul NASTRO MAGNETICO era invece nato per uso militare nel ’35-’36 ma
fu sdoganato soltanto nel ’48.

Le caratteristiche del suono ELETTRICO sono di essere ANALOGICO e CONTINUO (infinitesimi).


Analogico significa semplicemente “analogo” e si riferisce al fatto che noi percepiamo un suono analogo all’
originale, in base alle onde che battono sui nostri timpani. Il segnale che un essere umano è in grado di
percepire varia tra i 20 hz e i 20 khz.
Vi sono diverse problematiche nel passaggio da analogico a digitale, poiché esso spezza la curva del suono
analogico scegliendo solo le informazioni significative, in base al CAMPIONE da noi impostato (es. 44.1 kHz).
Per questo motivo il suono digitale non potrà mai essere fedele al 100 % ma potrà solo avvicinarsi fino ad
essere QUASI uguale (esempio geometrico: l’ approssimazione per calcolare una sfera o un cerchio).
Ovviamente il digitale ha bisogno di software e un sistema operativo per essere utilizzato. Il convertitore ADC
è un oggetto fisico, una porta dimensionale che mette in relazione il mondo analogico con quello digitale. Da
qui nasce l’ importanza della qualità del convertitore; il convertitore legge la forma d’ onda continua (segnale
analogico) e la “bucherella” in base ad un campione che utilizza come unità di misura. Il campionamento più
utilizzato è 44.100, ma soltanto per una scelta di mercato.

Es.

Segnale analogico _______________________ Continuo

Segnale digitale _______________ Discreto

2a Lezione

Quando dobbiamo passare da un segnale analogico continuo, così come lo rappresentiamo nel nostro mondo
reale secondo una rappresentazione fisico/matematica legata alla meccanica classica, ad un segnale discreto e
digitale, appartenente alla macchina, al calcolatore, al computer o elaboratore che sia, dobbiamo operare un’
azione di CONVERSIONE, la quale avviene attraverso una porta di accesso che permette al mio segnale
analogico e continuo, ovvero un segnale che lavora per “analogia”, che in qualche modo ha una
rappresentazione continua (teoria degli infinitesimi: dividendo a metà troverò sempre un valore, continuando
verso l’ infinitamente piccolo), di essere “digitalizzato”, poiché la macchina deve trasformare questi valori in
numeri che siano da lei rappresentabili (la rappresentazione numerica nel linguaggio macchina è in sistema
binario, ovvero basata su zeri e uni). Quando il segnale viene acquisito all’ interno della macchina deve passare
attraverso un’ unità che prende il nome di CONVERTITORE ANALOGICO/DIGITALE, ADC in entrata
(Analog/Digital Converter), DAC in uscita (Digital/Analog Converter). A livello generale vale questo principio:
quando il segnale viene acquisito all’ interno della macchina subisce un’ azione che chiamiamo generalmente
CAMPIONAMENTO; il campionamento è un azione che in realtà comporta due processi: quello di

2
campionamento vero e proprio (ciò che viene in qualche modo rappresentato rispetto alle coordinate presenti in
ascissa) e la QUANTIZAZIONE (sono i valori che vengono rappresentati in ordinata). Naturalmente per
rappresentare una funzione, sia matematicamente con una equazione, sia disegnandola, ha bisogno di almeno 2
coordinate per definire ogni tipo di punto; è chiaro quindi che devono avvenire contemporaneamente questi due
processi e per ogni punto che viene preso sull’ ascissa deve essere dato un valore in ordinata; i punti che
vengono presi in ascissa si riferiscono direttamente a quello che è il campionamento (la frequenza di
campionamento è la quantità di punti che vengono presi in una certa unità di tempo, che è il secondo, quindi
quando noi diciamo di avere una freq. di campionamento di 44.1 Khz o 44.100 campioni al secondo significa
fondamentalmente che vengono prese in un secondo di suono le coordinate di 44.100 punti o meglio hz che
distano fra loro 1/44100 di secondo l’ uno dall’ altro, la famosa interruzione che caratterizza il suono digitale) e
devono avere un valore riportato in ordinata; esso viene riportato dal processo di quantizzazione, che avviene in
base alla risoluzione disponibile; per risoluzione si intende la quantità di bit (unità minime di memoria) dove si
possono scrivere dei valori, sempre in codice binario, quindi se ad esempio si hanno 4 bit è possibile avere una
risoluzione di circa 24 db (moltiplicare il numero di bit per il numero dato di 6,11) e così via. I Mixer Digitali
moderni lavorano ad un minimo di 24 bit fino ad un massimo di 64 bit, permettendo delle descrizioni di
carattere dinamico davvero molto ampie ed accurate. Più è elevata la quantità di bit, più siamo in grado di
ottenere una approssimazione migliore della forma d’ onda. Noi per comodità stiamo parlando di una semplice
sinusoide, ma in generale i suoni possono essere molto più complessi ed utilizziamo la Trasformata di Fourier
per scomporre questi suoni in tanti elementi uguali tra loro (tante sinusoidi) che vengono ognuno rappresentati
con dei valori in base alla loro quantizzazione (non tutte le parziali di una fondamentale hanno la stessa
ampiezza e ciò caratterizza il TIMBRO). E’ importante capire che la differenza di ampiezza che si ha tra le
diverse parziali al momento in cui ho un timbro debba essere rappresentata fedelmente; perciò il fatto di avere
rispetto al proprio ambito frequenziale una frequenza di campionamento sufficiente a campionarmi almeno il
doppio della frequenza più alta che io vado ad acquisire, perché mi permetterà una più accurata
rappresentazione.
Quando andiamo a mettere su CD ciò che abbiamo registrato dovremo necessariamente convertirlo a 44.1 Khz,
qualunque fosse stata prima la frequenza da noi usata; ciò provocherà una immancabile perdita di qualità,
dovuta ad una diversa approssimazione, che tende a generare un seppur poco percettibile rumore di fondo. Ci
sono varie operazioni e passaggi che ci permettono di migliorare questo aspetto. La scelta di impostare la
qualità massima del CD a 44.100 è totalmente di mercato.
La forma d’ onda, nel passaggio al digitale, viene scomposta in tante sinusoidi, ciascuna col proprio inviluppo;
l’ insieme degli inviluppi costituisce l’ “Inviluppo Spettrale”: si tratta in realtà di operazioni algebriche (somme
e sottrazioni), analoghe al calcolo geometrico ed alla rappresentazione grafica di una sinusoide su di un piano
cartesiano. Ciò che caratterizza un timbro particolare sono proprio le relazioni tra i vari inviluppi e le varie
“gobbe” della forma d’ onda complessa, generata dalle varie sinusoidi semplici sovrapposte tra loro.
Una “TRASFORMATA” è qualcosa che trasforma, in questo caso che trasforma quello che c’ è nel dominio
della frequenza in qualcosa che gli corrisponde nel dominio del tempo e viceversa. E’ come osservare un
oggetto dal lato dell’ altezza e poi girarlo dal lato della lunghezza ed è la trasformata che svolge questa
operazione. E’ chiaro che “vediamo” cose diverse anche se si tratta dello stesso oggetto. La Trasformata di
Fourier prevede in realtà un’ onda infinita; fu teorizzata nel ‘700 da Fourier, che l’ aveva applicata alle onde di
calore, la rappresentazione ondulatoria di un altro fenomeno. Fu successivamente adattata, nell’ ‘800, per la
rappresentazione dell’ Onda Sonora. Fourier prevede, per la sua trasformata, un’ onda ce si propaga all’
infinito; il problema consiste che così facendo non si cambierebbe mai nota. Per questo nella realtà noi abbiamo
dovuto “ritagliare” questa situazione e usare la proprietà che ha la trasformata di avere dei valori che sono
inversamente proporzionali; la trasformata dà un rapporto di proporzionalità inversa tra la lunghezza dell’ onda
pura e la complessità dell’ onda accorciata (via via che io compatto l’ onda essa diviene sempre più complessa,
crescendo in altezza, mostrando sempre più parziali), finché non si arriva ad un impulso che è “infinitamente
breve e infinitamente complesso”. In pratica sui due piani l’ insieme dei valori che io ho deve essere
corrispondente. In realtà per poter applicare ciò dentro la macchina si utilizza la trasformata “Short Time”;
questo è un aspetto importante perché ci consente di lavorare nella pratica. La maggior parte degli editor ci

3
permettono di interagire per quanto riguarda il dominio del tempo; meno sono gli aspetti dei software
commerciali che consentono di intervenire sul dominio della frequenza. Noi ci interveniamo spesso con delle
azioni di “filtro”.
Ci sono 4 momenti fondamentali (o transitori) che sono presenti in tutti gli inviluppi: l’ Attacco, il
Decadimento, il Mantenimento ed il Rilascio del suono (ADSR – Attack, Decay, Sustain, Release).

Piccola introduzione sul midi


Un altro aspetto importante è il MIDI: quando noi ragioniamo nel campo del “mondo della musica” noi
facciamo riferimento a due gradi emisferi; uno è quello della rappresentazione dell’ audio digitale (ciò di cui
abbiamo parlato fino adesso, avviene tramite la trasformata di Fourier, è la rappresentazione di tutto il
campionamento, della quantizzazione, degli inviluppi, ecc.) che cerca di registrare tutti gli elementi che fanno
parte di un dato suono, tant’ è che io prendo quel suono, lo campiono, lo masterizzo su un cd, lo spedisco all’
altro capo del mondo dove potranno sentire e lavorare esattamente sul materiale che gli ho mandato. Il MIDI
non è questo, la sua sigla designa sia un oggetto fisico che un protocollo di comunicazione (una parte fisica ed
una parte “Software”) ed è l’ acronimo di Musical Instrument Digital Interface (interfaccia digitale per
strumenti musicali). E’ un oggetto fisico, anche se oggi non si “vede” più (prima, una delle interfacce midi
commerciali che si utilizzavano, ad esempio l’ MPU 401 della Roland, avevano le dimensioni di una scheda
audio esterna compatta, con le porte midi in, out e true e consentiva di fare una serie di collegamenti); l’
interfaccia midi “fisica” era un box che si collegava alla porta seriale del computer. Sono esistite (ed esistono,
ma in forma molto più miniaturizzata) delle interfacce midi che lavorano anche sulle porte parallele, anche se
quelle più comuni sono quelle che lavorano in seriale (la differenza tra le due porte è che la seriale manda fuori
0 e 1 ma uno dietro l’ altro, in “serie”, mentre la porta parallela manda più flussi di dati, 0 e 1 uno dietro l’ altro
ma in parallelo); Per lavorare in paralelo era necessaria un’ interfaccia midi che fosse in grado di leggere più
flussi contemporaneamente e ciò permetteva di avere più canali midi rispetto alle altre normali interfacce più
diffuse. Dentro all’ interfaccia midi è situato un processore che ha il compito di prendere questi dati nell’ ordine
seriale mandato dal computer e rimpacchettarli secondo un ordine che è quello del PROTOCOLLO MIDI,
protocollo che può avere anche delle forme di programmazione, pur non essendo propriamente un linguaggio di
programmazione ma piuttosto un insieme di regole. Il protocollo midi “impacchetta” in “parole midi” formate
da 1 byte (corrisponde a 8 bit) che si dividono sostanzialmente in 2 tipologie: quelle che cominciano con 1, che
è un comando, e quelle che cominciano con 0 che è un argomento del comando; ovvero il primo dice “note on”
(suona la nota) ed il secondo specifica il tipo di nota che deve essere suonata. All’ interno dei cavi che
collegano l’ interfaccia midi al computer in realtà cosa viaggia? NUMERI, non viaggia nessuna informazione
che riguarda direttamente il suono. Quando deve suonare una determinata nota, non viene mandata l’
informazione in hz, ma il numero che corrisponde a quella nota all’ interno del protocollo; è la macchina che
leggerà quel numero dall’ interfaccia midi e gli assegnerà la giusta altezza. Dentro il midi, a rigor di logica, non
c’ è un piffero che riguardi la musica; tramite protocollo midi potremmo svolgere qualsiasi funzione diversa,
come accendere lo scaldabagno, il forno, le luci, ecc. Posso controllare di tutto, esulando dal settore musicale,
poiché nel midi non c’ è niente che riguardi direttamente il linguaggio musicale. Semplicemente è stato pensato
apposta per gestire la musica e quindi è chiaro che ha tutta una serie di comandi che sono reimpostati a tale
scopo. Nelle discoteche per tanti anni si utilizzava il protocollo midi per azionare le luci e programmare con
esse delle sequenze sincronizzate anche con la musica.
I file midi essendo solo un’ insieme di parole midi da pochi bit pesano molto poco rispetto ai file audio, che
contengono molte più informazioni. Naturalmente il midi ha vantaggi e svantaggi, il fatto principale è che per
riprodurre in musica quei dati ha bisogno che gli venga attribuito un banco o più banchi di timbri (contenuti nel
GM, general midi presenti oggi nella scheda audio del pc o in quella esterna) che vengono letti in loop, con un
campionamento più o meno fedele a seconda della qualità del campione stesso. Altro vantaggio è quello di
poter convertire in notazione musicale (tramite lo score, che è presente nei principali sequencer come Cubase o
Logic) più o meno corretta e raffinata i nostri valori midi. E’ importante quindi capire che il midi è una serie di
informazioni che servono per il controllo di quello che sono i nostri suoni. Il protocollo midi fu creato ala fine

4
degli anni ’70, inizio anni ’80 per consentire alle macchine di colloquiare; si cominciarono ad utilizzare i primi
sintetizzatori digitali (che avevano quindi un processore dentro che faceva dei calcoli e svolgeva delle
operazioni digitali) e ci si accorse che effettivamente non si riusciva più a collegare le macchine assieme,
perché ognuno utilizzava un sistema che gli era proprio e questo creava un problema: prima, nel mondo
analogico potevo prendere il segnale audio del mio Synth e veniva controllato in voltaggio, trasformato, era
possibile fare una sintesi, potevo fare un po’ di tutto, ributtavo fuori il segnale audio con il jack e lo mandavo a
qualunque altra macchina, quindi potevo avere una certa connettività; con il mondo digitale questo diventa
estremamente problematico poiché non si sa come le macchine devono fare a connettersi. Quindi si riunirono i
più importanti costruttori, crearono un pool di ingegneri che idearono questo protocollo (il midi), protocollo che
è campato oltre 30 anni. Oggi come oggi è un sistema che inizia ad essere un po’ superato (si era parlato per
anni della possibilità di fare un “Midi 2”, quindi un midi più potente che poi non è stato sviluppato ed oggi
stiamo passando ad altre tipologie di controllo come ad esempio gli OSC, Open Sound Control, che viaggiano
su cavi ethernet ed hanno meno problemi di dispersione che ha invece il midi sulle cablature lunghe, ecc.) e sta
iniziando ad essere baipassato in tutte quelle operazioni in cui si richiede una interazione in tempo reale con la
macchina che sia molto elevata. Tuttavia il midi rimane un sistema pratico e funzionale, che viene adoprato
dalla grande maggioranza dei sequencer. Un altro aspetto importante che è stato impostato dal midi è che,
grazie ad esso e grazie alla procedura di poter connettere macchine diverse e di diversi costruttori, ha consentito
di rendere semplice la separazione della sorgente mittente dall’ emissione (ovvero la possibilità di utilizzare
timbriche di strumenti che non necessariamente abbiamo suonato o sappiamo suonare).

Tornando al mondo del campionamento

Il motivo per cui è importante utilizzare la legge del campionamento, ovvero utilizzare una frequenza almeno
doppia rispetto a quella massima che siamo in grado di percepire, è che ciò mi consente di avere una
rappresentazione corretta della forma d’ onda; se io ho una frequenza di campionamento più bassa rispetto al
doppio della frequenza che vado a campionare, non avrò sufficienti punti per rappresentarla correttamente. Ciò
provoca una forma d’ onda spuria, che è un’ altra sinusoide che è molto più grave e che non fa parte di quel
suono, perché è la frequenza di campionamento che è insufficiente a campionarla e di conseguenza la
rappresenta male. I punti vengono collegati dalla macchina che in questo caso non ne avrà abbastanza per
ricostruire un’ onda sufficientemente simile a quella del suono originale; quando il DAC riprodurrà il suono,
esso sarà completamente diverso e snaturato. Oggi abbiamo frequenze di campionamento talmente alte che i
filtri antialiasing ci sono ma in realtà non vengono praticamente utilizzati, ma un tempo si aveva una frequenza
di campionamento che non era sufficiente ad essere il doppio di quella che volevo campionare e si doveva usare
un filtro passa-basso (permette solo il passaggio di frequenze al di sotto di una data frequenza detta "frequenza
di taglio") la cui soglia era impostata sulla metà della mia capacità di campionamento di allora (se potevo
campionare ad un massimo di 22.050 potevo rappresentare i suoni correttamente fino a 11.050 e di conseguenza
quella era la soglia del filtro passa-basso; passavano tutti i suoni da 20 hz a 11.050 hz e tutto il resto veniva
tolto) in modo che la mia frequenza di campionamento fosse sufficiente a campionarmi correttamente il suono.
Queste frequenze venivano raggiunte in uscita in modo che il suono non risultasse troppo “crudo”, tagliato. Il
fenomeno dell’ aliasing o foldover si manifesta proprio nel caso in cui non si abbia una frequenza di
campionamento adeguata. Naturalmente va ricordato che un suono non è costituito soltanto dalla sua
fondamentale, ma è formato dalle varie parziali che possono essere anche molto acute in frequenza; per cui oggi
come oggi, quando arriviamo ad una rappresentazione che arriva fino a 44.100 hz, superiamo abbondantemente
le frequenze che riusciamo a percepire per cui non abbiamo grandi problemi in tal senso.
Durante l’ acquisizione vengono apportate delle “correzioni di fase”; le correzioni di fase sono un procedimento
che lavora nel dominio del tempo e cerca di correggere certe “distorsioni di fase” che si possono creare nell’
acquisizione di suoni in maniera abbastanza complessa. Noi non siamo molto sensibili a quella che è la
distorsione di fase, ma questo procedimento serve a rendere più nitido e chiaro il suono, eliminando quel senso
di rimbombo che può venire a generarsi. Oggi come oggi, come già detto, queste operazioni sono quasi sempre

5
superflue, ma non di meno questi filtri esistono perché in certi ambiti e contesti ci può capitare di doverli
comunque utilizzare.
Per la quantizzazione l’ aspetto importante da verificare è quello del cosiddetto “errore di quantizzazione”; l’
errore di quantizzazione è l’ approssimazione che la macchina deve necessariamente fare, in quanto
appartenendo al mondo discreto e digitale non può rappresentare esattamente le forme d’ onda ma può
ricostruirle tramite l’ unione dei punti a disposizione (i campioni). Ciò significa che c’ è SEMPRE un piccolo
margine di errore. Questo errore è un’ onda non periodica, ma casuale e di conseguenza genera un rumore che,
pur essendo a bassissima intensità, va a modificare il risultato finale. Naturalmente questo rumore di
quantizzazione è una soglia di rumore veramente molto bassa, molto spesso al di sotto del nostro limite di
udibilità, ma è pur vero che queste onde casuali che si generano, dentro alla macchina corrispondono a numeri,
a funzioni, che entrano in gioco quando si svolgono delle elaborazioni, poiché la macchina le calcola assieme
agli altri dati; per questo motivo si deve cercare di diminuire l’ errore di quantizzazione. Il primo sistema è
quello di aumentare il più possibile la frequenza di campionamento, miglioro la mia risoluzione e in qualche
maniera ho una rappresentazione molto fedele e diminuisco di conseguenza il rumore dovuto all’ errore.
Quando per qualche motivo mi trovo a lavorare con campioni a risoluzioni più basse, o li devo retroconvertire
per qualche ragione pratica, questi passaggi creano delle approssimazioni ed è necessario utilizzare dei processi
di dithering che, per compensare il rumore che si viene a creare, immettono una soglia molto bassa di “rumore
bianco” (sotto gli 80 – 90 db); la somma di questi valori assieme agli altri dati presenti nel suono digitale
(stiamo parlando dei soliti 0 e 1 con cui la macchina svolge le sue operazioni) annulla molti di quei valori
corrispondenti al rumore di quantizzazione (contro-fase che annulla il rumore).

La linearità dei convertitori consiste nel grado al quale l’ input analogico e digitale e il segnale di output si
corrispondono in termini di magnitudo (corrispondenza di ampiezza reale); i convertitori, per forza di cose,
lavorano come potenze di 2 (2n. a seconda di quella che è la quantità di bit che io ho a disposizione). Ad
esempio possiamo avere un convertitore a 16 bit che è lineare; poi abbiamo un convertitore a 18 bit, che non è
una potenza di 2, quindi abbiamo in realtà un 16 + 2. Quindi potremmo avere una conversione a 18 bit di cui 16
sono lineari (le cifre che posso scrivere fino alla 16esima posizione sono rappresentate in maniera graduale e
corretta), i restanti 2 distorcono un po’ nella rappresentazione, però è sempre migliore di una rappresentazione a
16 bit lineare perché con 2 cifre in più posso rappresentare cifre più grandi.

Il range dinamico di un sistema audio digitale: quando noi parliamo di decibel (simbolo dB) parliamo di un’
unità di misura (0 dB corrisponde a 10 -12 watt per metro quadrato); queste misure si riferiscono al metro
quadrato perché la diffusione dell’ onda di energia che risulterà poi come intensità del suono ha una diffusione
che è inversamente proporzionale al quadrato della stanza. Se io ho un teorico ed ipotetico punto di emissione l’
energia si propaga con forma sferica (come sappiamo è un poliedro ad infinite facce), quindi approssimando io
avrò l’ energia che si distribuisce sulle facce della mia sfera (quadrate) con un fenomeno di rarefazione (poiché
la quantità di energia rimane invariata ma la superficie di distribuzione aumenta). Naturalmente queste sono
astrazioni che prescindono da ciò che avviene realmente nella realtà, ma ci servono per comprendere come si
comporta nella sua generalità il suono.
I dB segnati sui mixer possono andare anche molto sotto lo 0, che in questo caso si riferisce alla reale intensità
del segnale come arriva in entrata al mixer (il suo reale volume).

Il svracampionamento è un tipo di processo che noi distinguiamo in due tipi differenti: il svracampionamento
a bit multiplo, che avviene nei convertitori DAC (digitale-analogico come direzione) e il svracampionamento
che viene effettuato ad 1 bit per volta. Molte volte ci sono convertitori che mischiano le due tipologie di
approccio. Questo processo aumenta il numero di punti tra un’ interpolazione, migliorando la precisione con la
quale viene ricostruita l’ onda e, di conseguenza, avvicinandosi maggiormente al segnale reale. Nel caso del
svracampionamento ad 1 singolo bit la frequenza di campionamento deve essere molto più grande, perché
qualitativamente sia paragonabile all’ altro metodo.

6
I Media Audio Digitali: sono i diversi supporti che il mondo dell’ audio digitale ha a disposizione, divisi in
varie tipologie, come ad esempio ingresso seriale piuttosto che casuale. Il primo supporto è il nastro magnetico
che venga registrato però con una testina stazionaria, poi i videotape con testine rotanti, il DAT (Digital Audio
Tape), le cassette compatte, il disco rigido (inizialmente magnetico, poi ottico), i Floppy, il Mini-Disk (formato
compresso), il Compact Disk, il DVD, ecc.

Specchietto sulla compressione: si deve distinguere tra compressione non distruttiva (es. file.zip o file.rar) e
compressione distruttiva (es. Mp3), dove abbiamo un’ effettiva perdita di dati e di conseguenza la inevitabile
degenerazione del file originale.

Quelle spiegate fino ad ora sono le nozioni fondamentali dell’ audio digitale e ricorreranno più o meno sempre
in tutti gli argomenti e in tutte le operazioni che andremo ad affrontare, siano di carattere teorico o pratico. Le
soluzioni teoriche a monte non variano più di tanto nelle problematiche tra audio analogico ed audio digitale,
solo che poter svolgere certe operazioni con sistemi di numeri come in digitale è molto più semplice ed
immediato, senza bisogno di costruire un oggetto fisico.

La programmazione: Il computer (inteso come macchina digitale complessa in senso ampio) ci permette , se
opportunamente programmato o dotato dei programmi giusti, di svolgere comodamente e rapidamente una
vasta serie di operazioni legate all’ audio, poiché il computer è una macchina che esegue dei calcoli,
immagazzina dati e ha la capacità di elaborare gli stessi. I dati sono scritti e gestiti in maniera uniforme
(uniformità data dal sistema operativo che uniforma tutte le applicazioni che stanno sotto tale sistema), si ha
una sorta di omogeneità abbastanza importante all’ interno dei dati che ci consente di lavorare. La problematica
che sorse con la nascita del computer fu principalmente su come “dialogare” e interagire con la macchina
stessa; per questo motivo sono stati nel tempo creati vari OS più o meno simili tra loro, bastati su un sistema a
finestre, a menù a tendina e ad icone, che permettono di svolgere ed utilizzare facilmente le capacità e le
funzioni presenti nella macchina. Il limite di un sistema così reimpostato è che tutto ciò che non è stato
progettato all’ interno del sistema operativo non possiamo utilizzarlo, anche se la macchina ne avrebbe la
capacità effettiva. Per questo si parla di sistemi chiusi che, per l’ utente medio, sono più che sufficienti. Per un
professionista può esserci la necessità di avere maggior libertà, per poter piegare totalmente la macchina al
proprio servizio. Per fare ciò si utilizzano altri sistemi, che richiedono uno sforzo di programmazione ma
risulteranno più versatili e liberi dai vincoli di un sistema operativo già impostato. Si deve “istruire” la
macchina con una serie di configurazioni che non erano inizialmente previste per far si che essa svolga
determinati compiti da noi assegnati. Per fare ciò si devono utilizzare dei LINGUAGGI DI
PROGRAMMAZIONE (secondo capitolo).
Il “programmare” implica di risolvere dei problemi; si sezionano problemi complessi in tanti piccoli passaggi
(es. far sollevare ad un braccio meccanico un oggetto: ci sono vari comandi semplici da far eseguire al robot,
come “vedi l’ oggetto”, “muovi il braccio utilizzando le coordinate dell’ oggetto”, “afferra l’ oggetto”,
“sollevalo”, ecc. tutti assieme risolvono il problema complesso) per poter svolgere una determinata operazione.
La programmazione permette di smontare problemi complessi in parti semplici ed è proprio grazie a questo
concetto che si è in grado di programmare con successo le macchine. Esistono molteplici linguaggi di
programmazioni, ma sono alla base tutti impostati su questo sistema di semplificazione del problema tramite
steps. I linguaggi di programmazione si dividono essenzialmente in 2 famiglie: quelli che adottano una
programmazione di tipo sequenziale e quelli che utilizzano invece un calcolo parallelo. Questo implica anche la
capacità hardware della macchina. La programmazione parallela è molto più veloce e potente di quella
sequenziale che, comunque, offre già un’ incredibile capacità di calcolo. Il linguaggio-macchina è quello
binario e per fargli comprendere il linguaggio di un programma (ad esempio il C) è necessario una sorta
“traduttore” che è il compilatore che agisce traducendo le azioni del nostro programma in linguaggio-macchina.
Il compilatore lavora in blocchi ed è capace di trovare eventuali errori e segnalarli o addirittura suggerire ipotesi
di correzioni. E’ importante disegnare un diagramma di flusso, per chiarire a monte le operazioni ed i passaggi
che si andranno a svolgere con il programma (funzione esclusivamente rappresentativa); la struttura del flusso è

7
sviluppata in maniera CONDIZIONALE perché per arrivare al risultato finale devo soddisfare tutte le
condizioni che sono poste all’ interno del diagramma. Quando parliamo di procedure (che possono avere vari
nomi, a seconda dei vari metodi di programmazione) ci riferiamo a vari livelli di routine, che si occupano delle
varie operazioni. La main routine o routine principale si occupa del grosso del lavoro, smistando alle varie sub-
routine i diversi compiti per cui sono istruite. I risultati delle varie operazioni sono poi rinviati alla routine
principale. All’ interno di una routine ci possono essere vari argomenti (una funzione matematica ad esempio, o
qualsiasi altro oggetto utile allo sviluppo di un determinato processo). Un altro aspetto importante sono le
procedure di assegnazione alle variabili; esse permettono di ottimizzare un processo (ad esempio un’
operazione matematica) poiché invece di riscrivere ogni volta che cambio il moltiplicatore la stringa degli
oggetti che voglio ad esempio moltiplicare, fanno in modo che a cambiare sia solo la variabile (appunto il
numero per cui voglio moltiplicare i miei dati costanti). Questo metodo di ottimizzazione è tipicamente
matematico e non a caso matematica ed informatica sono strettamente legate tra loro.
Dentro ai programmi vi sono delle strutture chiamate strutture di controllo che nella loro generalità
rispondono sostanzialmente a 2 famiglie: strutture di controllo di alternanza e strutture di controllo di
ripetizione. Le prime, che si realizzano attraverso istruzioni esistenti in tutti i programmi (talvolta con diciture
leggermente diverse), derivano da quella che è la logica matematica in generale (se QUESTO, allora QUESTO;
IF…THEN) che rappresenta appunto una struttura di alternanza, poiché alterna le possibilità del programma,
che contribuisce ad una strutturazione che consente di ramificare una serie di operazioni che è vastissima e che
cresce in maniera esponenziale.L’ altra struttura è quella della ripetizione e significa che se si ha un blocco di
programma che svolge un determinato tipo di operazione è possibile ripeterla più volte anche a steps diversi a
seconda delle necessità.
Queste due tipologie di struttura costituiscono il processo di nidificazione, che permette di risparmiare tempo
utilizzando dei rimandi a determinate operazioni. Il livello di nidificazione è molto importante perché fa si che
un programma giri meglio, più velocemente; naturalmente per ottenere un efficace processo di nidificazione è
necessario aver chiaro molto bene il diagramma di flusso altrimenti rischio di perdere il dato in una determinata
situazione e non riesco più a ritrovarlo (il programma si pianta e non “gira” Più).
Un altro aspetto molto importante è quello delle strutturazioni dei dati; in testa ai programmi in genere ci sono
le headers (testate) ovvero la dichiarazione della tipologia dei dati che saranno trattati dal programma. I dati
possono essere espressi in tanti modi, direttamente in linguaggio binario, piuttosto che alfanumerico,
esadecimale, ecc. C’ è una determinata grammatica che si deve rispettare per dire al programma determinate
cose, ma esso ha nella dichiarazione, tutte le informazioni relative alle cose che andrà a trattare.
I dati vengono “stoccati” in maniera permanente o temporanea in determinate zone all’ interno del programma
che sono dette Array (posizioni di memoria dove vengono memorizzati dati come valori numerici o altro) che
possono essere di carattere vettoriale (ad un unico senso, formato da quadratini in fila), carattere matriciale (di
forma quadrata, costituito a sua volta da tanti quadratini). La matrice è ovviamente più complessa poiché mi
darà più valori; può essere cubica (3 valori) ma anche pluridimensionale, con un grandissimo numero di valori
finali in uscita. La differenza tra Array e Record è che nel primo abbiamo dati omogenei (riguardanti la stessa
cosa) mentre nel secondo troviamo dati anche differenti tra loro. Il Record e equivale al nostro File. Per trovare
questi dati (sia che ci si muova dentro un array, sia dentro un record che è un elemento più ampio) è necessario
un puntatore; i puntatori sono degli elementi che indicano queste diverse posizioni e mi dicono che la
posizione che sto cercando è quella. Se non ci fossero i puntatori i programmi non girerebbero e noi non
troveremmo più niente all’ interno della nostra macchina.

3a Lezione

La Sintesi del Suono: è qualcosa che ha sempre affascinato l’ uomo da quando ha cominciato a disporre delle
varie tecnologie; c’ è stato un passaggio abbastanza importante e significativo dall’ analogico al digitale. L’
idea di creare un suono dal nulla ha interessato l’ uomo dalla scoperta dell’ elettricità. I maggiori finanziamenti
in questo campo di ricerca furono inizialmente concessi dalle nascenti compagnie telefoniche come la Bell

8
Telephone americana (uno dei ricercatori più illustri è Max Mathews) che negli anni ’50 investì molti soldi
nella ricerca. Era fondamentale all’ interno di quei laboratori il lavoro di fisici, matematici ma anche musicisti,
essendo i maggiori conoscitori del suono da certi punti di vista. Prendendo spunto dal mondo analogico si cercò
di ricreare “virtualmente” degli oscillatori, che permettessero tramite calcoli matematici di generare un segnale
convertibile in analogico in uscita. E’ importante creare un sistema di linguaggi che rendano facilmente
utilizzabile questi apparecchi dal musicista. Tutti questi elementi fanno parte delle tecnologie elettriche e
digitali (dette “nuove tecnologie” anche se oramai ci si basa su sistemi ben definiti e testati da 50 anni a questa
parte). Per rappresentare la forma d’ onda del segnale si ha bisogno di una serie di punti sull’ asse dell’ ascissa e
sull’ asse dell’ ordinata (proprio come la rappresentazione di un’ equazione su un diagramma cartesiano). Il
problema non era tanto rappresentare la frequenza del segnale, ma rappresentare il ciclo: una volta
rappresentato un ciclo posso dire alla macchina di leggerlo un tot n. di volte al secondo. Bisognava quindi
costruire un oggetto che dal mondo digitale convertisse il segnale in analogico e continuo. Tramite il
convertitore digitale analogico si uniscono i punti che rappresentano il segnale ed ecco che otterremo un
segnale continuo, comprensibile dalla nostra percezione. Fourier aveva teorizzato la sua Trasformata in ambito
delle onde di calore, ma successivamente si intuisce che è possibile applicare questo procedimento anche alle
onde sonore. Secondo Fourier ogni onda complessa è semplificabile in un tot numero di onde semplici dette
sinusoidi che sono sovrapposte fra loro e generano il segnale complesso; un suono complesso è formato da
tanti elementi che sono simili fra loro. La trasformata parla di un’ onda infinita, ma ciò è un problema, perché
in musica non si potrebbe cambiare frequenza. Viene escogitata un’ operazione di compensazione dal punto di
vista matematico: si restringe l’ onda compensando in altezza tendendo all’ infinito (comunque il range uditivo
è tra i 20 e 20.000 Hz e questa semplificazione non crea un problema). Tutto il mondo dei suoni analogici non è
statico, ogni suono ha una propria evoluzione che deve essere resa anche nella creazione digitale per renderlo
“interessante” e musicale; il segnale che inizialmente si viene a creare in ambito totalmente digitale soffriva di
questo problema. Fondamentale è in questo caso la possibilità di creare un determinato inviluppo che è il
comportamento di un suono nel tempo da un punta di vista dinamico (dell’ ampiezza). L’ inviluppo di ogni
suono è composto da 4 fasi fondamentali: Attacco, Decadimento, Sostegno, Rilascio (in inglese: Attack, Decay,
Sustain, Realase; sigla: ADSR) ; questi transitori sono importantissimi perché determinano il “sapore” di un
timbro (ad esempio dall’ attacco è possibile riconoscere un timbro di pianoforte da uno di tromba ecc.).
Per fare ciò si crea un altro oscillatore, che sta a monte del primo oscillatore, che rappresenta l’ inviluppo che
avrà una sua durata specifica a seconda dei parametri dati; avrà un picco d’ ampiezza che raggiungerà secondo
una tabella i cui parametri rappresentano i valori delle varie fasi di inviluppo. I dati vengono poi mandati all’
oscillatore principale che eseguirà una sinusoide (o altra onda) ma con dei valori di inviluppo ben precisi. In
questo modo il timbro comincia già ad avere una certa vitalità che lo rende più interessante rispetto al segnale
fisso e continuo di partenza. Due elementi semplici messi insieme creano già un oggetto più complesso.
Successivamente è stato possibile utilizzare dei generatori di inviluppo costituiti da una serie di tabelle e
dedicati a questo scopo, ma non è stato altro che un raffinare ciò che era stato fatto prima, utilizzando lo stesso
concetto di fondo. Era fondamentale creare un’ interfaccia che potesse mettere a proprio agio un musicista con
questi parametri, quindi in qualche modo semplificare e rendere accessibili i procedimenti fino ad allora di
carattere sperimentale e di ricerca. Max Mathews comincia a porsi il problema di creare un ambiente di
programmazione che sia facilmente gestibile e comprensibile anche da un individuo che ha una mentalità
formata nel mondo musicale. Trova una soluzione che usiamo ancora oggi; comincia a creare verso la fine degli
anni ’50 un linguaggio, sviluppato e perfezionato in diverse versioni, chiamato “Music”, che è a tutti gli effetti
l’ antenato di C-Sound e di tutti i programmi analoghi che utilizziamo oggi. C-Sound nasce negli anni ’80
quando cominciano a commercializzarsi i Personal Computer ed è un programma Open Source scaricabile
gratuitamente ed aggiornato costantemente da una nutrita comunità di utenti. Il programma è impostato in due
sezioni principali che a seconda delle versioni possono essere unite o divise in pagine diverse, denominate Orc
(Orchestra, dove si programmeranno gli strumenti e le loro caratteristiche) e Sco (Spartito, pagina organizzata
in tabelle dove saranno segnate parti che i vari strumenti dovranno svolgere, tramite una serie di parametri che
comprendono sia la durata, sia la dinamica, la spazializzazione, sia la frequenza e qualsiasi altro parametro che
possa riguardare l’ esecuzione). Se il programma è impostato correttamente in entrambe le sezioni il

9
compilatore del programma leggerà le due parti e sarà possibile ascoltare l’ esecuzione del brano. Nell’
Orchestra è presente una testata dove sono dichiarati certi parametri fondamentali come la frequenza di
campionamento, il tasso di controllo, il numero di canali in uscita, ecc. Questo programma ha un potenziale
vastissimo, poiché offre una libertà pressoché illimitata sia come quantità di strumenti, sia come caratteristiche
degli stessi. Per avere un sintetizzatore reale, fisico capace di ciò si andrebbe incontro a spese esorbitanti e
certamente svantaggiose per l’ utente medio. I parametri sono impostati tramite determinate regole decise a
monte da chi ha programmato C-Sound ed una volta imparato il linguaggio è possibile con relativa facilità
utilizzare questo potente strumento.
A questo punto la sintesi si imposta su un bivio, con una problematica piuttosto importante che nasce in quegli
anni (anni ’50). E’ una problematica che nasce subito, assieme alla ricerca, ma inizialmente è molto difficile da
risolvere; dopodiché si comincia a sviluppare progressivamente una soluzione a questo problema, fino ad
arrivare in tempi più recenti a risultati soddisfacenti. Il problema era che la sintesi era possibile soltanto in
tempo differito, senza avere inizialmente la possibilità di eseguirla in tempo reale (insufficienza di prestazioni
delle macchine). Naturalmente il problema era particolarmente sentito e già allora ci si chiedeva come poter
aggirare il problema ed ottenere una sintesi in tempo reale. Verso la fine degli anni ’60 furono progettate e
costruite delle macchine “ibride”; si creò una parte digitale che eseguiva il calcolo ed una parte analogica che
produceva il suono. I sistemi TAU1 e TAU2 (macchine di costruzione italiana) sono tra i più significativi in tal
senso e sono praticamente i primi due calcolatori dedicati esclusivamente alla produzione del suono. Per
riuscire a produrre una sintesi che fosse continua si fece in modo che la parte analogica fosse leggermente più
lenta rispetto al calcolatore digitale, in modo che mentre la prima riproduceva il primo pacchetto dati, la
seconda calcolasse già il successivo e così via, ottenendo di fatto un segnale audio senza interruzioni di sorta.
Era inoltre stata implementata una polifonia di ben 12 voci, che permetteva all’ epoca una grande varietà di
esecuzione. Facciamo una piccola comparazione tra tempo reale e tempo differito: noi ad oggi nella stragrande
maggioranza dei casi lavoriamo in tempo differito, poiché anche le esigenze di mercato sono legate più al
tempo differito. La maggioranza degli utenti di questo settore svolgono azioni che difficilmente hanno bisogno
di essere eseguite in tempo reale, anche perché da questo punto di vista, le capacità analogiche erano molto
superiori, e solo di recente si è arrivati ad una parità fra i due mondi.

4a Lezione
Il Campionamento: rappresenta l’ acquisizione di una serie di suoni emessi da una fonte esterna alla
macchina; questi suoni vengono digitalizzati e devono essere rappresentati all’ interno della macchina. E’
possibile implementare i suoni, una volta campionati, per eseguire una sintesi additiva più complessa, rispetto a
quella basata su forme d’ onda semplici. Si può affermare che il padre del campionamento come lo conosciamo
oggi sia Pierre Schaeffer (1910-1995). All’ epoca l’ acquisizione del suono avveniva già per via
elettromeccanica (con ausilio di microfoni) ma si doveva poi rimontare i campioni fisicamente, mixando su altri
supporti i vari campioni. Pochi anni dopo venne fuori come alternativa il nastro magnetico, che permetteva un
montaggio molto più rapido, basto sul “taglia ed incolla”. Il famoso Mellotron, famoso perché usato dalle
principali band di rock sinfonico e progressivo, si basava proprio sulla tecnica del campionamento; ogni tasto
azionava un nastro con un loop costruito sulla fase di sustain del suono che permetteva di riprodurre ad esempio
una timbrica di archi. Questa timbrica pur non essendo realistica finì per diventare un sound ben preciso e
ricercato anche oggi, come particolare coloritura timbrica. Con l’ avvento del digitale lo stesso concetto è
implementato nei sequencer midi, come Cubase o Logic Audio, naturalmente con una immediatezza ed una
facilità di utilizzo molto conveniente; a seconda della qualità di campionamento i vari pacchetti possono
arrivare a pesare svariati gigabyte di memoria. Legati al campionamento vi sono vari procedimenti: il
Resampling (permette di intonare il campione, tramite la velocità di lettura del campione originale); il Looping
(permette di riprodurre un determinato segmento del nostro suono per un determinato periodo di tempo).

10
Sintesi Additiva: basandoci su ciò che aveva teorizzato Fourier sappiamo che qualsiasi segnale periodico può
essere rappresentato come la somma di semplici sinusoidi. Dato questo principio la sintesi additiva procede
esattamente all’ inverso, ovvero ottenere un segnale complesso sommando segnali sinusoidali semplici, ognuno
dotato di un proprio inviluppo d’ ampiezza. Un esempio di sintesi additiva può essere considerata la Sintesi per
Multiple Wavetable. Solitamente è più efficace per i suoni ad altezza determinata, che possono essere ricreati
con un limitato numero di parziali ed armoniche maggiormente evidenti, mentre è poco indicata per la sintesi di
suoni percussivi o rumori, poiché troppo complessi e richiederebbero in questo caso uno sforzo di calcolo
elevatissimo. L’ antenato della sintesi in un certo senso è l’ organo, che si basava, per plasmare le varie
timbriche sulla miscelazione di più parziali, in diverse quantità. L’ orchestra stessa è un grande strumento di
sintesi, in senso lato. Il Telharmonium ha una grande importanza storica poiché è il primo vero strumento
elettrico che operava la sintesi additiva (tramite sinusoidi impure); era una macchina laboriosa ed estremamente
ingombrante, ma dai primi progetti si arriverà successivamente agli organi elettrici come l’ Hammond (siamo
negli anni ’30 quando viene creato il primo organo della Hammond); questo strumento, nelle sue versioni
successive ebbe un grande successo ed una notevolissima commercializzazione, anche grazie a delle dimensioni
relativamente ridotte. Negli anni ’70 viene creato il primo vero sintetizzatore elettrico, ad opera di Robert Moog
(per molti anni il nome “Moog” sarà sinonimo di “Sintetizzatore”).

Sintesi di Walsh: la sintesi per funzioni di Walsh è un particolare tipo di sintesi additiva che si adatta
particolarmente ai sistemi di calcolo digitali; in pratica, a differenza della trasformata di Fourier, l’ onda più
semplice da cui si parte non è una sinusoide, ma un’ onda quadra, che genera di per se una timbrica più
complessa e musicalmente più interessante. E’ possibile ottenere dei buoni risultati, tuttavia è più difficile
eliminare eventuali risonanze indesiderate in sede di filtraggio.

Specchietto definizione di Filtro: in ambito digitale tutti i filtri sono equazioni differenziali; è da considerarsi
filtro tutto ciò a cui si dà un input e che restituisce un output. Il 90 % delle azioni che si svolgono in digitale
sono determinate dai filtri.

Analisi e Risintesi: in questo processo di sintesi vi sono tre fasi principali, ovvero: 1. la creazione di un file
contenente i dati ricavati dall’ analisi di un segnale preesistente; 2. modifica del file ricavato dall’ analisi (le
modifiche possono riguardare più o meno tutti gli aspetti ed i parametri che interessano il segnale); 3. l’
operazione di risintesi a partire dal file d’ analisi modificato.

Phase Vocoder: rientra anche esso tra i metodi che riguardano l’ analisi e risintesi (è un tipo di sintesi
sottrattiva), e che permettono poi le operazioni di sintesi sottrattiva o additiva a seconda di ciò che si vuole
creare; questa e le altre tecniche analoghe si appoggiano di base a quella che è l’ analisi di Fourier, per
permettere di velocizzare i processi (esattamente si fa uso della Short Time Fourier Transform – STFT, ovvero
si comprime un’ onda altrimenti infinita, ottenendo un incremento di complessità per quanto riguarda le
parziali). Da un punto di vista generale questo metodo può essere visto come il processo di una serie di filtri che
leggono un piccolo segmento di suono prelevato dal segnale. Il Phase Vocoder è ancora più sofisticato; è un
banco di filtri (quando si utilizza un banco di filtri si agisce facendo passare attraverso di essi un suono; il
suono subisce degli effetti che vengono generati dal/dai filtro/i che hanno valenza tanto nel dominio della
frequenza quanto nel dominio del tempo; i filtri più comuni, come quelli presenti negli equalizzatori
parametrici, fanno sentire il risultato nel dominio della frequenza, ma essi agiscono anche nell’ altro dominio)
costituito da una serie di slot (più potente è, più slot disponibili avrà) di ingresso dove possono entrare i diversi
suoni alle diverse frequenze che vengono lette nel dominio della frequenza e, contemporaneamente il loro
sviluppo nel dominio del tempo. Il PV è in grado di leggere le frequenze delle varie parziali, la loro ampiezza e
lo sviluppo di tale ampiezza nel tempo; quindi ottiene una rappresentazione completa del suono, con una
precisione molto elevata. I dati ottenuti possono essere utilizzati per tutti i processi di sintesi. Con “vocoder di
fase” si intende che esso è capace di leggere le FASI delle varie parziali (i primi vocoder furono creati negli
anni ’60 sempre all’ interno dei laboratori della Bell Telephone, interessata a capire come si potesse

11
codificare la voce per semplificarne i dati conservando però la riconoscibilità del segnale quando si doveva
passare all’ interno di un cavo che doveva portare l’ informazione molto lontano) e la relativa posizione di
esse; con un PV si possono fare una serie di operazioni molto semplicemente, come il morphing tra oggetti, lo
stretching di carattere temporale, la compressione e tutta una serie di cambiamenti e modifiche. Naturalmente
comportano un costo computazionale notevole sia in analisi che in risintesi e si devono immagazzinare un
numero considerevole di dati. Oggi è possibile utilizzare il Phase Vocoder in tempo reale, ma con grosse
difficoltà della macchina (problemi di latenza). Per ovviare in parte a questa problematica sono stati creati degli
algoritmi che apportano delle riduzioni di dati (es. l’ andamento degli inviluppi viene approssimato linearmente,
attraverso dei segmenti) che alleggeriscono il carico di lavoro della macchina. Un altro metodo di riduzione sta
nel selezionare le componenti principali, eliminando tutti i dati ritenuti superflui dai calcoli. Entrambe le
tecniche sono state usate abbondantemente nel campo della telefonia (vi è una perdita di qualità ma il suono è
sufficientemente chiaro da permettere di riconoscere una voce da un’ altra).

5a Lezione (continua…)
Sintesi “Multiple Wavetable”: questo tipo di sintesi si riferisce a due diverse tecniche basate sullo stesso
principio. Nel Crossfading si hanno più tabelle parzialmente sovrapposte (contenenti diverse forme d’ onda)
che vengono lette in sequenza dalla macchina; ogni tabella inizia e finisce in dissolvenza garantendo una
fusione timbrica; il risultato è un suono che si evolve dinamicamente nel tempo, non solo in ampiezza, ma
soprattutto nel timbro. Nel Wavestacking invece ogni suono è prodotto dalla lettura simultanea di più tabelle,
ognuna delle quali può contenere la forma d’ onda di un segnale complesso; questa ultima tecnica può quindi
essere considerata una forma di sintesi additiva. Se da una parte con le tecniche di sintesi per tabelle multiple si
velocizza e si semplifica molti aspetti della sintesi, si perde gran parte della libertà di controllo sulle singole
parziali che costituiscono il suono (implementazione commerciale per il musicista medio, che difficilmente è
interessato alle grandi complessità della sintesi, ma necessita di timbri preconfezionati magari da personalizzare
leggermente, su uno strumento semplice da usare anche dal vivo).

Sintesi “Wave Terrain”: sempre tramite il table look-up è possibile scansionare una superficie e non sarà più
una lettura di una tabella, ma di un oggetto 3D. La forma d’ onda che viene memorizzata in questo tipo di
tabella è una funzione di due variabili, perciò questa tecnica viene anche chiamata “sintesi attraverso funzioni
di 2 variabili”. Quando scanneriziamo una superficie tridimensionale eseguiamo un’ “orbita” (non nel senso
chiuso del termine, ma in senso lato, può essere un percorso aperto e non regolare). Applicata alla musica
questa sintesi permette di utilizzare i più disparati terreni e superfici per ricavare degli spettri sonori
interessanti, tramite l’ interpretazione matematica del terrain stesso. La sintesi in wave terrain un sistema che
non è mai stato implementato in prodotti commerciali, ma a livello sperimentazione timbrica è una tecnica che
può dare grandi soddisfazioni.

Sintesi Granulare: ha avuto un grande sviluppo, poiché negli anni ’90 sono usciti sul mercato una serie di
strumenti e software che implementavano questo tipo di sintesi; rientra nei processi di sintesi additiva, ma con
un approccio molto particolare. Souver (1600) è il primo a parlare di armonici (da non confondere con le
proporzioni armoniche) in relazione al timbro; intuì che esso era dato proprio dall’ insieme della fondamentale
e delle parziali, ed a seconda dei rapporti fra esse si ottengono timbriche diverse. Ogni armonico ha una propria
ampiezza ed un numero diverso ed è a seconda della combinazione fra questi elementi che possiamo distinguere
i vari timbri degli strumenti. La sintesi granulare si basa su un diverso approccio al suono, e al modo di
rappresentarlo; se normalmente siamo abituati a pensare al suono in termini ondulatori nella sintesi granulare
esso è presentato come una serie di corpuscoli, detti grani. La somma di frammenti microscopici viene
percepita come un suono continuo, analogamente a ciò che avviene in pittura con la corrente del Puntinismo. A
differenza della sintesi additiva classica, basata sulle forme d’ onda, si ha meno controllo, poiché non si
possono gestire i singoli grani (che non sono neanche udibili singolarmente) ma si possono scegliere
determinate percentuali per un dato numero di grani, che riguardano inviluppo, frequenza, e tutto ciò che

12
riguarda il suono. E’ possibile decidere la densità e la tipologia del flusso di grani nel tempo, dando una certa
controllabilità, seppur inferiore rispetto ad altri tipi di sintesi. E’ possibile avere inoltre più flussi che si
sovrappongono in maniera sincrona rispetto all’ altezza, piuttosto che flussi che si sovrappongono in maniera
quasi-sincrona o ancora delle “nuvole di suoni” che sono totalmente asincrone. Anche nell’ ultimo caso è
possibile determinare alcuni parametri, come l’ ambito frequenziale o il tipo di forma d’ onda all’ interno del
gruppo di grani. Ottenere questo tipo di sonorità (soprattutto della terza tipologia) è molto difficile e
dispendioso con gli altri tipi di sintesi. La lunghezza di un grano può variare tra 1 e 100 ms e ovviamente tale
parametro rientra tra le operazioni gestibili dal compositore.

Sintesi Sottrattiva: si basa sul sottrarre da un “materiale” complesso che viene letto in frequenza, selezionando
all’ interno di questo spettro frequenziale determinate frequenze rispetto ad altre. Per fare questo tipo di
operazione è necessario usare dei filtri, che come sempre operano tanto in ambito frequenziale quanto in ambito
temporale; le due tipologie di filtro che si usano sono ad impulso finito (FIR) e ad impulso infinito (IIR). Come
in scultura si dice che l’ opera sia già dentro la pietra che si va a lavorare, similmente nella sintesi sottrattiva si
va a scremare un suono complesso fino ad ottenere il suono voluto. E’ una sintesi più rapida rispetto alla
additiva, dove si deve costruire il suono “mattone su mattone”. Venne implementata subito nell’ ambito della
musica elettronica; si parte ad esempio da un rumore bianco o colorato (es. rumore rosa) e tramite i filtri si
inizia a scolpire letteralmente il suono. I filtri possono essere di varia natura: Passa-basso, Passa-alto, Passa-
banda, Elimina-banda (i primi tre rientrano nella categoria “passa-banda” , il quarto rappresenta i filtri Reietta-
banda). E’ importante tenere presente che i filtri nella realtà non agiscono mai in maniera netta nel operazione
di cut-of, ma vi è sempre una banda di transizione per arrivare alla soppressione della frequenza desiderata.
Abbiamo a disposizione anche un filtro Q (che corrisponde al gain) ed è possibile usarlo con gli altri filtri per
controllarli. Il Q per un filtro Passa-banda (o Reietta-banda) può essere definito come il rapporto tra una
frequenza centrale ed una variazione di –3.0 dB rispetto all’ ampiezza di banda.
Vi è poi la sintesi sottrattiva variabile nel tempo, caratterizzata da filtri che possono variare nel tempo; in un
filtro fisso le impostazioni sono uguali da quando lo applico fino alla fine, mentre nei filtri variabili nel tempo si
hanno vari parametri che variano, come il Q o altro. Questa situazione permette una sintesi sottrattiva dinamica,
che provocherà una variazione di timbro in tempo reale. Vi sono diverse macchine capaci di effettuare questo
tipo di sintesi, nate verso la fine degli anni ’70 e particolarmente usate negli anni ’80.

Specchietto filtri All Pass: sono filtri particolari che caratterizzano il “colore” di una produzione, dando
omogeneità ai vari strumenti; in genere si utilizzano nell’ ultimo step, prima del mastering. Sono filtri
che si sentono più quando non ci sono, ma non si percepiscono a livello di retto.

6a Lezione (continua…)
Linear Predictive Coding (LPC): si tratta di un metodo di analisi e risintesi di carattere sottrattivo usato
soprattutto per quel che riguarda la voce, ma anche in altri ambiti musicali. L’ LPC preleva da un suono (o voce
parlata) e analizza riuscendo ad ottenere un numero di dati relativamente ridotti, risintetizzando quindi un’
approssimazione del suono originario; il “parlato” che si ottiene dall’ LPC è abbastanza efficiente, nel senso
che richiede molti meno dati di un parlato che sia stato interamente campionato. Un circuito integrato di basso
costo per la realizzazione della voce mediante tecniche LPC fu sviluppato già all’ inizio degli anni ’80 ed è
stato successivamente implementato in una serie di giocattoli commerciali (bambolotti parlanti che utilizzavano
tecniche di LPC). Dal punto di vista compositivo la potenza della tecnica basata sull’ LPC deriva dal fatto che
si possono replicare i dati di analisi e risintetizzare delle variazioni di quello che è il segnale di input originale.
L’ LPC implementa una sorta di vocoder dal punto di vista di impianto logico generale, ovvero separa il
segnale di eccitazione dalla parte di risonanza, rendendo possibile la manipolazione dell’ andamento ritmico,
dell’ altezza e il timbro in maniera indipendente, permettendo anche delle forme di Cross Synthesis. Questi
elementi sono da tenere presenti in tutti i loro aspetti, poiché li ritroveremo in molte sperimentazioni che
vengono fatte successivamente, come la sintesi per modelli fisici, per formanti, ecc. Un altro elemento

13
importante è la possibilità di fare la cross synthesis: in genere è l’ idea di una sintesi incrociata (vengono presi
dei parametri da un suono e imposti ad una altro suono) e viene fatta con LPC ma si può realizzare anche con il
Phase Vocoder, con Tecniche di Convoluzione o tramite la Sintesi per Modelli Fisici (es. di CS: il suono del
mare con parametri presi da un parlato, o l’ orchestra che sembra parlare).
Il nome “predizione lineare” deriva dal fatto che l’ analisi spettrale è parte di un sistema e fa uscire dei
campioni che vengono predetti attraverso una combinazione lineare di parametri di filtri, che sono coefficienti,
e da campioni precedenti. Un Algoritmo di Predizione tenta di trovare campioni e posizioni al di fuori della
regione che è già stata campionata; un semplice predittore crea una predizione della curva di differenza tra un
campione e il campione precedente; all’ interno dell’ algoritmo è presente un margine di errore oltre il quale il
risultato viene scartato e viene cercato un risultato differente. Il predittore può essere impostato in maniera più o
meno sofisticata a seconda della quantità di campioni che tiene in considerazione per fare la predizione (il
predittore può essere visto come una sorta di filtro.

Sintesi per Modulazione: hanno avuto un largo sviluppo commerciale, si dividono in Modulazione ad Anello
(RM), Modulazione di Ampiezza (AM), Modulazione di Frequenza (FM) in tutte le sue tipologie,
Distorsione di Fase, e altre varianti. Quando si parla di Sintesi per Modulazione ci riferiamo ad una
metodologia che consiste nell’ utilizzo di fondamentalmente due segnali: il segnale della Portante ed il segnale
della Modulante (quest’ ultimo modula la portante, cioè provoca in qualche modo delle trasformazioni all’
interno di quest’ ultima).

RM & AM: queste due sintesi per modulazione si basano su un concetto simile; il segnale di un’ onda può
essere di carattere bipolare (passa da positivo a negativo movendosi sulla linea dello 0) o unipolare (quando
appartiene solamente all’ ambito positivo). Nella modulazione ad anello il segnale modulante è bipolare e
avremo come risultato della modulazione uno spettro formato da due componenti (portante + modulante e
portante – modulante) mentre la portante (il segnale originale) scompare. Nella modulazione ad ampiezza
invece il segnale modulante è unipolare che risulterà essere come un inviluppo (inteso come forma del segnale)
della portante; come risultato avremo uno spettro formato da tre bande (portante, portante + modulante e
portante – modulante). Naturalmente gli esempi fatti sono riferiti ad una portante di tipo sinusoidale, ma con
segnali più complessi anche il risultato delle due modulazioni sarà più complesso. Queste 2 tipologie di
modulazione operano modificando l’ ampiezza del segnale.

FM: la modulazione di frequenza nasce quando si sviluppano delle tecniche che permettono alla modulante di
alterare la frequenza della portante. Questo dà la possibilità di creare una serie di bande laterali (questo
fenomeno era già stato utilizzato nella radiofonia e tale principio era stato studiato già negli anni ’20, anche se
prima di imporsi sull’ AM dovrà passare un po’ di tempo), nell’ ambito dei megacicli (non udibili
singolarmente). Ci si chiese cosa sarebbe successo utilizzando questo processo nell’ ambito delle frequenze
udibili (tra 20 Hz e 20.000 Hz) e così si iniziò la sperimentazione in questo senso, durata molti anni e culminata
con diffusione commerciale, negli anni ’80, da parte del colosso Yamaha, del primo sintetizzatore basato sulla
sintesi FM: il celebre Yamaha DX7, una macchina particolarmente apprezzata da molti dei maggiori artisti di
quegli anni. Quando avviene una modulazione di frequenza è fondamentale la Ratio (il rapporto) tra portante e
modulante e la quantità di componenti frequenziali della FM dipende proprio dal rapporto tra le due frequenze;
ciò viene chiamato C:M Ratio. Dal momento in cui il rapporto tra la portante e la modulante è un valore intero
(es. 4 : 1 = 800 Hz : 200 Hz) avremo una sonorità armonica dal punto di vista timbrico; quando invece il
rapporto tra portante e modulante non è un valore intero ma è un valore di carattere razionale (es. 8 : 2.1 = 800
Hz : 110 Hz) avremo una sonorità formata da una serie di bande laterali che creeranno uno spettro inarmonico
dal punto di vista timbrico. Questa azione ci consente di controllare in maniera abbastanza precisa la tipologia
di risultato che vogliamo ottenere. Un altro aspetto importante riguarda quello che viene chiamato indice di
modulazione, indicato come I che corrisponde a D / M (dove D è uguale all’ ammontare della frequenza di
deviazione rispetto alla frequenza della portante, mentre M è la frequenza della modulante) , che è quel valore
che ci consente di capire il numero di bande laterali che si vengono effettivamente a generare e che sono

14
importanti per l’ orecchio (c’ è una piccola differenza tra ciò che si sente e ciò che effettivamente viene creato);
per cui se abbiamo una frequenza di deviazione di 600 Hz e la modulante è di 100 Hz a sua volta, l’ indice di
modulazione sarà 1. La sintesi FM può dividersi in 2 tipi: lineare e esponenziale. Quando eseguiamo la
modulazione in ambito digitale abbiamo bande laterali che sono spaziate ugualmente intorno alla frequenza
della portante (risultanti da somme e sottrazioni che siano si trovano sempre ad uguale distanza e si può parlare
di sviluppo lineare); nella FM che era stata realizzata anche in regime analogico la spaziatura delle bande
laterali è simmetrica rispetto alla portante, e crea una tipologia di suono che è diversa da quella della FM
lineare; questo tipo di FM viene chiamata esponenziale. A causa della sua natura esponenziale, la FM analogica
è meno controllabile ed è uno dei motivi per cui in ambito analogico non ha avuto un grande sviluppo. Il
vantaggio fondamentale, rispetto ad altri tipi di sintesi, come la sintesi additiva, è dato dal fatto che nella FM
con due oscillatori si può generare una grande quantità di materiale, portando alla produzione di suoni
complessi con poco costo computazionale.

7a Lezione (continua)
Sintesi per Distorsione di Fase: è stata creata dalla Casio, che tentò di produrre un sintetizzatore capace di fare
concorrenza ai synth basati sull’ FM, giocando sulla maggior economicità riuscendo comunque a proporre
timbriche interessanti. Per un certo periodo di tempo fu utilizzato anche se non riuscì a concorrere sullo stesso
piano del DX7. La distorsione di fase si basa su un concetto molto semplice; si ha la possibilità di generare una
forma d’ onda (sinusoide o più complessa) con la possibilità di regolare, tramite una serie di controlli, delle
funzioni che controllavano l’ angolo di fase. Al momento in cui l’ angolo di fase si muove tra 0 e 2p greco è
possibile distorcere la fase, deformando di conseguenza la forma d’ onda. Da una semplice sinusoide è possibile
creare un arricchimento ottenendo più parziali e di conseguenza timbri più saturi e ricchi. Partendo da onde già
più complesse era possibile creare sonorità elaborate, con un complesso gioco di armonici. Era controllabile
nella sua gradualità, ma meno controllabile nella natura del timbro che si andava a produrre. C’ erano dei preset
piuttosto validi dai quali si poteva partire. In generale la FM è più ricca, ma con la distorsione di fase alcune
particolarità si ricreavano meglio.

Sintesi per Waveshaping: è un tipo di sintesi che è stata elaborata già alla fine degli anni ’60, anche essa
presso i laboratori della Bell Telephone. Si ha un segnale di input che viene passato attraverso i valori di una
funzione di seno che vengono calcolati all’ interno di una tabella di waveshaping; a seconda dei calcoli che
vengono fatti si ottengono risultati differenti. E’ una tecnica usata più in ambito di studio che in un ambito
commerciale, ma che consente di ottenere ottimi risultati a livello di suono, con una velocità di calcolo piuttosto
elevata. Consente inoltre di fare una serie di azioni particolari come generare una inversione di fase molto
velocemente, o delle variazioni di ampiezza che possono inviluppare il segnale in modo semplice e variabile nel
tempo, tramite un inviluppo che non è più statico, ma varia in base ad una seconda funzione. Si realizzano con
ottimi risultati suoni di trasformazione che variano e mutano nel tempo con un ottimo controllo sul segnale.

Sintesi per Modelli Fisici e Sintesi per Formanti: sono tra i modelli di sintesi più complessi e recenti,
sviluppati più o meno in contemporanea dal punto di vista storico. L’ idea a livello scientifico di attuare una
modellizazione di carattere matematico del suono risale molto indietro nel tempo, nei primi anni del ‘900; la
sintesi per modelli fisici comincia ad elaborarsi già negli anni ’70 come idea musicale. La sintesi per formanti
(o per fof) si basa più o meno sugli stessi principi, che rendono un quadro più complesso ed elaborato rispetto al
metodo della trasformata di Fourier. Queste sintesi creano una separazione tra l’ elemento che sollecita il suono
e l’ elemento che fa risuonare il suono. Il modello è semplice; si pensi alla voce: la glottide sollecita il suono
che viene amplificato dal cavo orale, che fa risuonare il suono. Questa operazione è presente in tutti gli
strumenti e separare questi due elementi è molto importante, poiché permette di avere un controllo molto più
fine. Si comprende quindi che le due sintesi nascono soprattutto per capire e studiare la natura di suoni già
esistenti, tanto è che la sintesi per modelli fisici viene effettuata per riuscire a rappresentare più realisticamente
timbri di carattere strumentale, fino ad arrivare ad un realismo credibile. Il costo computazionale è naturalmente

15
elevatissimo rispetto alle altre sintesi del suono, ma ci sono delle potenzialità incredibili. Con i modelli fisici si
tendeva a modellizzare non solo la voce ma in generale tutti gli strumenti, con la possibilità di riprodurre
addirittura le differenze tra i vari modelli (marche diverse di pianoforti, di fiati, violini, ecc.). Riprodurre in
matematica le parti e i materiali di uno strumento e il come agiscono tra loro è estremamente complesso, ma
una volta realizzato è possibile fare notevoli sperimentazioni: una volta trovati i parametri è possibile variare i
materiali, piuttosto che le forme, le dimensioni, la tecnica di emissione, variando i parametri (es. oboe di vetro,
violino di metallo), ma addirittura scambiare tra loro elementi di sollecitazione e di risonanza (es. “soffiare”
dentro ad un violoncello, suonare un flauto con l’ archetto). Chiaramente è possibile modulare il suono nel
tempo, trasformando un violoncello in un flauto, piuttosto che un sax in una chitarra classica, dando molte
potenzialità compositive a livello generale. La Yamaha tentò negli anni ‘90 la commercializzazione della sintesi
per modelli fisici, ad un prezzo relativamente ragionevole (sui 5, 6 milioni delle vecchie lire), tuttavia non
ottenendo un buon riscontro. A livello di studio sperimentale invece la sintesi per modelli fisici è molto usata,
ad esempio è presente nel pacchetto dell’ IRCAM. Alla base della tecnica classica di sintesi per modelli fisici vi
è il paradigma massa-molla, che risponde a delle equazioni che descrivono il funzionamento della vibrazione da
un punto di vista generale di una corda e la propagazione dell’ onda che avviene all’ interno della corda.
Naturalmente questo corrisponde ad un elemento matematico all’ interno di quella che è la modellizazione. E’
un paradigma di carattere generale non applicato solo alla corda, ma anche al passaggio di una colonna d’ aria
dentro un tubo, la vibrazione su una superficie o, addirittura, su dei volumi di oggetti tridimensionali. Da
questo studio sono state estratte delle modalità (si parla infatti di sintesi modale); sono state estrapolate le
modalità di propagazione nella vibrazione del corpo per quanto riguarda la trasmissione dell’ onda sonora (es.
Mosaic è un programma che implementava la sintesi modale).
Per quanto riguarda la sintesi per formanti, una formante è un picco di energia all’ interno di uno spettro; all’
interno di questa area di picco di ampiezza ci possono essere incluse una serie di parziali che possono essere
armoniche o inarmoniche come anche del rumore. I picchi delle formanti sono caratteristici delle vocali che
utilizziamo con la voce, ma anche nei suoni di alcuni strumenti. Le regioni formantiche danno una sorta di
mappatura di carattere timbrico delle sorgenti di molti tipi di suono. Non sono però di carattere fisso; cambiano
piuttosto a seconda di quale sia la fondamentale che viene emessa. In ogni caso le formanti sono semplicemente
un’ indicazione che serve per l’ orecchio per identificare la sorgente di un determinato suono. Cercare di capire
la natura delle formanti del parlato umano è stato il compito principale che ci si è prefisso una volta iniziato
questo studio. Questo metodo è stato sviluppato durante gli anni, attraverso diversi strumenti, già dal 1800
(macchinario che perturbava le fiammelle a seconda della diversa vocale), lo studio è progredito quando ci si è
potuti avvalere di sistemi più sofisticati (soprattutto dall’ avvento del digitale, il programma Chant era in grado
di replicare perfettamente l’ Aria della Regina della Notte).

16

You might also like