Sei sicuro di fare musica originale?

Da sempre l’uomo cerca di distinguersi.

Che si parli di musica o di qualsiasi altro settore, ogni individuo lavora in funzione del fare la differenza. E meno male. Alcune delle persone che hanno cambiato il mondo ci sono riuscite soltanto inseguendo il proprio sogno di un futuro migliore. Certo, qualcuno è anche meno ambizioso ma, nel suo piccolo, sa di essere speciale.

Nel settore discografico sono numerose le icone che hanno fatto la storia, per un motivo o per l’altro: quando parli di Rock non puoi non citare Elvis Presley, quando parli di Reggae non puoi non citare Bob Marley e quando parli di Hip Hop non puoi non citare DJ Kool Herc.

Elvis Presley

Va sottolineato, però, che spesso il “fare la differenza” non sfocia propriamente in comportamenti originali e, infatti, uno dei problemi del mondo musicale risiede proprio qui: la maggior parte delle persone che si dedica alla musica non fa altro che prendere in mano uno strumento (già visto in mano a qualcun altro) e suonare qualcosa (che è, in qualche modo, già stato suonato da qualcun altro). Insomma, in che percentuale gli aspiranti artisti con l’atteggiamento da incompresi (e a volte nemmeno troppo aspiranti) emulano cose già fatte in passato? Si potrebbe dire che l’85% della musica che abbiamo sentito in tutta la nostra vita sia nata dall’idea di quei pochi precursori che, per il loro tempo, furono rivoluzionari?

La storia sforna un artista come Jimi Hendrix e quanti milioni di band nascono sulle sue orme? Eminem: quanti milioni di rapper sono cresciuti a sua immagine e somiglianza? Bob Marley, quanti milioni?

Non serve sottolineare che l’emulazione è parte fondamentale dell’essere umano, abbiamo perfino dei neuroni dedicati alla simulazione di ciò che vediamo, chiamati appunto neuroni specchio. Senza di quelli non sbadiglieremmo guardando qualcuno sbadigliare, non proveremmo gran parte dell’empatia e non saremmo tanto influenzati dal comportamento altrui.

Ok, è biologia, non c’è nulla di male.

Il discorso stride un po’ quando questo concetto influenza qualcosa, come la musica, che dovrebbe essere (almeno per antonomasia) l’espressione massima dell’artista e, in quanto tale, autentica, unica e inimitabile.

Non è che, forse, dovremmo iniziare a distinguere la musica in quanto espressione artistica dalla musica in quanto prodotto discografico? Insomma: se la discografia pubblicasse solo “cose” da ascoltare, ci sarebbero ugualmente cosi tanti fans appassionati di musica ed altrettanti aspiranti artisti?

La risposta la lasciamo a voi perchè, onestamente, noi non la sappiamo. Forse il cervello umano troverebbe altre fonti di ispirazione e la musica, in quanto tale, fungerebbe da piacevole sottofondo per lo joga. Oppure potrebbe essere sfruttata per aumentare la produttività nel settore siderurgico. Difficile a dirsi.

Sappiamo per certo, però, che negli anni 50 andava di moda il Rock’n’roll ed i giovani ribelli iniziarono ad emulare Presley e Berry. Poi è stato il momento della British Invasion ed i ribelli emulavano i Beatles e gli Stones. Poi è stato il momento dell’Hip Hop ed i ribelli emulavano i Run-DMC. Oggi il mainstream è Trap e di conseguenza i ribelli possono emulare i propri idoli con estrema facilità: non serve saper suonare uno strumento,  né saper fare basi musicali, né saper cantare. Anzi, se lo dichiari apertamente vieni ancora più apprezzato, perché tu puoi e gli altri no.

Esatto, quel “io posso e gli altri no” che tanto sta a cuore a noi umani. Che tanto viene ricercato dagli adolescenti (apertamente) e dagli adulti (meno apertamente). Ma a volte viene da chiedersi: la vita è tutta una gara a chi la fa più lontano? Fare qualche altra gara invece di quelle che non fanno progredire l’umanità? Insomma, riportando il focus sulla musica, la domanda sorge spontanea: quale sarà il prossimo passo? Emulare quel tipo che canta e balla, in silenzio?

Ah già, a questo punto ci siamo già arrivati. Aspettiamo che venga assegnato il Disco d’Oro per i musical.ly allora.

 

Ci siamo abituati (troppo) alla musica registrata.

In passato ascoltare musica era un’esperienza a 360 gradi.

Sentire un brano significava recarsi in un luogo specifico, circondarsi di persone e vivere un’esperienza di ascolto, sia collettivo che personale. Che si trattasse di un pub o di una strada, era un’esperienza ricca di sfumature socio-artistico-culturali, ognuna delle quali era inseparabile da tutto il resto.

Già. Immaginate come sarebbe il mondo oggi se l’unico modo per ascoltare musica fosse recarsi ad un live!

Rockwood Music Hall – New York City

Il modo di usufruire della musica in passato ha influenzato anche lo stile di alcuni generi musicali: gli assoli jazz, per esempio, nascono proprio dalla richiesta del pubblico di continuare a ballare, e le band, che erano ben disposte ad accontentarlo, impararono ad allungare qualunque brano fosse particolarmente apprezzato. Se la musica si fosse interrotta, la gente avrebbe smesso di ballare e c’era il rischio che il locale restasse con pochi spettatori (e la band senza ingaggi!).

NB. Anche gli strumenti che componevano i gruppi venivano scelti per necessità pratiche: più il volume era elevato, più il suono riusciva a coprire il rumore delle persone che ballavano e facevano festa. Ecco quindi che, spesso, il banjo sostituì la chitarra acustica e le trombe presero un ruolo da titolari nel jazz. Di fatto la musica subì un’evoluzione dettata anche dall’esigenza pratica di farsi sentire.

Con l’avvento delle registrazioni il rapporto con la musica è cambiato. Oggi possiamo scegliere il brano da ascoltare da uno dei tanti fornitori (Spotify, iTunes, Deezer, Google Play etc) e possiamo usufruirne in qualsiasi momento, luogo, situazione. Questo, a livello sociale, ha portato ognuno di noi a crearsi una colonna sonora personalizzata per ogni attività, dal fare sport al riposare sul divano.

Abbiamo già parlato, in un articolo precedente, della propensione del nostro cervello a crearsi abitudini e del desiderio biologico di ricevere gratificazione in varie forme (dalla musica come dalle droghe, in ogni loro forma). Ecco il link: La musica è droga per il nostro cervello.

È da notare oltretutto che, al giorno d’oggi, ascoltiamo così tanta musica registrata da aver sviluppato quella che il sociologo H. Stith Bennet definisce “coscienza della registrazione“, cioè l’interiorizzazione dei suoni basata sulle registrazioni e non sulle loro reali caratteristiche insite nell’esecuzione dal vivo. Conseguenza di ciò? Quando andiamo ad un concerto siamo quasi sempre delusi di ciò che “si sentiva”. Certo, l’atmosfera del live rappresenta ancora un grosso valore aggiunto per tanti appassionati, ma inconsciamente la maggior parte di noi basa i propri standard di ascolto su ciò che sente dagli auricolari.

Cari artisti. Ormai dovete scegliere se affidarvi al playback o affrontare con coraggio le aspettative del pubblico.

Entrando più in profondità nel discorso, però, verrebbe da dire che poco importa se il prodotto (brano) che il pubblico ama così tanto è stato registrato in presa diretta (e suonato interamente dal vivo senza “taglia e cuci” del fonico) oppure prodotto, cubetto dopo cubetto, da un team di “operai” professionisti degli strumenti virtuali. L’importante è che quel brano funzioni. L’obiettivo della musica non è forse quello di trasmettere emozioni? Un “artista” deve per forza essere polistrumentista per poter condividere qualcosa con il pubblico o può semplicemente avere una voce particolare (e non particolarmente intonata) per essere espressivo e trasmettere qualcosa a chi l’ascolta?

Insomma, se il fonico registra bene, edita bene, intona bene, mixa bene e unisce quella voce (particolare) ad un gruppo di tracce midi pre-prodotte da un producer che sa fare le cose come si deve, quel brano funzionerà punto e stop. Ovviamente poi, quando ci sarà da portare quella canzone in un concerto, qualcuno dovrà pur mettere la bocca davanti al microfono e di solito lo fa chi è più attraente (a seconda dei canoni del momento storico e della fetta di mercato di riferimento). Sembra superficiale e asettico? Sì, un filo sì, ma provate a negarlo.

In fin dei conti, comunque, non possiamo stupirci troppo di tutto questo: nell’era dell’analogico i veri talenti erano i compositori e i cantanti che, senza troppi barbatrucchi, riempivano gli stadi e suonavano come dei dannati; oggi siamo nell’era del digitale, chi dovrebbe essere il vero artista se non qualcuno che fa magie con il computer?

 

PS. Hai trovato interessante l’articolo? Seguici !

 

 

 

 

 

 

 

 

 

 

 

Home studio: 5 consigli per lavorare bene.

Per fare il Producer non basta usare una DAW, bisogna usare le orecchie.

Sorvolando sul fatto che, in epoche recenti, il maltrattamento della parola Producer ha raggiunto il suo apice (in pratica se nella vita hai fatto una base musicale lo sei di diritto e a pieno titolo), vogliamo dare ancora qualche dritta alle nuove leve del settore che, nel proprio home studio, desiderano produrre buona musica e, magari, competere con i colossi che vanno in tangenziale a comandare con il loro quintuplo Disco di Platino. (Eh va beh, brava la FIMI. 5 volte brava.)

In alcuni degli articoli precedenti abbiamo trattato delle DAW e dei plug-in, riscuotendo un certo successo soprattutto tra i più giovani. È vero, ormai ci sono virtual instrument che fanno miracoli e comporre la Nona sinfonia di Beethoven sembra un gioco da ragazzi, ma vale la pena ricordare, però, che durante una produzione musicale non serve a nulla uno strumento come Logic Pro se non sai gestire con consapevolezza tutto il lavoro che ci sta attorno.

Indipendentemente dal fatto tu debba lavorare con la registrazione di uno strumento reale o con la traccia MIDI di uno strumento virtuale, ci sono almeno 5 accorgimenti che spesso possono fare la differenza se si vuole raggiungere un buon risultato, soprattutto quando si è alle prime armi.

  1. Partire da buone registrazioni. Se si lavora con tracce registrate, fosse anche solo un cantato, è fondamentale che queste siano di buon livello. Purtroppo l’approccio we’ll fix that during the mix non funziona, perché non tutti i difetti di ripresa sono completamente correggibili. Un suono compromesso potrebbe risultare “ok” a fine lavoro, ma essere comunque molto lontano da quello ottenibile con una ripresa più adeguata. Provare per credere! Per approfondire questo argomento vi consigliamo di leggere il nostro articolo 5 classici errori di registrazione in home studio.
  2. Separare la fase di produzione da quella di mix. Molto spesso, durante la fase di costruzione dell’arrangiamento di un brano, si cerca di contestualizzare gli elementi che si vanno via via ad inserire, magari già applicando equalizzazione, compressione ed effetti. Nelle successive fasi del lavoro poi siamo restii a rivedere le operazioni che abbiamo effettuato e, una volta terminato l’arrangiamento, cerchiamo di sviluppare il mix basandoci su questi punti di partenza, convinti del lavoro che ormai abbiamo già svolto. Il mix, invece, è la costruzione di equilibri che tengono conto di tutti gli elementi in gioco, per cui è buona cosa fare le necessarie valutazioni una volta completata la stesura delle parti e la scelta di tutti gli strumenti, per poter assegnare ad ogni cosa il giusto spazio. In che senso “giusto spazio”? Vediamolo qui sotto…
  3. Si deve sentire tutto, ogni cosa con il giusto livello. È buona cosa partire dal rough mix, ovvero il bilanciamento tra gli elementi, fatto solamente impostando i livelli dei fader e il posizionamento dei pan. Come si fa? Mettiamo tutti i fader al minimo e cominciamo ad aprire gli elementi principali, creando una proporzione corretta di livello (volume) tra loro: cassa, rullante, basso, voce e strumento principale. Proseguiamo poi inserendo gli elementi secondari, anche utilizzando i pan per disporli in modo da sfruttare tutta l’immagine stereo. Come risultato dobbiamo ottenere un bilanciamento nel quale gli strumenti si sentono tutti (se no potevamo evitare di metterli), ma ognuno con un livello adeguato alla sua importanza per quello specifico arrangiamento. Il pad tappetoso, per esempio, avrà un livello sicuramente inferiore al lead synth. D’altronde non tutto può stare “davanti”, anche perché lo stare “davanti” (in questo caso si parla di volume) presuppone inevitabilmente l’esistenza di un “dietro” che qualcuno dovrà pur occupare.
  4. Creare i giusti incastri tra gli elementi. Fatta l’operazione precedente, se abbiamo un arrangiamento articolato, probabilmente ci ritroveremo nella situazione in cui alcuni elementi cozzano tra loro perché vorrebbero occupare lo stesso spazio a livello ritmico, di frequenza o entrambe le cose. Tipico esempio: cassa e basso, che entrambi hanno il corpo sulle frequenze più basse e spesso ritmicamente cadono contemporaneamente. Come puoi risolvere? Un modo efficace è riservare ad ognuno dei due elementi una parte esclusiva del range di frequenza in cui convivono. Possiamo ad esempio decidere di enfatizzare la cassa sotto gli 80 Hz e attenuarla al di sopra di questa frequenza, facendo l’opposto con il basso. Oppure viceversa. In questo modo il corpo di ognuno dei due strumenti può avere uno spazio dedicato, evitando così il rischio di mascheramento reciproco. Lo stesso principio si può applicare a qualsiasi coppia o gruppo di elementi che hanno lo stesso tipo di problema.
  5. Verificare il master su diversi sistemi di ascolto. Dopo aver completato la fase di mix in tutti i suoi aspetti arriva il momento di chiudere definitivamente il brano. Una delle cose più importanti nella realizzazione del master sta nell’assicurarsi che il brano possa funzionare allo stesso modo indipendentemente dal sistema utilizzato per riprodurlo. Se stiamo lavorando in home studio potremmo essere influenzati da una situazione di ascolto non sufficientemente neutra per poter avere questa garanzia. Come possiamo risolvere? Facendo un ascolto comparativo su diversi sistemi: in cuffia, in macchina, nello speaker bluetooth e sul cellulare, prendendo nota delle impressioni che abbiamo di volta in volta. Attenzione: non dobbiamo fare un mix per ognuno di questi sistemi, ma un unico mix che funzioni su tutti, tenendo conto dei difetti e peculiarità di ciascun sistema durante la nostra valutazione. Ad esempio: dallo smartphone i bassi saranno scarsi, nelle casse dell’automobile invece risulteranno più presenti. Una pratica molto utilizzata è affiancare l’ascolto del nostro nuovo brano a quello di un brano riferimento che conosciamo bene e che abbia caratteristiche simili al nostro, in modo da rendere più facile il nostro giudizio.

 

A volte risulta davvero complicato trasmettere al meglio ciò che fa la differenza tra un buon lavoro e uno scarso. Spesso è questione di strumentazione, ma ancor più spesso è questione di sensibilità e dedizione ai dettagli. Ovviamente nulla può sostituire l’esperienza sul campo, ma confidiamo che questi suggerimenti possano contribuire a fare la differenza per coloro che stanno scoprendo tutte le mille sfaccettature del mondo dell’audio pro.

 

PS. Hai trovato interessante l’articolo? Seguici !

 

 

La musica è droga per il nostro cervello.

Per i neuroscienziati ormai è assodato: il cervello è pigro.

Durante le nostre giornate svolgiamo automaticamente più dell’80% delle azioni. Il cervello adora la routine, perché pensare è faticoso.

Ecco, quindi, che oltre ai tanti rituali che arricchiscono positivamente le nostre giornate, come leggere almeno 10 pagine o correre almeno 2 km, trovano spazio anche quelle abitudini sconvenienti come guardare pomeriggio 5 o la diretta dell’Isola. Ok, ora che l’abbiamo detto, torniamo subito in carreggiata.

Anche nel mondo musicale il nostro cervello cerca di crearsi delle abitudini. È innegabile, infatti, che quando un brano ci piace lo riascoltiamo innumerevoli volte. Ci sono canzoni che ascoltiamo a ripetizione in modo intensivo per una settimana, ed altre che ascoltiamo solo quando vogliamo evocare uno specifico stato d’animo (a volte anche inconsciamente). Alcuni dischi sono in grado di riportarci indietro nel tempo, altri invece riaccendono la speranza in un futuro migliore.

La musica ha anche questo potere. Proprio come alcune droghe.

Alcune delle playlist offerte da Spotify, decisamente create per evocare emozioni specifiche.

Beh, in effetti, Theodor Adorno (filosofo, musicologo e sociologo) riteneva che utilizzare la musica privatamente come colonna sonora delle proprie giornate fosse un modo di raggirare la solitudine. Il jukebox, per lui, era una promessa di gioia che, però, si rivelava una breve dose di felicità che avrebbe presto lasciato il posto al desiderio di averne ancora. Un po’, appunto, come le droghe.

Tra l’altro qui si apre automaticamente una parentesi tecnica: droghe come LSD provocano un trip  che dura dalle 6 alle 10 ore, quindi dopo l’assunzione si è apposto per un po’… le sigarette invece, considerate legali,  producono un effetto che dura pochi secondi. Non sarà che, per il nostro circuito della ATV (cioè il “circuito del piacere” del cervello), la musica corrisponda ad una sigaretta? E sarà forse per questo che, da sempre, molti artisti hanno strette “connessioni” con le droghe?

Teoria di certo interessante. Ma tornando al bisogno di routine del nostro cervello: vi siete mai chiesti come possa sentirsi un artista che, oltre al singolo che voi amate, ha scritto altre 130 canzoni che nessuno considera?

Cinicamente potremmo dire che, se soltanto un brano è diventato famoso, evidentemente era l’unico che meritava davvero. Chìssene di ciò che l’artista voleva esprimere in tutti gli altri 130.

Detto questo, una domanda sorge spontanea:  il cantautore passerà l’intera vita cercando di scrivere altri brani che facciamo un successo planetario o continuerà ad esprimere se stesso, indipendentemente dai gusti dei fan, tramite la propria musica?

Tarzan boy è nel bagaglio culturale di ognuno di noi, ma quanti di voi conoscono altri dischi dei Baltimora?

Molti artisti lamentano di essere “costretti” ad eseguire nei loro concerti sempre gli stessi brani,  quelli che notoriamente hanno avuto maggior successo. Inserendo in scaletta nuovi pezzi spesso capita che il pubblico, non riconoscendoli, ne sia poco entusiasta. Può sembrare una cosa passeggera ma se, nell’ascoltatore, si instaura la paura di recarsi ad un concerto, pagare il biglietto e poi non sentire i pezzi che ama (corrispondenti alla dose di stupefacenti sopra citata), potrebbe anche smettere di andare ai live.

Situazione spiacevole per l’artista, non credete?! D’altronde nessuno di noi andrebbe al cinema per passare metà della serata riguardando scene viste e riviste. È un’ingiustizia!

E che dire di coloro che suonano solo cover: eseguono il brano di un altro (anche in modo originale) perché con il pubblico funziona di sicuro o perché lo sentono proprio per ciò che gli trasmette? Insomma è un modo di fare arte o una necessità per poter fare gli artisti

Boyce Avenue è considerato, meritatamente, uno dei migliori cover artist.

Precisiamo: non c’è nulla di male nel suonare cover, soprattutto con un po’ di tocco personale. Di sicuro, però, ricevere feedback a domande come questa aiuta a farsi un quadro generale del panorama musicale più ampio e consapevole e, perché no, potrebbe indirizzare i protagonisti del settore a riflettere in un modo nuovo sulla loro attività.

Concludendo questo insolito viaggio nel cervello degli artisti (o almeno di alcuni di loro), non ci resta che augurarci di riuscire, un giorno, a creare una teoria unificata della musica con la quale spiegare come mai, a differenza di altre attività artistiche, in essa sia racchiuso così tanto (o poco?) potenziale emotivo da renderne necessaria la ripetizione (in ogni sua forma). Un pò come le droghe, insomma.

 

 

PS. Hai trovato interessante l’articolo? Seguici !

 

 

I 5 migliori plugin per chitarra (dalla creazione del suono al mix finale)

 

Partiamo dalla wiki-definizione: “Un plugin nell’informatica musicale è un componente aggiuntivo che, utilizzato in un programma di produzione audio – video, permette di aggiungere effetti audio o generare nuovi suoni”.

Perfetto. Ora che anche i neo-arrivati nell’ambito audio sono preparati, passiamo alla sostanza.

Partiamo dalla creazione del suono di una chitarra elettrica. Chiaramente ci rivolgiamo a tutti coloro che non sanno suonarne una reale e che, per i più svariati motivi, non hanno la possibilità di ingaggiare un turnista.

Emulare virtualmente il suono di una chitarra elettrica in modo efficace è una cosa tutt’altro che semplice. Sono infinite le sfumature della risposta al tocco di due mani (ed eventualmente un plettro) su sei corde e ci permettiamo di sottolineare che nessuna casa produttrice di software è ancora riuscita a creare qualcosa di completamente credibile. 

Tra gli instrument che, nonostante tutto, hanno raggiunto un risultato apprezzabile, vogliamo segnalare Electri6ity della Vir2.

Al suo interno offre ben 8 tipologie di chitarra (Strat, Tele, P90, Les Paul, Rickenbacker, Danelectro Lipstick, ES335 e L4) e la possibilità di controllare “live”, attraverso comandi MIDI, l’esecuzione di bending, sustain, muting, slide, legato, strum e molto altro. Include, inoltre, una sezione effetti che comprende phaser, flanger, chorus, reverb e delay, e una sezione amp simulator che offre 7 diverse tipologie di amplificatori.

Tra le opzioni presenti all’interno dell’instrument consigliamo di utilizzare i banchi in modalità DI, che restituiscono il suono dello strumento prelevato prima del passaggio all’interno dell’amplificatore. Questo permette di selezionare successivamente il simulatore dell’amplificatore più adatto al nostro gusto, con una maggiore possibilità di scelta e di intervento sulla definizione del nostro suono.

Certo, non potrà essere utilizzato per un album di chitarra solista (per il quale è necessario un esecutore esperto oltre che uno strumento reale registrato a regola d’arte), ma potrebbe essere un’opzione valida in caso si voglia inserire un riff o un arricchimento dell’arrangiamento in una produzione non incentrata sul suono “chitarresco” (passatemi il neologismo).

Molto bene. Ora che il suono della chitarra è stato creato (con uno strumento virtuale o con uno reale) è arrivato il momento di allestire la pedaliera.

Per noi la scelta ricade su Bias Pedal e Bias FX della Positive Grid. Il primo offre la possibilità di accedere a ben 64 stompbox e 10 processori rack (oltre a 32 amplificatori), mentre il secondo mette a disposizione 17 emulazioni di distorsori, overdrive, fuzz e booster, con la possibilità di customizzare approfonditamente clipping stage, output stage, power stage ed EQ.

Questa vastità di scelta e di personalizzazione non va a scapito della semplicità di utilizzo perché i due tool si integrano alla perfezione e hanno un’interfaccia molto user friendly. Interessantissima anche la funzione Tone Match di Bias Pedal, che permette di catturare il suono di qualsiasi pedale di distorsione (o traccia registrata) creandone un modello da poter utilizzare nel nostro setup.

Passando allo stadio successivo, ovvero alla simulazione dell’amplificatore, potremmo integrare il setup precedente con il buon Bias Amp 2, ma potendo scegliere liberamente preferiamo andare su AmpliTube Max della IK Multimedia. AmpliTube è uno dei più longevi amp-sim (la prima versione è del 2002) e l’esperienza della casa produttrice garantisce una pregevole qualità delle emulazioni, accompagnata da due caratteristiche per noi fondamentali: immediatezza e versatilità. In pochi click abbiamo a disposizione ben 80 diverse tipologie di amplificatori e 92 cabinet, per quali è selezionabile perfino la nostra configurazione di speaker preferita. Inoltre è possibile stabilire l’ambiente in cui effettuare la ripresa e impostare accuratamente la microfonazione (con il comodo supporto visivo della grafica 3D) attingendo da un arsenale di 19 diversi modelli di microfono. Da non trascurare il fatto che la maggior parte degli amplificatori presenti riporta il nome completo di marca e modello, per una selezione ancora più facile e veloce.

A questo punto abbiamo generato e ripreso con dei microfoni (veri o virtuali che siano) il suono effettato ed amplificato della nostra chitarra elettrica. Ora bisogna inserire questo suono nel mix del brano che stiamo producendo e quindi, molto probabilmente, avremo bisogno di processarlo con un equalizzatore.

Eh sì, perché per quanto il nostro suono possa sembrarci straordinario, abbiamo l’esigenza di farlo convivere nel modo migliore con tutti gli altri elementi dell’arrangiamento e ,quindi, qualche ritocco è spesso necessario.

Uno di più comuni interventi da fare con l’equalizzatore è l’attenuazione di componenti sonore che entrano in conflitto con quelle di altri strumenti. In soldoni: se un lead synth suona prevalentemente in un determinato range di frequenze, possiamo togliere alcuni dB della chitarra in quel range così da dare ad ogni strumento il proprio spazio privilegiato. Ovviamente queste scelte vanno fatte con molta attenzione, scegliendo solo le frequenze che è possibile sacrificare per enfatizzare con efficacia i suoni a cui vogliamo dare maggiore risalto nel mix.

Il consiglio è di utilizzare un plugin modellato su un equalizzatore analogico, il quale, per sue caratteristiche costruttive, spesso lavora in modo più “musicale” che “clinico”, evitandoci il rischio di compiere interventi sgradevoli all’ascolto, soprattutto quando applichiamo un boost.

La nostra scelta, in questo caso, ricade sul Waves Scheps 73 , modellato sull’equalizzatore console Neve 1073, il quale garantisce alta qualità ed efficacia. Così come nell’originale, il filtro passa alto, la banda bassa e la banda media hanno frequenze selezionabili a step predefiniti mentre la banda alta ha frequenza fissata a 12 kHz.

La riduzione delle variabili in gioco rende più immediata l’esecuzione degli interventi e la sua risposta rende sempre gradevole il risultato (a patto che la frequenza sia stata selezionata correttamente!).  Questo processore, inoltre, può essere “spinto” per ottenere la riproduzione (spesso ricercata) della saturazione del canale del banco analogico, per aggiungere ulteriore carattere alla nostra sonorità.

 

Infine, un aspetto da non sottovalutare quando si inserisce il suono nel mix è l’aggiunta di un riverbero per contestualizzare il suono nello spazio sonoro. In fase di registrazione è abitudine riprendere la chitarra elettrica priva di effetti di ambiente, in particolare se l’effettistica del nostro rig viene gestita e riprodotta in mono.

È bene lasciarsi la possibilità di utilizzare un riverbero stereo, per poter ricreare un ambiente più credibile e una spazializzazione più accurata, nonché di dosarlo accuratamente una volta che il suono è stato inserito nel mix con gli altri strumenti.

Per questa operazione ci affidiamo all’italianissima Overloud che offre il Breverb 2 , ottimo tool da avere nell’arsenale (non solo per la riverberazione delle chitarre). Qui possiamo attingere agli algoritmi del classico Lexicon 480L, tra i quali small hallroom per il nostro strumento spesso sono protagonisti.

 

In conclusione, dalla creazione del suono al mix finale, la tecnologia ci permette di lavorare in modo completo e professionale. Di sicuro, almeno per adesso, utilizzare strumenti virtuali  al posto che reali significa scegliere un compromesso, soprattutto per alcuni di essi che non sono ancora emulati alla perfezione.

Probabilmente in futuro le case produttrici di plugin riusciranno a colmare anche i gap rimasti ma, per quanto ci riguarda, anche nel 2118 noi sceglieremmo comunque di incidere con una buona Fender Stratocaster buttata in un Marshall Plexi microfonato come si deve!

 

PS. Hai trovato interessante l’articolo? Seguici !