venerdì 30 ottobre 2015

PACE INTERIORE



La mancanza di pace interiore e l'insoddisfazione, esse provengono dall'avere una motivazione estremamente egocentrica. Ogni individuo ha il diritto di superare la sofferenza e di guadagnarsi la felicità. Ma se pensiamo solo a noi stessi, la mente diventa molto negativa. Allora anche un problema piccolo ci appare grande e diventiamo squilibrati. Quando pensiamo agli altri come a esseri tanto cari quanto noi stessi, allora la mente è aperta ed è più ampia. Poi come risultato, anche problemi seri non appaiono così significativi. Quindi c'è una grande differenza fra le emozioni; essa dipende dal proposito con il quale guardiamo alle cose: dalla nostra prospettiva o dalla prospettiva di tutti.

Perciò ci sono due elementi che sono importanti per la pace della mente. Il primo è la consapevolezza della realtà. Se affrontiamo le cose realisticamente, non ci saranno conseguenze inaspettate. Il secondo è la compassione che apre la nostra cosiddetta “porta interiore”. Paura e sospetto ci separano dagli altri.

Un'altra cosa che ci fa perdere la pace della mente è il preoccuparsi del nostro aspetto esteriore.
C'è una categoria di trasformazione interiore che avviene naturalmente con l'età e un'altra che può avvenire attraverso circostanze esterne. Questi tipi di trasformazione avvengono automaticamente. Altre avvengono con il nostro sforzo e questa è la trasformazione principale che vogliamo apportare: una trasformazione interiore in accordo con i nostri desideri. Questo è il significato principale.
Collera, odio, paura, gelosia, sospetto, solitudine, stress sono tutti correlati al nostro fondamentale atteggiamento mentale. Essi provengono dal nostro essere troppo egocentrici.



Il Buddhismo è universalmente considerato una religione di pace; e proprio questo è l'effetto che produce nella vita interiore di coloro che lo praticano. La pratica del Buddhismo mostra al di là di ogni dubbio che gli esseri non sono semplicemente "il corpo" (che invecchia, si ammala e muore) né "i pensieri e le sensazioni" (che cambiano costantemente). Quando si comprende che la mente - ciò che fa esperienza di tutte le cose - è essenzialmente "vuota" di ogni caratteristica, come lo spazio e la pura potenzialità, allora sorge nel praticante una totale assenza di paura, che è di fatto l'unico vero fondamento di un comportamento pacifico. A quel punto si diventa come un cane di grossa taglia, che non ha bisogno di abbaiare perché gli altri sono ben consapevoli della sua forza. Questo dal punto di vista della vita interiore.
Per quanto riguarda l'atteggiamento verso il mondo circostante, tuttavia, i tentativi buddhisti di praticare una nonviolenza assoluta hanno incontrato i risultati che era lecito attendersi. La non volontà di proteggersi contro le ripetute aggressioni e invasioni musulmane 1100 anni fa, ha condotto alla progressiva distruzione di avanzate culture umanistiche fino alla scomparsa dello stesso Buddhismo dall'India.

Da quel momento, le società buddhiste hanno assunto un atteggiamento più realistico, anche nei confronti della pace e della guerra. D'altronde è generalmente riconosciuto che per essere liberi bisogna anche essere forti e capaci di proteggere la propria libertà. Ciò che è assolutamente unico nel Buddhismo, da questo punto di vista, è la tendenza a non demonizzare "il nemico", ma a considerarlo fondamentalmente vittima della sua confusione o ignoranza.

I Buddhisti comprendono che tutti gli esseri, senza alcuna distinzione, desiderano la felicità e possiedono la "Natura di Buddha", che tutti gli esseri tipicamente si comportano bene nelle situazioni piacevoli e si comportano male in condizioni di disagio. Il Buddha insegna che la mente non illuminata funziona come un occhio: percepisce il mondo esterno ma non se stessa. Questo dà luogo a una separazione illusoria fra soggetto, oggetto e azione in cui la consapevolezza - che è priva di caratteristiche definitive proprie - viene percepita come un "io" separato, mentre gli oggetti dell'esperienza esterna e interiore vengono percepiti come un "tu" o "qualcosa di separato".

Quando si ignora che tutti questi "oggetti" sono in realtà l'espressione senza limiti della consapevolezza stessa, si affacciano alla mente le fondamentali emozioni perturbatrici dell'attaccamento e della malevolenza, che a loro volta fanno sorgere l'orgoglio esclusivo, l'invidia e l'avidità. Quando le 84.000 possibili combinazioni di queste emozioni conflittuali si manifestano, la maggioranza degli esseri è incapace di considerarle come la semplice liberazione - da parte della mente - di vecchie proiezioni e bagagli inservibili. Invece gli esseri non illuminati reagiscono col corpo e la parola, seminando ulteriori cause di sofferenza; questo è lo stato di confusione chiamato Samsara in sanscrito (Khorwa in tibetano), cioè l'essere intrappolati nell'esperienza condizionata.



I benefici che si ottengono dalla pratica della meditazione buddhista sono diversi. Tradizionalmente, vengono neutralizzate qualità negative come odio, invidia, apatia, ignoranza e narcisismo, sviluppando invece concentrazione, pace interiore, saggezza, compassione e amore. Stando alla meditazione buddista, la prima responsabilità dell’essere umano consiste nell’uscire dallo stato di insoddisfazione e infelicità tipico della condizione umana e nel vivere una vita sana, armoniosa, per se stessi e per gli altri.

Per fare ciò, è necessario imparare a utilizzare le proprie facoltà di auto osservazione, scavando a fondo dentro di sé. Attraverso la pratica della meditazione buddhista, si avvia un processo di profonda comprensione della natura umana e di realizzazione della verità. Secondo il Buddhismo, quando la mente è libera e si è in pace, ogni azione ne risente in maniera positiva.

Durante la meditazione, si verifica il rallentamento delle funzioni corporee e dei processi metabolici. Il rallentamento del ritmo respiratorio, con riduzione del consumo di ossigeno e quindi del fabbisogno energetico, si collega a un abbassamento della pressione arteriosa e un rilassamento progressivo di tutto il corpo.

In questo modo, vengono a crearsi variazioni elettrofisiologiche del sistema psicosomatico, come l'induzione nel cervello di onde Alfa (caratteristiche dello stato di rilassamento) e, negli stadi più profondi, di onde Theta, tipiche dei primi stadi del sonno e dell'infanzia, con sincronizzazione tra i due emisferi cerebrali.

Grazie alla pratica della meditazione, si assiste inoltre a cambiamenti nelle risposte galvaniche della pelle e ad altre modificazioni biochimiche, come l'aumento delle naturali difese immunitarie dell'organismo. Scompaiono le tensioni mentali e, conseguentemente, aumenta la guarigione di molte malattie psicosomatiche.

La meditazione buddhista, i cui benefici sono accreditati da diversi studi scientifici, si rivela un ottimo sistema di prevenzione, poiché uno stato di equilibrio e di armonia impedisce alle malattie di svilupparsi.



Le tecniche della meditazione buddhista differiscono a seconda dei tipi di Buddhismo. Si passa dalla concezione del corpo immaginario, diviso in sette chakra, immaginati come fiori di loto con impresse sillabe mistiche su cui concentrarsi, a espressioni e suoni da pronunciare e ascoltare.

A seconda che si parli di samatha o vipassana, vi sono tecniche differenti con peculiari finalità. Alla base però ritroviamo l’esercizio della consapevolezza del respiro: seduti, con la schiena dritta, seguite la sensazione del respiro che fluisce dalle narici verso il torace e l’addome. Concentratevi sul diaframma come punto specifico e non forzate nulla, liberate la mente e focalizzatevi sul respiro.

L'attenzione al respiro con la pratica diventa anapanasati, ovvero consapevolezza del respiro e dunque della vita che fluisce nel corpo. Un'inspirazione e un'espirazione consapevoli sono le chiavi per entrare nello stato meditativo puro.

La meditazione buddhista non è rivolta esclusivamente ai seguaci del Buddha, ma è aperta anche ai laici. Si rivela adatta per chi voglia apportare un lungo e graduale lavoro sulla propria persona.

Smussando gli spigoli e armonizzando le forme della personalità, questo tipo di percorso può condurre a un migliore atteggiamento mentale e a una migliore qualità della vita.

Per questo tipo di meditazione, fondamentale è la presenza di un maestro, in grado di guidare nelle difficoltà e indirizzare sul sentiero spirituale.

È il bodhisattva, colui che ha conseguito l’illuminazione e si propone di aiutare gli altri, rinunciando al nirvana. Vi sono svariati corsi di meditazione buddhista, spesso all’interno di istituti culturali. Importante è l'Unione Buddhista Italiana, ente religioso riconosciuto, che racchiude le esperienze buddhiste in Italia.

Gli ostacoli per una buona meditazione sono cinque e vengono definiti i ‘cinque impedimenti’: desiderio sensuale, la malevolenza, la pigrizia, l’agitazione/preoccupazione e il dubbio. Questi inquinanti invadono la mente, facendola deviare dalla sua calma concentrata e dalla visione profonda.

Il desiderio sensuale non coincide con quello sessuale, ma è relativo alla brama, alla cupidigia diretta a tutto ciò che rappresenta l’oggetto dei nostri sensi.

La malevolenza è sinonimo di avversione e sconfina nell’ira, nell’odio e nel risentimento verso persone, situazioni e oggetti.

L’irrequietezza conduce invece la mente di pensiero in pensiero, reificando lo stato ansioso e dando vita anche al dubbio, da intendersi come incapacità nel decidersi nella pratica spirituale, spesso collegata anche alla pigrizia.




.

IL BIG BANG



La teoria cosmologica del Big Bang descrive l’espansione dell’Universo a partire da un singolo punto, di 13,7 miliardi di anni fa, ma non spiega cosa c’era prima. Quest’ultima questione viene spesso ignorata dai cosmologi perché considerata improponibile, in virtù del fatto che spazio, tempo e materia sono nati con il Big Bang.
La teoria gravitazionale che descrive l’evoluzione dell’Universo è la relatività generale di Einstein; questa però è una teoria classica (cioè in essa non sono presenti considerazioni di fisica quantistica), e andando indietro nel tempo è valida soltanto fino a un certo punto, oltre il quale l’Universo era così piccolo da poter essere descritto soltanto da una teoria quantistica della gravitazione.
Per la precisione, la nostra conoscenza sull'evoluzione dell'Universo si ferma a 10–43 s dopo il Big Bang. Prima di tale tempo, detto tempo di Planck, lo spazio e il tempo diventano concetti indefiniti e vanno riconsiderati alla luce di teorie alternative che tengano conto degli effetti quantistici.
Agli inizi del secolo scorso si pensava che l'Universo fosse statico, poi la scoperta fatta da E. Hubble nel 1929 che le galassie si stanno tutte allontanando le une dalle altre, unita ad altre evidenze sperimentali, tra cui l'esistenza di una radiazione cosmica di fondo ancora misurabile interpretata come il residuo del Big Bang, ha definitivamente sancito che questa convinzione era sbagliata: l'Universo si sta espandendo, a partire da un'epoca in cui tutta la materia era condensata in un punto a energia infinita (una situazione estrema di questo tipo, in cui le leggi della fisica non sono più valide, è detta singolarità). In questo modello di Universo in espansione l'inizio è inevitabile e la questione di capire cosa c'era prima è fondata. Una risposta del tipo "la questione non si pone, perché spazio e tempo sono nati con il Big Bang per cui domandarsi cosa c'era prima non ha senso" sembra un modo per non affrontare il problema.
Secondo alcuni studi-simulazione, prima del Big Bang c’era già un Universo in fase di contrazione caratterizzato da una geometria spaziotemporale simile a quella dell’Universo attuale. Quando l’Universo si è contratto fino a diventare un punto, le proprietà quantistiche dello spazio-tempo hanno trasformato la gravità da forza attrattiva a forza repulsiva e l’Universo è ‘rimbalzato’ espandendosi a partire dal Big Bang, nello stato che ancora oggi osserviamo.



Questa descrizione dell'Universo prima del Big Bang s'inquadra nella cosiddetta teoria delle stringhe, secondo la quale le particelle elementari non sono da considerare puntiformi, bensì oggetti filamentosi e unidimensionali: tutte le proprietà osservate derivano dal modo con cui queste stringhe vibrano. La teoria delle stringhe spiega anche situazioni quantistiche, come quelle dell'Universo in prossimità del Big Bang. Una particolarità delle stringhe è che esse possono ridursi di dimensione ma non annullarsi del tutto, per cui la teoria cosmologica basata su di esse esclude l'esistenza di un Universo ridotto a un punto come quello previsto dal Big Bang, considerato soltanto una fase di un Universo eterno, che nella descrizione classica consideriamo come inizio.
L’esistenza di un Universo precedente al Big Bang e la deduzione delle sue proprietà derivano da approcci matematici in cui la struttura dello spazio-tempo è considerata discreta, continua solo in approssimazione: si tratta di un intreccio di filamenti quantistici unidimensionali. Vicino al Big Bang, questa trama è violentemente strappata e diventa importante la natura quantistica della geometria, che rende la gravità fortemente repulsiva.

Sulle primissime fasi del Big Bang esistono molte speculazioni. Nei modelli più comuni, l'universo inizialmente era omogeneo, isotropo, con una densità energetica estremamente elevata, temperature e pressioni altissime e si stava espandendo e raffreddando molto rapidamente. All'incirca 10-37 secondi dopo l'istante iniziale, una transizione di fase causò un'inflazione cosmica, durante la quale l'universo aumentò le sue dimensioni esponenzialmente. Quando il processo di inflazione si fermò, il cosmo era formato da un plasma di quark e gluoni, oltre a tutte le altre particelle elementari. Le temperature erano così alte che il moto casuale delle particelle avveniva a velocità relativistiche e coppie particella-antiparticella di ogni tipo erano continuamente create e distrutte nelle collisioni. Ad un certo istante una reazione sconosciuta, chiamata bariogenesi, violò la conservazione del numero barionico, portando ad una leggera sovrabbondanza dei quark e dei leptoni sugli antiquark e sugli antileptoni (dell'ordine di 1 parte su 30 milioni). Questo processo potrebbe spiegare il predominio della materia sull'antimateria nell'universo attuale.

L'universo continuò ad espandersi e la sua temperatura continuò a diminuire, quindi l'energia tipica di ogni particella andò diminuendo. La rottura della simmetria della transizione di fase portò le quattro interazioni fondamentali della fisica e i parametri delle particelle elementari nella loro forma attuale. All'incirca dopo 10-11 secondi, il quadro d'insieme diventa meno speculativo, visto che le energie delle particelle diminuiscono fino a valori raggiungibili negli esperimenti di fisica delle particelle. Arrivati a 10-6 secondi, quark e gluoni si combinarono per formare barioni, come protoni e neutroni. La piccola differenza presente nel numero di quark e antiquark portò ad una sovrabbondanza dei barioni sugli antibarioni. La temperatura non era più sufficientemente alta per formare nuove coppie protoni-antiprotoni (e ugualmente per le coppie di neutroni-antineutroni), perciò seguì immediatamente un'annichilazione di massa che lasciò soltanto uno ogni 1010 dei protoni e neutroni originali e nessuna delle loro antiparticelle. Un processo simile avvenne al tempo di un secondo per gli elettroni e i positroni. Dopo questi due tipi di annichilazione, i protoni, i neutroni e gli elettroni rimanenti non stavano più viaggiando a velocità relativistiche e la densità di energia del cosmo era dominata dai fotoni (con un contributo minore dovuto ai neutrini).



Qualche minuto dopo l'istante iniziale, quando la temperatura era all'incirca 109 kelvin (ovvero un miliardo di kelvin) e la densità paragonabile a quella dell'aria, i neutroni si combinarono con i protoni, formando i primi nuclei di deuterio e di elio in un processo chiamato nucleosintesi. La maggior parte dei protoni non si combinò e rimase sotto forma di nuclei di idrogeno. Quando l'universo si raffreddò, il contributo della densità energetica della massa a riposo della materia arrivò a dominare gravitazionalmente il contributo della densità di energia associata alla radiazione del fotone. Dopo circa 379 000 anni, gli elettroni e i vari nuclei si combinarono formando gli atomi (soprattutto idrogeno); a partire da questo istante, la radiazione si disaccoppiò dalla materia e continuò a vagare libera nello spazio. Questa radiazione fossile, che ancora oggi è visibile, è conosciuta come radiazione cosmica di fondo.

In un periodo di tempo molto lungo, le regioni leggermente più dense rispetto alla distribuzione uniforme di materia attrassero gravitazionalmente la materia circostante e crebbero, aumentando la loro densità, formando nubi di gas, stelle, galassie e le altre strutture astronomiche osservabili oggi. I dettagli di questo processo dipendono dalla quantità e dal tipo di materia presente nell'universo. I tre possibili tipi di materia conosciuti sono la materia oscura fredda, la materia oscura calda e la materia barionica. La miglior misura disponibile (fornita da WMAP) mostra che la forma di materia dominante nel cosmo è la materia oscura fredda. Gli altri due tipi formano insieme meno del 18% dell'intera materia dell'universo.

Dallo studio di alcune prove osservative, come le supernovae di tipo Ia e la radiazione cosmica di fondo, gli astrofisici ritengono che attualmente l'universo sia dominato da una misteriosa forma di energia, conosciuta come energia oscura, la quale apparentemente permea tutto lo spazio. Le osservazioni suggeriscono che circa il 72% di tutta la densità d'energia dell'universo attuale sia sotto questa forma. Quando il cosmo era più giovane, era permeato in ugual modo dall'energia oscura, ma la forza di gravità aveva il sopravvento e rallentava l'espansione, in quanto era presente meno spazio ed i vari oggetti astronomici erano più vicini tra loro. Dopo alcuni miliardi di anni, la crescente abbondanza dell'energia oscura causò un'accelerazione dell'espansione dell'universo. L'energia oscura, nella sua forma più semplice, prende la forma della costante cosmologica nelle equazioni di campo di Einstein della relatività generale, ma la sua composizione e il suo meccanismo sono sconosciuti e, più in generale, i particolari della sua equazione di stato e le relazioni con il Modello Standard della fisica delle particelle continuano ad essere studiati sia tramite osservazioni, sia dal punto di vista teorico.

Tutta l'evoluzione cosmica successiva all'epoca inflazionaria può essere descritta rigorosamente dal modello CDM, il quale utilizza le strutture indipendenti della meccanica quantistica e della relatività generale. Non esiste ancora un modello ben supportato che descriva i fenomeni precedenti a 10-15 secondi. Per poter risalire a tali periodi di tempo è necessaria una nuova teoria unificata, definita gravità quantistica. La comprensione dei primissimi istanti della storia dell'universo è attualmente uno dei più grandi problemi irrisolti della fisica.

La teoria del Big Bang si basa su due ipotesi fondamentali: l'universalità delle leggi della fisica e il principio cosmologico (il quale afferma che, su larga scala, l'universo è omogeneo e isotropo).



Queste idee erano inizialmente considerate dei postulati, ma attualmente si sta provando a verificare ciascuna delle due. Per esempio, la prima ipotesi è stata verificata da osservazioni che mostrano che la più ampia discrepanza possibile del valore della costante di struttura fine nel corso della storia dell'universo è nell'ordine di 10-5. Inoltre, la relatività generale ha superato test severi sulla scala del sistema solare e delle stelle binarie, mentre estrapolazioni su scale cosmologiche sono state convalidate da successi empirici di vari aspetti della teoria del Big Bang.

Se il cosmo su larga scala appare isotropo dal punto di osservazione della Terra, il principio cosmologico può essere ricavato dal più semplice principio copernicano, il quale afferma che non è presente alcun osservatore privilegiato nell'universo. A questo rispetto, il principio cosmologico è stato confermato con un'incertezza di 10-5 attraverso le osservazioni della radiazione cosmica di fondo. L'universo è risultato essere omogeneo su larga scala entro un ordine di grandezza del 10%.

La relatività generale descrive lo spaziotempo attraverso una metrica, che determina le distanze che separano i punti vicini. Gli stessi punti (che possono essere galassie, stelle o altri oggetti) sono specificati usando una carta o "griglia" che è posizionata al di sopra dello spaziotempo. Il principio cosmologico implica che la metrica dovrebbe essere omogenea e isotropa su larga scala, il che individua univocamente la metrica di Friedmann - Lemaître - Robertson - Walker (metrica FLRW). Questa metrica contiene un fattore di scala, che descrive come la dimensione dell'universo cambia con il tempo. Questo consente di definire un opportuno sistema di coordinate, chiamate coordinate comoventi. Adottando questo sistema di coordinate, la griglia si espande assieme all'universo e gli oggetti che si stanno muovendo solo a causa dell'espansione dell'universo rimangono in punti fissi della griglia. Mentre le loro coordinate comoventi rimangono costanti, le distanze fisiche tra due punti comoventi si espandono proporzionalmente al fattore di scala dell'universo.

Il Big Bang non è stata un'esplosione di materia che si muove verso l'esterno per riempire un universo vuoto. È invece lo spazio stesso che si espande con il tempo dappertutto e aumenta la distanza fisica tra due punti comoventi. Poiché la metrica FLRW assume una distribuzione uniforme della massa e dell'energia, è applicabile al nostro universo solo su larga scala, in quanto le concentrazioni locali di materia, come la nostra galassia, sono legate gravitazionalmente e come tali non possono risentire dell'espansione su larga scala dello spazio.
Un'importante caratteristica dello spaziotempo del Big Bang è la presenza di un orizzonte cosmologico. Poiché l'universo ha un'età finita e la luce viaggia ad una velocità finita, possono esservi degli eventi accaduti nel passato la cui luce non ha avuto sufficiente tempo per raggiungere la Terra. Ciò comporta un limite o un orizzonte nel passato sugli eventi più distanti che possono essere osservati. Al contrario, poiché lo spazio si sta espandendo e gli oggetti più distanti si stanno allontanando sempre più velocemente, la luce emessa oggi da un punto sulla Terra potrebbe non essere mai ricevuta dagli oggetti più lontani. Questo definisce un orizzonte nel futuro, che limita gli eventi futuri che possiamo influenzare. La presenza di entrambi i tipi di orizzonte dipende dai dettagli del modello FLRW che descrive il nostro universo. La nostra comprensione dell'universo nei suoi primissimi istanti suggerisce che c'è un orizzonte nel passato, anche se in pratica la nostra visione è limitata anche a causa dell'"opacità" dell'universo nei primi istanti. Perciò la nostra visione non può estendersi nel passato oltre circa 380000 anni dal Big Bang, benché l'orizzonte passato si sposti gradualmente verso punti sempre più remoti nello spazio. Se l'espansione dell'universo continua ad accelerare, ci sarà anche un orizzonte del futuro.

Le prove osservative principali e più dirette della teoria del Big Bang sono:
l'espansione secondo la legge di Hubble, che si può osservare nel redshift delle galassie;
le misure dettagliate della radiazione cosmica di fondo;
l'abbondanza degli elementi leggeri.
Questi sono talvolta chiamati i tre pilastri della teoria del Big Bang. Altri tipi di prove supportano il quadro d'insieme, come ad esempio molte proprietà della struttura a grande scala dell'universo, che sono previste a causa della crescita gravitazionale della struttura nella teoria standard del Big Bang.



L'epoca inflazionaria è contraddistinta dalla rapidissima espansione della dimensione spaziale sulla sinistra. La rappresentazione della radiazione cosmica di fondo come una superficie, e non come un cerchio, è un aspetto grafico privo di significato fisico. Analogamente in questo diagramma le stelle dovrebbero essere rappresentate come linee e non come punti.
Le osservazioni delle galassie e dei quasar mostrano che questi oggetti presentano il fenomeno del redshift, vale a dire che la loro luce emessa è spostata verso lunghezze d'onda maggiori. Questo fenomeno può essere osservato prendendo in esame lo spettro delle frequenze di un oggetto e confrontandolo con il modello spettroscopico delle linee di emissione o delle linee di assorbimento, che corrisponde agli atomi degli elementi chimici che interagiscono con la luce. Questi redshift sono omogenei, isotropi e distribuiti uniformemente tra gli oggetti osservati in tutte le direzioni. Per alcune galassie è possibile calcolare la loro distanza dalla Terra attraverso la scala delle distanze cosmiche. Quando le velocità di allontanamento vengono confrontate con queste distanze, viene riscontrata una relazione lineare, nota come legge di Hubble:

v = H_0 D
dove:

v è la velocità di allontanamento di una galassia (o di un qualsiasi oggetto lontano dalla Terra)
D è la distanza propria comovente dell'oggetto
H0 è la costante di Hubble, che risulta essere (70,1 ± 1,3) km/s/Mpc (dai rilevamenti del satellite WMAP).
La legge di Hubble ha due possibili spiegazioni: o la Terra è al centro di una espansione delle galassie, che è insostenibile per via del principio copernicano, o l'universo si sta espandendo uniformemente dappertutto. Questa espansione è prevista dalla relatività generale nella formulazione di Alexander Friedman nel 1922 e da Georges Lemaître nel 1927, molto prima che Hubble facesse le sue analisi e osservazioni nel 1929 e rimane il fondamento della teoria del Big Bang così come è stata sviluppata da Friedmann, Lemaître, Robertson e Walker.

La teoria richiede che la relazione  v = HD  sia mantenuta in ogni arco di tempo, dove D è la distanza propria, v = d D/d t. Le quantità v, H e D variano mentre l'universo si espande (perciò si indica con H_0 la costante di Hubble nella nostra epoca astronomica). Per distanze molto inferiori alla grandezza dell'universo osservabile, il redshift dovuto alla legge di Hubble può essere interpretato come un effetto Doppler, e quindi può essere calcolata la velocità di allontanamento v. Tuttavia, il redshift non è un vero e proprio effetto Doppler, bensì il risultato dell'espansione dell'universo tra l'attimo in cui un fascio di luce è stato emesso e il momento in cui è stato ricevuto.

Che lo spazio sia in una fase di espansione metrica è evidenziato dalle prove di osservazione diretta del principio cosmologico e del principio di Copernico, che insieme alla legge di Hubble non hanno altra spiegazione. I redshift astronomici sono estremamente isotropi e omogenei, confermando il principio cosmologico, il quale afferma che l'universo appare uguale in tutte le direzioni. Se gli spostamenti verso il rosso fossero il risultato di un'esplosione da un punto distante da noi, questi non sarebbero così simili lungo le diverse direzioni.

Le misure degli effetti della radiazione cosmica di fondo nelle dinamiche dei sistemi astrofisici distanti effettuate nel 2000 hanno confermato il principio di Copernico, cioè che la Terra non è in una posizione centrale su scala cosmica. La radiazione proveniente dal Big Bang era sicuramente più calda nelle prime epoche in tutto l'universo. Il raffreddamento uniforme della radiazione cosmica di fondo attraverso miliardi di anni è spiegabile solo se l'universo sta subendo un'espansione metrica ed esclude la possibilità che siamo nell'unico centro dell'esplosione.

Nei giorni successivi al Big Bang, l'universo era in una condizione di equilibrio termodinamico, con fotoni che erano continuamente emessi ed assorbiti, dando alla radiazione una forma simile allo spettro di un corpo nero. Mentre si espandeva, l'universo si raffreddava fino a raggiungere una temperatura che non permetteva più la creazione e la distruzione dei fotoni. La temperatura era però ancora sufficientemente alta da non consentire che gli elettroni si legassero con i nuclei per formare atomi ed i fotoni erano costantemente riflessi da questi elettroni liberi attraverso un processo chiamato scattering Thomson. A causa di questo ripetuto scattering, l'universo era inizialmente "opaco".

Quando la temperatura scese a qualche migliaio di kelvin, gli elettroni liberi e i nuclei cominciarono a combinarsi tra loro per formare gli atomi, un processo conosciuto come ricombinazione. Poiché la diffusione dei fotoni è meno frequente da atomi neutri, la radiazione si disaccoppiò dalla materia quando tutti gli elettroni si ricombinarono (all'incirca 379 000 anni dopo il Big Bang). Questi fotoni formano la radiazione cosmica di fondo, che è possibile rilevare oggi e il modello osservato delle fluttuazioni di tale radiazione fornisce un'immagine del nostro universo in quell'epoca iniziale. L'energia dei fotoni fu successivamente spostata verso il rosso dall'espansione dell'universo, il che conservò lo spettro di corpo nero, ma causò l'abbassamento della sua temperatura, spostando i fotoni nella regione delle microonde all'interno dello spettro elettromagnetico. Si ritiene che sia possibile osservare la radiazione in ogni punto dell'universo e che essa provenga da tutte le direzioni con (all'incirca) la stessa intensità.



Nel 1964 Arno Penzias e Robert Wilson scoprirono casualmente la radiazione cosmica di fondo, mentre conducevano osservazioni diagnostiche usando un nuovo ricevitore di microonde (di proprietà dei Bell Laboratories). La loro scoperta fornì la sostanziale conferma delle previsioni sulla radiazione (essa era isotropica e confrontabile con uno spettro di corpo nero con una temperatura di circa 3 K) e permise di avere una valida prova a favore dell'ipotesi del Big Bang. Penzias e Wilson ricevettero il premio Nobel per la fisica nel 1978 grazie a questa scoperta.

Nel 1989 la NASA lanciò il satellite COBE (acronimo di COsmic Background Explorer) e le prime conclusioni, fornite nel 1990, erano consistenti con le previsioni della teoria del Big Bang per quanto riguarda la radiazione cosmica di fondo. COBE trovò una temperatura residua di 2,726 K e nel 1992 individuò per la prima volta le fluttuazioni (anisotropie) della radiazione, con un'incertezza di una parte su 105. John C. Mather e George Smoot ricevettero il premio Nobel nel 2006 per questo lavoro. Durante il decennio successivo, queste anisotropie furono studiate ulteriormente da un gran numero di esperimenti (sia a terra, sia attraverso palloni sonda). Nel 2000-2001 molti esperimenti (tra cui il più importante fu BOOMERanG), misurando la larghezza angolare tipica delle anisotropie, trovarono che l'universo ha una geometria quasi piatta.

All'inizio del 2003, furono pubblicati i primi risultati del satellite WMAP, ottenendo quelli che erano al tempo i più accurati valori di alcuni parametri cosmologici. Il satellite inoltre escluse numerosi modelli inflazionari, benché i risultati fossero in generale coerenti con la teoria dell'inflazione e confermò che un mare di neutrini cosmici permea l'universo, una prova evidente che le prime stelle impiegarono più di mezzo miliardo di anni per creare una nebbia cosmica. Un altro satellite simile a WMAP, il Planck Surveyor, che è stato lanciato il 14 maggio 2009, fornirà misure ancora più precise sull'anisotropia della radiazione di fondo. Sono previsti inoltre esperimenti a terra e con palloni sonda.

La radiazione di fondo è incredibilmente omogenea e questo presentò un problema nei modelli di espansione convenzionali, perché ciò avrebbe implicato che i fotoni provenienti da direzioni opposte siano venuti da regioni che non sono mai state in contatto le une con le altre. La spiegazione oggi prevalente per questo equilibrio su vasta scala è che l'universo abbia avuto un breve periodo con una espansione esponenziale, conosciuta come inflazione. Questo avrebbe avuto l'effetto di allontanare regioni che erano in equilibrio termodinamico, cosicché tutto l'universo osservabile proviene da una regione con lo stesso equilibrio.

A partire dal modello del Big Bang, è possibile calcolare la concentrazione di elio-4, elio-3, deuterio e litio-7 nell'universo in rapporto alla presenza totale di idrogeno ordinario. Tutte le loro abbondanze derivano da un singolo parametro, il rapporto tra fotoni e barioni, che può essere calcolato indipendentemente dalla struttura dettagliata delle fluttuazioni della radiazione di fondo. I rapporti delle masse previsti sono circa 0,25 per elio-4 rispetto a idrogeno, circa 10-3 per il deuterio rispetto all'idrogeno, circa 10-4 per elio-3 rispetto ad idrogeno e circa 10-9 per litio-7 rispetto all'idrogeno.

Le misure delle abbondanze primordiali di tutti e quattro gli isotopi elencati sopra sono in accordo con un unico valore del rapporto barione-fotone. Il valore per il deuterio è altamente coerente, vicino ma leggermente discrepante per elio-4 e discordante di un fattore 2 per litio-7; negli ultimi due casi la discordanza dei valori è causata da errori sistematici. La coerenza di questi dati con quelli previsti dalla teoria della nucleosintesi è una prova a favore della teoria del Big Bang. Finora è l'unica teoria conosciuta che riesca a spiegare l'abbondanza relativa degli elementi leggeri, in quanto è impossibile che il Big Bang possa aver prodotto più del 20–30% di elio. Infatti non vi è alcun motivo evidente al di fuori del Big Bang per cui il "giovane" universo (vale a dire prima della formazione delle stelle, secondo quanto stabilito dallo studio della materia presumibilmente libera dai prodotti della nucleosintesi stellare) dovesse avere più elio che deuterio o più deuterio di ³He.

Osservazioni dettagliate sulla morfologia e distribuzione delle galassie e dei quasar forniscono una prova convincente della teoria del Big Bang. La combinazione delle osservazioni e delle teorie suggerisce che i primi quasar e le prime galassie si formarono circa un miliardo di anni dopo il Big Bang e da allora si formarono le strutture più grandi, come gli ammassi e i superammassi galattici. Le popolazioni stellari si sono evolute nel tempo, perciò le galassie più distanti (che vengono osservate così come erano nel giovane universo) appaiono molto diverse dalle galassie a noi più vicine, in quanto queste ultime sono osservate in uno stato più recente.

Inoltre, le galassie che si sono formate in periodi relativamente recenti appaiono decisamente diverse rispetto a quelle che si formarono ad una distanza simile, ma subito dopo il Big Bang. Queste osservazioni sono portate come prove contro il modello dello stato stazionario. Le osservazioni della formazione stellare, della distribuzione di galassie e quasar e le strutture a larga scala sono in accordo con le previsioni del Big Bang (per quel che riguarda la formazione di queste strutture nell'universo) e stanno contribuendo a completare tutti i dettagli della teoria.



Dopo alcune controversie, l'età dell'universo, come stimato dalla costante di Hubble e dalla radiazione di fondo, è consistente (vale a dire leggermente maggiore) con le età delle stelle più vecchie, misurate applicando la teoria dell'evoluzione stellare agli ammassi globulari e attraverso la datazione radiometrica di singole stelle di Popolazione II.

La previsione che la temperatura della radiazione di fondo fosse più alta in passato è stata confermata sperimentalmente dalle osservazioni delle linee di emissioni sensibili alla temperatura nelle nubi di gas con alto spostamento verso il rosso. Questa previsione implica inoltre che l'ampiezza dell'effetto Sunyaev-Zel'dovich negli ammassi di galassie non dipende direttamente dal loro redshift: questo sembra essere abbastanza vero, ma l'ampiezza dipende da proprietà dell'ammasso, che cambiano sostanzialmente solo su un arco di tempo cosmico, perciò una verifica abbastanza precisa è impossibile da svolgere.

Mentre ormai pochi ricercatori mettono in dubbio il fatto che sia avvenuto il Big Bang, la comunità scientifica era divisa in passato tra chi sosteneva tale teoria e chi riteneva possibili altri modelli cosmologici. In questo contesto di acceso dibattito furono sollevati molti problemi inerenti alla teoria del Big Bang e la sua capacità di riprodurre le osservazioni cosmologiche. Ormai questi problemi sono perlopiù ricordati principalmente per il loro interesse storico; le soluzioni ad essi sono state ottenute o attraverso modifiche alla teoria o come risultato di osservazioni migliori. Altre questioni, come il problema della cuspide degli aloni galattici, la grande presenza di galassie nane e la natura della materia oscura fredda, non sono considerate irrisolvibili e si suppone di venirne a capo attraverso ulteriori perfezionamenti di tale teoria.

Le idee centrali nella teoria del Big Bang sono state confermate da parecchie osservazioni indipendenti tra loro, che includono l'abbondanza degli elementi leggeri, la radiazione cosmica di fondo, la struttura a grande scala dell'universo e le supernovae di tipo Ia, e perciò non possono più essere messe in dubbio come caratteristiche importanti e reali del nostro universo.

Gli attuali accurati modelli del Big Bang ricorrono a vari fenomeni fisici "esotici", che non sono stati ancora osservati negli esperimenti effettuati nei laboratori terrestri o non sono stati incorporati nel Modello Standard della fisica delle particelle. Fra questi fenomeni l'esistenza dell'energia oscura e della materia oscura sono considerate le ipotesi più solide, mentre l'inflazione cosmica e la bariogenesi sono teorie più speculative: esse forniscono spiegazioni soddisfacenti per importanti caratteristiche dell'universo nelle epoche più antiche, ma potrebbero essere sostituite da idee alternative senza compromettere il resto della teoria. Le spiegazioni di tali fenomeni sono ancora argomento dei settori più avanzati della ricerca fisica.

Il problema dell'orizzonte nasce dalla premessa che non esiste alcuna interazione capace di trasmettere informazione a velocità superiore a quella della luce. In un universo con un'età finita, ciò comporta un limite, detto orizzonte di particella, sulla massima distanza tra due qualsiasi regioni di spazio che sono in rapporto causale tra loro. L'isotropia osservata nella radiazione cosmica di fondo è problematica al riguardo: se l'universo fosse stato dominato dalla radiazione o dalla materia per tutto l'arco di tempo che arriva fino all'istante dell'ultimo scattering, l'orizzonte di particella relativo a quell'istante dovrebbe corrispondere a due gradi nel cielo. Quindi non ci sarebbe alcun meccanismo che possa portare regioni più ampie di cielo ad avere la stessa temperatura.



Una soluzione a questa apparente incoerenza è fornita dalla teoria inflazionaria, nella quale un campo di energia scalare omogeneo e isotropo dominò l'universo in un periodo di tempo che precede la bariogenesi. Durante l'inflazione, l'universo subì un'espansione esponenziale e l'orizzonte delle particelle si espanse molto più rapidamente di quanto supposto in precedenza, perciò anche quelle regioni, che sono attualmente poste su lati opposti dell'universo osservabile, sono bene all'interno del reciproco orizzonte delle particelle. L'isotropia osservata nella radiazione di fondo deriva dal fatto che tutto l'universo osservabile era in rapporto causale prima dell'inizio dell'inflazione e perciò si era già portato in una condizione di equilibrio termico.

Il principio di indeterminazione di Heisenberg prevede che durante la fase inflazionaria ci siano state fluttuazioni termiche quantistiche, che si sarebbero ingrandite su scala cosmica. Queste fluttuazioni sono i fondamenti di tutti gli attuali modelli sulla struttura dell'universo. L'inflazione prevede che le fluttuazioni primordiali siano all'incirca invarianti di scala e gaussiane; ciò è stato accuratamente confermato dalle misure della radiazione di fondo.

Se il processo inflazionistico ha davvero avuto luogo, l'espansione esponenziale deve aver spinto ampie regioni dello spazio ben oltre il nostro orizzonte osservabile.

La geometria dell'universo è determinata da quanto il parametro cosmologico Omega è più o meno distante da 1. Dall'alto verso il basso: un universo chiuso con curvatura positiva, universo iperbolico con curvatura negativa e universo piatto con curvatura nulla.
Il problema dell'universo piatto (conosciuto anche come il problema dell'universo vecchio) è un problema osservativo, associato alla metrica di Friedmann - Lemaître - Robertson - Walker. L'universo può avere una curvatura spaziale positiva, negativa o nulla in funzione della sua densità totale di energia. Avrà curvatura negativa se la sua densità è inferiore alla densità critica, positiva se è maggiore e nulla se la densità coincide con quella critica (nel qual caso lo spazio viene definito piatto). Il problema è che ogni minima divergenza dalla densità critica aumenta con il tempo e ancora oggi l'universo rimane molto vicino all'essere piatto. Dato che una scala naturale dei tempi per l'inizio della deviazione dalla piattezza potrebbe essere il tempo di Planck, 10-43 secondi, il fatto che l'universo non abbia raggiunto né la morte termica né il Big Crunch dopo miliardi di anni, richiede una spiegazione. Per esempio, anche all'epoca relativamente "vecchia" di pochi minuti (il tempo della nucleosintesi), la densità dell'universo deve essersi trovata entro circa una parte su 1014 dal suo valore critico, altrimenti l'universo non esisterebbe così com'è oggi.

Una soluzione a questo problema è fornita dall'inflazione. Durante il periodo inflazionario, lo spaziotempo si espanse, fino al punto che la sua curvatura sarebbe stata resa piatta. Pertanto, si ritiene che l'inflazione portò l'universo ad uno stato spaziale sostanzialmente piatto, con all'incirca l'esatta densità critica.

L'obiezione riguardante il monopolo magnetico fu sollevata alla fine degli anni settanta. Le teorie della grande unificazione prevedevano un difetto topologico nello spazio, che si sarebbe manifestato sotto forma di monopoli magnetici. Questi oggetti potrebbero essere prodotti in maniera efficiente nelle primissime fasi dell'universo (con temperature molto elevate), dando una densità più alta di quella che è consistente con le osservazioni, dato che durante le ricerche non sono mai stati osservati monopoli. Questo problema può essere anche risolto con l'inflazione cosmica, che rimuove tutti i difetti dall'universo osservabile nello stesso modo in cui essa porta la geometria dell'universo ad essere piatta.

Una soluzione al problema dell'orizzonte, della geometria piatta e del monopolo magnetico alternativa all'inflazione cosmica è data dall'ipotesi di curvatura di Weyl.

Non si conosce ancora il motivo per cui nell'universo attuale sia presente solo materia e non antimateria. È generalmente accettato il fatto che l'universo, quando era giovane e caldo, era in equilibrio e conteneva un egual numero di barioni e antibarioni. Ciò nonostante, le osservazioni indicano che l'universo, incluse le sue regioni più distanti, è fatto quasi esclusivamente di materia. Un processo sconosciuto chiamato bariogenesi creò questa asimmetria. Affinché questo processo accadesse, dovevano essere soddisfatte le condizioni di Sakharov. Queste richiedono che il numero barionico non fosse conservato, che la simmetria C e la simmetria CP fossero violate e che l'universo avesse perso il suo equilibrio termodinamico. Tutte queste condizioni sono verificate nel Modello Standard, ma gli effetti non sono abbastanza forti da spiegare l'attuale asimmetria.

Alla metà degli anni novanta, le osservazioni riguardanti gli ammassi globulari sembravano essere in contraddizione con il Big Bang. Le simulazioni al computer, che confrontavano le osservazioni delle varie popolazioni stellari dei vari ammassi, indicarono che essi avessero un'età di circa 15 miliardi di anni (che era in contrasto con l'età dell'universo, circa 13,7 miliardi di anni). Questo problema fu risolto alla fine degli anni novanta, quando nuove simulazioni al computer, che includevano gli effetti della massa persa a causa del vento stellare, indicarono un'età molto più giovane per gli ammassi globulari. Restano aperte alcune questioni, su come misurare accuratamente l'età di questi ammassi, ma si pensa che questi oggetti siano tra i più vecchi dell'intero universo.

Durante degli studi effettuati negli anni sessanta, l'astronomo Halton Arp individuò dei possibili collegamenti tra alcune galassie con dei quasar e si riteneva che entrambi questi oggetti, essendo vicini a causa di queste interazioni, avessero avuto un redshift simile per via della legge di Hubble. Al contrario di quanto atteso, si calcolò un'estrema diversità tra i valori dei due redshift, come nel caso della galassia NCG 4319, e questo dato sembrava mettere in crisi l'idea dell'espansione dell'universo, poiché due oggetti vicini devono avere un simile spostamento verso il rosso dovuto all'espansione del cosmo. Per risolvere questo problema, che avrebbe colpito le basi della teoria del Big Bang, si è ipotizzato che la differenza nei redshift sia dovuta al fatto che queste galassie studiate, che sono generalmente molto attive, abbiano "espulso" il quasar; a questo punto la differenza dei redshift non sarebbe da attribuire a cause cosmologiche, ma a caratteri locali del sistema considerato.

Durante gli anni settanta e ottanta numerose osservazioni hanno mostrato che non c'è abbastanza materia visibile nell'universo per spiegare l'apparente forza di attrazione gravitazionale fra le galassie e al loro interno. Ciò ha portato l'idea che circa il 90% della materia dell'universo sia materia oscura, che non emette luce e non interagisce con la normale materia barionica. Inoltre, l'ipotesi che l'universo sia costituito principalmente da materia ordinaria porta a previsioni in forte contrasto con le osservazioni; in particolare l'universo oggi ha una struttura molto più a grumi e contiene molto meno deuterio di quanto sia possibile spiegare senza la presenza della materia oscura.



L'ipotesi della materia oscura viene suggerita da numerose osservazioni: le anisotropie della radiazione di fondo, la dispersione delle velocità degli ammassi di galassie, le distribuzioni della struttura a larga scala, gli studi sulle lenti gravitazionali e le misure degli ammassi di galassie attraverso i raggi X.

Le evidenze della materia oscura derivano dall'influenza gravitazionale sulla materia ordinaria, anche se nessuna sua particella è mai stata osservata in laboratorio. Sono state proposte molte particelle come appartenenti a questo tipo di materia e molti progetti per studiarle direttamente sono in corso.

Le misure sulla relazione tra il redshift e la magnitudine delle supernovae di tipo Ia hanno mostrato che l'espansione dell'universo sta accelerando da quando il cosmo aveva all'incirca metà della sua attuale età. Per spiegare questa accelerazione, la relatività generale richiede che la maggior parte dell'energia dell'universo sia costituita da una componente con un'alta pressione negativa, soprannominata "energia oscura". Questo tipo di energia viene suggerita da molti tipi di prove: le misure della radiazione di fondo indicano che l'universo è molto piatto dal punto di vista spaziale e quindi, in base alla relatività generale, esso deve avere quasi esattamente la densità critica del rapporto tra massa ed energia; invece la densità di massa del cosmo, che può essere misurata dai raggruppamenti gravitazionali, raggiunge solamente il 30% circa della densità critica. Poiché l'energia oscura non si raggruppa nel modo ordinario, quest'ultima è la migliore spiegazione per completare la parte mancante di densità di energia. L'energia oscura è inoltre richiesta da due misure geometriche della curvatura totale dell'universo: una utilizzando la frequenza delle lenti gravitazionali e l'altra utilizzando il modello caratteristico della struttura a larga scala del cosmo come un regolo.

La pressione negativa è una proprietà dell'energia del vuoto, ma l'esatta natura dell'energia oscura rimane uno dei grandi misteri del Big Bang. Alcuni possibili candidati per spiegare quale sia l'esatta forma di tale energia sono la costante cosmologica e la quintessenza. I risultati dal satellite WMAP (forniti nel 2008), che combinano i dati ricevuti dalla radiazione di fondo e da altre sorgenti, indicano che l'attuale universo è costituito dal 72% di energia oscura, dal 23% di materia oscura, dal 4,6% di materia ordinaria e da meno dell'1% di neutrini. La densità di energia dovuta alla materia diminuisce con l'espansione dell'universo, ma la densità dovuta all'energia oscura rimane all'incirca costante durante l'espansione cosmica. Pertanto la materia costituì una parte più importante della densità di energia nel passato rispetto ad oggi, ma il suo contributo continuerà a diminuire nel futuro, poiché l'energia oscura diventerà sempre più dominante.

Nel modello CDM, l'attuale miglior modello del Big Bang, l'energia oscura viene spiegata tramite la presenza di una costante cosmologica, introdotta nella relatività generale; tuttavia la dimensione della costante, che spiega correttamente l'energia oscura, è più piccola di circa 120 ordini di grandezza rispetto alle stime basate sulla gravità quantistica. La distinzione tra la costante cosmologica e le altre forme per spiegare l'energia oscura è un'area molto attiva dell'attuale ricerca.

Anche se il modello del Big Bang è stato accettato in cosmologia, esso verrà probabilmente perfezionato in futuro, poiché si sa ancora troppo poco dei primissimi istanti della storia dell'universo.

I teoremi di Penrose-Hawking sulle singolarità gravitazionali dimostrano l'esistenza di una singolarità all'inizio del tempo cosmico. Tuttavia questi teoremi assumono la validità della relatività generale, benché essa non sia applicabile prima del tempo in cui l'universo raggiunse la temperatura di Planck. Una trattazione della gravità in accordo anche con la meccanica quantistica potrebbe portare a soluzioni prive di singolarità.

Alcune proposte, ognuna delle quali comporta ipotesi non verificate, sono:

modelli che includono lo stato "senza frontiere" di Hartle-Hawking, nel quale l'intero spaziotempo è finito; ciò implica che il Big Bang costituisca un limite del tempo, ma senza la necessità di una singolarità iniziale.
modelli di mondo-brana, nei quali l'inflazione è dovuta al movimento delle "brane" (enti proposti nella teoria delle stringhe). I modelli di mondo-brana includono:
il modello pre-Big Bang;
il modello ekpirotico, nel quale il Big Bang è il risultato di una collisione tra brane;
il modello ciclico, una variante del modello ekpirotico nel quale le collisioni avvengono periodicamente.
la teoria dell'inflazione caotica, nella quale eventi inflativi avvengono casualmente all'interno di una "schiuma quanto-gravitazionale", dando luogo a molteplici universi, che si espandono come bolle a partire dal proprio Big Bang.
Le ultime due ipotesi propongono il Big Bang come un evento di un universo più grande e più vecchio (o di un multiverso), e non come l'inizio letterale di tutta la realtà.



Il modello cosmologico del Big Bang è stato sviluppato estrapolando le conoscenze fisiche attuali sino ad energie molto più grandi di quelle studiate sperimentalmente e a scale di distanza immense. La possibilità, quindi, di trovare conferme alla teoria del Big Bang è sottoposta a limiti teorici ed osservativi.

Il modello standard della fisica delle particelle dovrebbe essere valido sino a energie di circa 250 miliardi di elettronvolt, un livello corrispondente a circa 10-12 secondi dopo il Big Bang. Ogni affermazione relativa ad epoche antecedenti è fondata su teorie scientifiche non sufficientemente consolidate.

Anche l'osservazione diretta non può coprire le prime fasi del Big Bang. Le onde elettromagnetiche, infatti, non potevano essere trasmesse prima della formazione dell'idrogeno neutro, quando fu emessa la radiazione cosmica di fondo. L'osservazione dell'universo prima di tale evento potrebbe in linea di principio essere condotta rilevando le onde gravitazionali o i neutrini emessi, ma non esiste ancora alcuna tecnologia in grado di eseguire queste misure.

La teoria del Big Bang, quindi, risulta fondata su teorie sicuramente affidabili ed osservazioni verificate solo per la descrizione dell'evoluzione dell'universo dalla nucleosintesi primordiale in poi. Particolarmente incerte sono le affermazioni sulla forma globale dell'universo e sulla sua evoluzione nel lontano futuro. L'osservazione, infatti, è limitata dalla finitezza della velocità della luce, che determina un orizzonte invalicabile. Ogni estrapolazione oltre tale orizzonte è fondata su assunzioni più o meno implicite sulle proprietà topologiche dello spaziotempo e sulla sua regolarità ed è, perciò, puramente ipotetica. Localmente l'universo sembra essere piatto (euclideo) ma è impossibile escludere la presenza di una piccola curvatura, che determinerebbe una forma globale completamente diversa.

La scoperta dell'accelerazione dell'espansione dell'universo e la conseguente ipotesi dell'esistenza di una energia oscura ha creato ulteriori motivi di incertezza. Il modello di energia oscura adottato è utilizzato nella misura della curvatura dell'universo tramite le osservazioni della radiazione cosmica di fondo, benché i vincoli osservativi sull'energia oscura siano stati determinati nell'ipotesi che l'universo sia piatto.

Il Big Bang è una teoria scientifica, e come tale la sua validità o abbandono dipendono dal suo accordo con le osservazioni. Ma essendo una teoria che tratta dell'origine della realtà, è sempre stata collegata ad implicazioni teologiche e filosofiche.
Negli anni venti e trenta quasi tutti i maggiori cosmologi preferivano un universo eterno, e molti obiettarono che l'origine del tempo implicita nel Big Bang introduceva concetti religiosi all'interno della fisica; questa obiezione fu più tardi ripetuta dai sostenitori della teoria dello stato stazionario. Georges Lemaître, che propose questa teoria, era un prete cattolico.
Lo stesso papa Pio XII, quando fu pubblicata la teoria, si entusiasmò con un personale e lungo commento teologico, nel 1951, improntato sull'Ex nihilo nihil fit ed il Fiat lux.
Tuttavia, gli approcci di una qualsivoglia fede spirituale o - in termini filosofici - trascendenza - su tale teoria, possono essere molto aperti, e di vario tipo. Si va dal conflitto teologico, all'approccio epistemologico, dall'amichevole disinteresse al discordismo, fino a un interesse sincretistico.
Oggi, i vari studi del creazionismo, il pensiero sul disegno intelligente o lo stesso evoluzionismo - per citarne solo alcuni - sono alla ricerca di un arricchimento sulla "verità" ultima (ancora più ampia di quella concepita dall'intelligenza umana di oggi) sull'origine (ma soprattutto sul perché) dell'esistenza di tutto questo universo.




mercoledì 28 ottobre 2015

LA GRAFOLOGIA



Dimmi come scrivi e ti dirò chi sei. È questo lo spirito che ha ispirato gli studi grafologici, studi che ormai sono almeno bicentenari. E nel tempo le scuole grafologiche si sono moltiplicate (quelle pricipali sono tre), così come sono sempre di più le aziende che per assumere il proprio personale preferiscono avere anche una valutazione della scrittura.
Perché se è vero che non si è ancora giunti a una valutazione univoca e «scientifica» della scrittura, sono molti a credere che i grafologi bravi ci azzecchino. Le basi delle tecniche grafologiche con particolare attenzione all'impostazione della «scuola italiana», quella fondata da Padre Girolamo Moretti, e fornisce al lettore le cognizioni di base per analizzare l'utilizzo dei margini, i calibri della scrittura e l'inclinazione. Insegna poi alcuni trucchetti utili a identificare i principali segni grafici che involontariamente finiamo per infilare nei nostri scarabocchi o nei nostri appunti.

La grafologia, dal greco graphos (scrittura) e logos (trattato), è l’arte di dedurre le caratteristiche della personalità di un individuo dal suo modo di scrivere. Oggi la grafologia si è evoluta nella “psicologia della scrittura“, che va considerata una disciplina scientifica poichè si fonda su leggi, enunciate su basi sperimentali, e utilizza un raffinato e complesso sistema grafometrico e statistico. La grafia, infatti, è oggi intesa fra le espressioni più indicative della personalità, al pari della voce, del portamento, del modo di atteggiare il viso, di gestire o di vestirsi.

La scrittura è un insieme di simboli in cui l’uomo proietta i suoi aspetti interiori più autentici. In sostanza, con il termine “proiezione” si indica l’operazione con cui un fatto neurologico o psicologico è spostato e localizzato all’esterno passando dal sistema nervoso centrale al periferico (dal cervello alla mano) e dal soggetto all’oggetto (in questo caso dall’uomo alla sua scrittura).

Chi scrive ascendente al rigo è un progressista, ama le innovazioni, è creativo e sa presentare persuasivamente le sue idee. È ottimista, idealista, ambizioso, intraprendente.

Chi scrive aderente al rigo ha una visione realistica delle cose, le accetta così come stanno, non tenta di migliorarle o di cambiarle. Sul lavoro è un valido collaboratore.

La scrittura discendente al rigo indica la tendenza a sottovalutarsi e a deprimersi, a far prevalere le idee degli altri sulle proprie, a lavorare in posizione dipendente.

Chi ha una scrittura grande tiene se stesso nella massima considerazione. È suscettibile, esige soddisfazioni per le offese reali o immaginarie. Tende ad imporre agli altri il proprio stile di vita e il proprio modo di pensare.

La scrittura piccola, invece, denota modestia, disciplina, serietà, sostanzialità negli affetti, attenzione intensa, capacità di osservare e memorizzare i particolari. Se è troppo piccola esprime un complesso di inferiorità.

Nella scrittura gli spazi tra le parole possono essere ampi o stretti.
La scrittura con larghi spazi tra le parole esprime un’ampia visione mentale. Appartiene a chi possiede senso critico, è obiettivo nelle valutazioni, lungimirante, non è impulsivo, non si entusiasma facilmente, ha un'inclinazione per le attività intellettuali e per le scienze.
La scrittura con spazi stretti tra le parole, invece, riflette leggerezza, imprudenza, impulsività, facili entusiasmi, cambiamenti d’umore repentini, scarsa attitudine al comando per insufficiente capacità di calcolare le conseguenze, inclinazione per l’arte.

La scrittura è detta “chiara” quando le singole lettere si leggono chiaramente, altrimenti è detta “oscura”.

La scrittura chiara è di chi pensa e agisce con chiarezza. È corretto nel rapporto con gli altri e apprende con facilità.

La scrittura oscura, invece, è di chi pensa e agisce in modo nebuloso, senza una precisa coscienza dei limiti, di chi si accontenta dell’approssimativo.

La scrittura calma indica pazienza, animo quieto, capacità educative, azione pacifica e serena.

La scrittura rapida, invece, indica vigore e velocità mentale, irrequietezza, talvolta indisciplina, impetuosità, vivacità, necessità di variare ambienti e incombenze.




La scrittura eretta esprime un atteggiamento piuttosto freddo di chi tiene sotto controllo i propri sentimenti e le proprie sensazioni.

La scrittura pendente indica calore affettivo, cordialità, talvolta poco coraggio; e inoltre, ricercatezza, eleganza, cura dell’aspetto personale.

La scrittura rovesciata è di chi è inibito nelle manifestazioni espansive e tende a isolarsi dall’ambiente; dà buone garanzie di stabilità affettiva e autodisciplina, ma ha difficoltà ad agire e a scegliere gli svaghi.


I tagli delle “t” alti indicano il bisogno di elevarsi al di sopra degli altri.

I tagli bassi esprimono democraticità, disponibilità a tenere conto delle esigenze altrui.

I tagli ascendenti esprimono aggressività.

I tagli declinati denotano pessimismo e tendenza ad avvilirsi.

I tagli grossi indicano sopravvalutazione delle proprie forze e attitudine al comando.

I tagli sottili sono di quelle persone che si esprimono in modo delicato e riguardoso.

I tagli lunghi esprimono focosità nel pensare e nell’agire, impazienza, insofferenza per gli ostacoli, eccesso di reattività.

I tagli corti sono di quelle persone che in situazioni di crisi tendono a paralizzarsi psicologicamente; si ha quindi blocco della memoria, incapacità di prendere decisioni ecc.

I tagli incorporati indicano temperamento pratico e sbrigativo.

I punti sulle “i” sono un segno particolarmente immediato e spontaneo, per questo rivelano con precisione alcuni tratti del carattere.

I punti perfettamente centrati sono segno di conformismo, meticolosità, scrupolo, forte autocontrollo.

I punti spostati in avanti indicano dinamicità, prontezza nelle decisioni.

I punti omessi rivelano trascuratezza, scarsa attenzione ai particolari, scarsa precisione.

I punti a forma di accento indicano capacità di attenzione pronta e intensa, senso di responsabilità, precisione nell’azione.

I punti a forma di cerchio sono di chi in generale aspira alla chiarezza. Le sue azioni e decisioni possono venire danneggiate dall’eccessiva cura dei particolari, che può rasentare la pignoleria.

- Chi preme sul foglio scrivendo, ha una grande energia e sicurezza di sé, e una forte voglia di emergere.
- Chi invece non preme scrivendo rivela insicurezza di sé, paura e quindi debolezza.

La dimensione delle lettere
- Chi scrive con lettere molto rotonde è una persona buona e leale.
- Chi scrive con lettere grandi è una persona abile nella vita di società.
- Chi scrive con lettere piccole è una persona che si esamina spesso dentro e ha problemi a farsi accettare dagli altri..

La direzione di scrittura
- Se la scrittura tende verso sinistra, la persona in questione è legata al passato e saldamente attaccata a bei ricordi.
- Chi scrive verso l'alto è una persona positiva, crede in quello che fa.
- Chi scrive verso il basso è un pessimista, ha paura di sbagliare.

I margini del foglio
- Chi scrive entro i margini è una persona ordinata e non ama i cambiamenti della vita.
- Chi non lascia margine a destra è una persona aperta a nuove esperienze che ama godersi la vita.
- Chi non lascia margine a sinistra, invece, è una persona legata al passato più che al futuro e alle nuove esperienze.

La firma va esaminata in rapporto al testo.
- Se firma e testo hanno lo stesso stile, la realtà intima e sociale saranno coerenti, la persona si propone agli altri così com'è
- Se firma e testo sono molto diversi, lo scrivente ha un bisogno di mascherarsi all'esterno e si stima poco.

Chi colloca la firma sulla destra del foglio è proiettato verso gli altri,
Chi firma a sinistra è sintomo di freno e riserve verso le relazioni.
La posizione centrale può indicare insicurezza, indecisione e desiderio di attenzione.






Abbiamo creato un SITO
per Leggere Le Imago
Poni una Domanda
e Premi il Bottone il
Sito Scegliera' una Risposta a Random
Tra le Carte che Compongono il Mazzo
BUON DIVERTIMENTO
gratis

PER TABLET E PC

LE IMAGO
.

 ANCHE

PER CELLULARE


NON SI SCARICA NIENTE
TUTTO GRATIS


DOMANDA
CLIK
E
RISPOSTA

FAI VOLARE LA FANTASIA 
NON FARTI RUBARE IL TEMPO
 I TUOI SOGNI DIVENTANO REALTA'
 OGNI DESIDERIO SARA' REALIZZATO 
IL TUO FUTURO E' ADESSO .
 MUNDIMAGO
http://www.mundimago.org/
.

.

lunedì 26 ottobre 2015

GLI INCIDENTI STRADALI E ASSICURAZIONI FANTASMA



Il codice della strada prescrive che ogni veicolo a motore che circola sulla strada debba essere obbligatoriamente assicurato affinché, in caso di incidente, il danneggiato sia messo nelle condizioni di ottenere il giusto risarcimento. Purtroppo però oggi sono molti i veicoli che circolano senza avere una idonea copertura assicurativa. Inoltre, sempre più spesso, capita che proprio i veicoli non assicurati, coinvolti in un incidente stradale si diano prontamente alla fuga, senza fornire i dati alla controparte ai fini del risarcimento dei danni causati, come previsto obbligatoriamente dalla legge. Come fare, quindi, se si viene coinvolti in un incidente da un veicolo non assicurato? A quale Compagnia bisogna rivolgersi per ottenere il risarcimento dei danni subiti?

Per garantire il giusto risarcimento è stato istituito il Fondo di garanzia per le vittime della strada, che ha il compito di intervenire tutte le volte che in un incidente stradale viene coinvolto un mezzo non assicurato oppure un mezzo che non viene identificato, perché è scappato. Il fondo agisce per mezzo di Compagnie assicuratrici designate, che cambiano a seconda della regione nella quale è avvenuto il sinistro, e che gestiscono la procedura di risarcimento come se il mezzo non assicurato (oppure non identificato) fosse assicurato presso di loro. Il Fondo di garanzia per le vittime della strada è gestito dalla Consap, società ad integrale capitale pubblico, che agisce sotto la vigilanza del Ministero delle Attività Produttive.

Il Fondo è alimentato da una aliquota sui premi per l’assicurazione obbligatoria della responsabilità civile per i danni causati dalla circolazione dei veicoli a motore e dei natanti, in sintesi la pagano tutti coloro che fanno una polizza assicurativa.

Le ipotesi in cui è possibile ottenere il risarcimento da parte del Fondo di garanzia per le vittime della strada sono espressamente stabilite dalla legge, che contempla anche le tipologie di danno risarcibile; in particolare si tratta di sinistri nei quali è coinvolto un veicolo:

non identificato: in questo caso vengono risarciti solo i danni alla persona.
non assicurato: in questo caso vengono risarciti sia i danni alle cose che i danni alla persona. In tale caso spetta al soggetto danneggiato provare il presupposto per l'intervento del Fondo di garanzia e cioè l'assenza di copertura assicurativa obbligatoria sul veicolo danneggiante;
messo in circolazione contro la volontà del proprietario (perché ad esempio rubato): in questo caso vengono risarciti i danni alla persona e alle cose subiti dai terzi trasportati o dalle persone trasportate contro la loro volontà oppure dalle persone che sono inconsapevoli della circolazione non autorizzata del mezzo. Si segnala che, nel caso in cui il veicolo è posto in circolazione contro la volontà del suo proprietario e quest'ultimo sporga denuncia all'Autorità di Polizia, ad esempio per il furto del veicolo, o comunque per l'uso non autorizzato, i terzi trasportati, anche se contro la propria volontà, restano privi della copertura assicurativa dal giorno successivo alla presentazione della denuncia: da ciò è nata l'esigenza di tutelare tali soggetti, inconsapevoli dell'uso illegittimo del veicolo, con il sistema del Fondo di garanzia.
Nel caso in cui si sia coinvolti in un incidente con un veicolo non assicurato o che si è dato alla fuga, sia che vi siano persone ferite, sia che si tratti di soli danni alle cose, si consiglia di attivare sempre l'intervento di un organo di polizia stradale: il rapporto di sinistro, redatto dal personale intervenuto, infatti avrà un importante valore ai fini della dimostrazione che l'altro veicolo era privo della copertura assicurativa, perché gli verrà applicata la sanzione prevista dal codice della strada per mancanza dell'assicurazione, ovvero si è dato alla fuga. Il Fondo di Garanzia per le vittime della strada si attiva su richiesta del danneggiato che lamenti dei danni subiti nell'ambito di un sinistro che ha coinvolto un mezzo non identificato oppure non assicurato.



La Compagnia designata, una volta liquidato il risarcimento, procede ad identificare il responsabile del sinistro e a richiedere a quest'ultimo il rimborso di quanto pagato al danneggiato. Se il danneggiante non procede spontaneamente al pagamento la Compagnia designata può procedere nei suoi confronti per il recupero coattivo della somma.

Nel caso invece in cui il danneggiato non si accordi con l'impresa designata circa l'ammontare del danno, potrà proporre azione giudiziale, a determinate condizioni. Infatti, l'azione potrà essere proposta solo dopo che siano trascorsi sessanta giorni da quello in cui il danneggiato abbia richiesto il risarcimento del danno all'impresa designata e alla Consap. L'azione risarcitoria dovrà essere rivolta contro l'impresa designata poichè la Consap ha solo la facoltà di intervenire nel processo.

Si stima che negli ultimi anni, causa il protrarsi della crisi economica ed un prezzo delle assicurazioni, seppur in netto ribasso, tra le più care d’Europa, il numero di veicoli che circola nel Belpaese senza regolare copertura assicurativa si aggira a 4 milioni di veicoli, e cioè circa 8,7% del parco macchine circolanti su strada. Una cifra record che sembra non voler arrestarsi.

Il Fondo “copre” quattro tipologie di sinistri, ovvero quando l’incidente sia stato causato da:

un veicolo non identificato: in questo caso vengono risarciti solo i danni alla persona. Se il danno alla persona è grave il Fondo risarcirà anche i danni alle cose con una franchigia di euro 500,00;
un veicolo non assicurato: in questo caso vengono risarciti sia i danni alle cose, con una franchigia di euro 500,00, che i danni alla persona;
un veicolo assicurato con Imprese poste in liquidazione coatta amministrativa: in tal caso vengono risarciti sia i danni alle cose che i danni alla persona;
un veicolo posto in circolazione contro la volontà del proprietario: in questo caso vengono risarciti i danni alla persona e alle cose subiti dai terzi trasportati o dalle persone trasportate contro la loro volontà oppure dalle persone che sono inconsapevoli della circolazione illegale del veicolo.
Il Fondo provvede al risarcimento del danno in due ulteriori casi, nello specifico:

incidenti causati da veicoli spediti nel territorio della Repubblica Italiana da un altro Stato dello Spazio Economico Europeo (Paesi della UE + Islanda, Norvegia e Lichtenstein) avvenuti nel periodo intercorrente dalla data di accettazione della consegna del veicolo e lo scadere del termine di 30 giorni: in questo caso vengono risarciti sia i danni alle cose che i danni alla persona;
incidenti causati da veicoli esteri con targa non corrispondente o non più corrispondente allo stesso veicolo: anche in questo caso vengono risarciti sia i danni alle cose che i danni alla persona.






Abbiamo creato un SITO
per Leggere Le Imago
Poni una Domanda
e Premi il Bottone il
Sito Scegliera' una Risposta a Random
Tra le Carte che Compongono il Mazzo
BUON DIVERTIMENTO
gratis

PER TABLET E PC

LE IMAGO
.

 ANCHE

PER CELLULARE


NON SI SCARICA NIENTE
TUTTO GRATIS


DOMANDA
CLIK
E
RISPOSTA

FAI VOLARE LA FANTASIA 
NON FARTI RUBARE IL TEMPO
 I TUOI SOGNI DIVENTANO REALTA'
 OGNI DESIDERIO SARA' REALIZZATO 
IL TUO FUTURO E' ADESSO .
 MUNDIMAGO
http://www.mundimago.org/
.

.

LE ACCISE DELLA BENZINA



Le accise sono tributi indiretti sotto forma di imposta sui consumi, sono calcolate in rapporto alla quantità e non del valore come accade per l’Iva. Riguardano principalmente carburanti, gas, energia elettrica, alcolici e tabacchi e sono per lo più imposte di scopo, cioè introdotte per raggiungere un certo scopo.
Quello che forse non sappiamo molto bene è che sul prezzo in Italia pesano “tasse misteriose” che resistono da oltre 70 anni e che il nostro caro Paese continua a farci pagare.
Il prezzo complessivo è composto da varie voci, quali il costo del prodotto raffinato, il trasporto primario, il costo di stoccaggio, le varie spese di ufficio e punto vendita, fino al margine per il gestore. Sembrerebbero molte, ma tutte queste voci che contemplano spese e guadagni per diversi soggetti ammontano solo al 30% del costo del carburante.
La verità di questo eccessivo aumento deriva dalle famose accise che pesano per il 52% sul costo totale.
Forse non tutti sapranno che il prezzo medio annuo della benzina nel 2012 è stato di 1,787 € facendo registrare il più alto valore corrente di sempre. Il record a prezzi attualizzati resta quello del 1977 quando un litro di verde si pagava 1,9€, mentre il gasolio “vince tutto” con il suo prezzo medi di 1,705 € al litro. Aumenti di prezzi che hanno costretto molti automobilisti a lasciare, in sempre più occasioni, l’auto in garage e a servirsi di strumenti per risparmiare qualche centesimo alla pompa.
Un’ascesa del prezzo dei carburanti dovuta essenzialmente alla crescente pressione fiscale, che ha superato la soglia di 1€ per litro. Mentre il prezzo medio industriale della verde ha subito un rincaro del 9%, nel 2012 è stato di 0,759€/l, le accise e l’IVA hanno goduto di un incremento del 20%.
La prima accisa fu introdotta da Mussolini nel lontano 1935, pari a 1,90 lire al litro sulla benzina per finanziare la guerra di conquista dell’Abissinia. Poi nel corso degli anni ogni Governo ha deciso di imporre “balzelli” per ogni emergenza: dalla crisi di Suez (1956), al disastro del Vajont (1963), fino alle guerre in Libano e Bosnia.


L’elenco delle accise che quotidianamente paghiamo al distributore:
0,000981 euro: finanziamento della guerra d’Etiopia del 1935-1936;
0,00723 euro: finanziamento della crisi di Suez del 1956;
0,00516 euro: ricostruzione post disastro del Vajont del 1963;
0,00516 euro: ricostruzione post alluvione di Firenze del 1966;
0,00516 euro: ricostruzione post terremoto del Belice del 1968;
0,0511 euro: ricostruzione post terremoto del Friuli del 1976;
0,0387 euro: ricostruzione post terremoto dell’Irpinia del 1980;
0,106 euro: finanziamento della guerra del Libano del 1983;
0,0114 euro: finanziamento della missione in Bosnia del 1996;
0,02 euro: rinnovo del contratto degli autoferrotranvieri del 2004;
0,005 euro: acquisto di autobus ecologici nel 2005;
0,0051 euro: terremoto dell’Aquila del 2009;
da 0,0071 a 0,0055 euro: finanziamento alla cultura (ma molti parlarono di “cinema di quarta categoria…”) nel 2011;
0,04 euro: arrivo di immigrati dopo la crisi libica del 2011;
0,0089 euro: alluvione in Liguria e Toscana nel novembre 2011;
0,082 euro (0,113 sul diesel): decreto “Salva Italia” nel dicembre 2011;
0,02 euro: terremoti dell’Emilia del 2012;
In poche parole, sono 0.5 euro (IVA inclusa) di accise, sì perché anche l’IVA del 22% si paga. Inoltre dal 1999, le regioni possono imporre un’ulteriore accisa sulla benzina. Da ora in poi, vedrete diversamente il modo di fare il pieno.
Quindi le nostre auto sono dei gioielli, basti pensare che tra manutenzione, assicurazione, parcheggi, pedaggi e carburante, un’auto di media cilindrata “consuma” ogni anno oltre 4.500 euro. In pratica per le quattro ruote private se ne va circa il 13% del reddito complessivo delle famiglie italiane: soltanto per avere un tetto e per alimentarci spendiamo di più. Se si aggiungono circa 750 euro l’anno di costi sociali indiretti, ossia quelli derivanti dagli incidenti stradali o dall’inquinamento, il peso dell’auto sui bilanci diviene paradossale: per ogni tre euro spesi per alimentarci, ne spendiamo altri due per l’auto.

Per fare un confronto in Spagna il prezzo finale si aggira intorno a 1,3 euro al litro e in Francia arriva a un massimo di 1,560. Nel caso del GPL (gas di petrolio liquefatti), invece, accise e IVA sommate consistono in meno della metà del prezzo totale. Per la benzina il prezzo al netto delle imposte, quello industriale, corrisponde a circa la metà del totale delle imposte.

Nell’Indice delle Liberalizzazioni stilato per il 2014 dall’Istituto Bruno Leoni, l’Italia risulta “il secondo Paese meno liberalizzato” nel settore carburanti tra i 15 Paesi principali dell’Unione europea presi in considerazione. Carlo Stagnaro, curatore dell’Indice e autore del primo capitolo sui carburanti per autotrazione, prende in considerazione tre fattori per costruire la classifica. Un primo fattore che spiega la maggiore o minore apertura al mercato  “è legato alla presenza di norme che inducono rigidità nel settore e di conseguenza si traducono in maggiori costi grossomodo simmetrici tra i concorrenti”; l’esempio è quello di leggi regionali che in Italia impongono requisiti diversi ai nuovi entranti nel settore (come l’obbligo di dotarsi di impianti per erogare idrogeno, metano o Gpl). Un secondo fattore considerato è “la maggiore o minore propensione della rete e del modello di business nella vendita a evolvere e adattarsi a un mondo che cambia”; alcune protezioni più o meno implicite rendono meno necessaria la modernizzazione degli impianti, rallentando per esempio la diffusione del self service o la rivendita di prodotti non-oil ai punti di rifornimento. Infine però, come riconosce Stagnaro, il terzo e “più importante” fattore che frena oggi la liberalizzazione del settore carburanti in Italia è l’incidenza del prelievo fiscale.



Nel dicembre 2014 il prezzo al consumo medio per la benzina senza piombo è stato di 1,565 euro al litro; di questo prezzo, soltanto 0,55 euro/litro dipendono dal prezzo industriale, in ribasso grazie all’andamento del greggio; la maggior parte dell’incasso va allo Stato sotto forma di accise (0,73 euro/litro) e di Iva (0,28 euro/litro). Insomma: è la voracità dello Stato la prima causa del prezzo della benzina italiana. Un prezzo che, se si tiene conto delle tasse, è il più alto d’Europa e del mondo industrializzato: ai prezzi attuali, per fare un pieno a una piccola vettura utilitaria con un serbatoio di 35 litri, un cittadino polacco spende ogni volta l'equivalente di 40 euro, uno tedesco 47 euro, uno italiano 55 euro.

Il Fisco italiano è l’unico a rallegrarsi. Nel 2011 il gettito fiscale proveniente dalle accise – essenzialmente benzina, energia elettrica e alcol – era di quasi 20 miliardi di euro. Nel 2012, dopo che il Governo Monti innalzò fortemente le accise sulla benzina all’apice della crisi da spread, lo Stato si ritrovò a incassare addirittura 25 miliardi di euro dalle accise, 5 miliardi in più dall’anno prima. L’effetto depressivo delle troppe tasse si è fatto sentire, disincentivando ulteriormente l’utilizzo di mezzi di trasporto privati. Tuttavia grazie ad alcuni aumenti decisi pure dal Governo Letta, lo Stato è tornato a incassare parecchio: nel periodo gennaio-ottobre Roma ha ottenuto dalle accise già 20 miliardi di euro, il 6% in più che nello stesso periodo del 2013.





Abbiamo creato un SITO
per Leggere Le Imago
Poni una Domanda
e Premi il Bottone il
Sito Scegliera' una Risposta a Random
Tra le Carte che Compongono il Mazzo
BUON DIVERTIMENTO
gratis

PER TABLET E PC

LE IMAGO
.

 ANCHE

PER CELLULARE


NON SI SCARICA NIENTE
TUTTO GRATIS


DOMANDA
CLIK
E
RISPOSTA

FAI VOLARE LA FANTASIA 
NON FARTI RUBARE IL TEMPO
 I TUOI SOGNI DIVENTANO REALTA'
 OGNI DESIDERIO SARA' REALIZZATO 
IL TUO FUTURO E' ADESSO .
 MUNDIMAGO
http://www.mundimago.org/
.

.

domenica 25 ottobre 2015

La Taratura delle POMPE DI BENZINA



Di fondamentale importanza per la tutela della fede pubblica è verificare che l’erogazione dei carburanti sia misurata correttamente, si tratti di benzine, gpl o gas metano.

L'Ufficio metrico non controlla l’eventuale composizione dei gas presenti nel carburante ma soltanto se il misuratore funziona nell’ambito delle tolleranze consentite: +3% e -2%, secondo la normativa italiana, e +5% e -5%  per quella europea.

Il controllo dei misuratori di carburante e degli interi impianti di distribuzione del carburante da parte degli Uffici Metrici deve garantire che non venga frodato il consumatore e nello stesso tempo che anche il gestore sia tutelato.

La parte che rileva per la tutela del consumatore è quella che si sviluppa a valle del misuratore. E’ la parte che va mantenuta integra e non manomessa. Il misuratore e’ il fulcro del circuito in quanto quello che il misuratore misura e che è segnalato dalla testata deve corrispondere con quanto erogato. Per questo tutto il percorso dal misuratore alla pistola di erogazione è vincolato da sigilli (i bolli metrici).

Le parti dell'impianto che devono essere protette da interventi non autorizzati vengono piombate o inibite con i sigilli legali.

La piombatura consiste in una punzonatura su un piombo fisso o in un piombo stretto con le pinze.

I sigilli dell'Ufficio metrico sono di due tipi per ogni ufficio/ispettore metrico: in uno c’è il numero dell’ufficio competente e nell'altro il numero dell’Ispettore.

La verifica periodica dei distributori di carburanti ha scadenza biennale.

La temperatura fa variare la densità del carburante, anche se per avere differenze notevoli bisogna che la differenza di temperatura sia enorme.



Il controllo a tappeto della Guardia di Finanza sui distributori di benzina italiani ha svelato che circa il 14% di più di 1.200 benzinai è “truffaldino”. Gli espedienti per ricavare guadagni illeciti sulla distribuzione di carburante sono a volte molto sofisticati e difficili da scoprire. Molti distributori, ad esempio, acquistano gasolio dai condomini o dalle aziende agricole (settori dove le accise sono più basse) ricavandone un guadagno illecito. Ma delle 174 irregolarità accertate dalla GdF, le più numerose sono quelle a danno dei consumatori e alcune di queste sono davvero indecenti. Il caso più assurdo è quello di due distributori che “allungavano” il gasolio con l’acqua con percentuali talmente esagerate (circa il 15%) da arrivare a causare danni agli automobilisti che avevano appena fatto il pieno. Il gestore dei due impianti, ovviamente, è stato denunciato e gli oltre 20mila litri di gasolio "annacquato" sono stati sequestrati. Molti  distributori avevano manomesso le colonnine in modo da erogare l’8% in meno di carburante di quanto indicato dai contalitri. Una pratica purtroppo molto diffusa che però, a differenza della benzina allungata, può essere smascherata. Sulle colonnine di rifornimento, oltre ai display classici che indicano litri e costo del carburante, è presente anche un piccolissimo contatore a rulli che conteggia i litri erogati. Se durante il rifornimento notate una diversità di erogazione tra i due dati allora siete di fronte a una manomissione del distributore. Altri metodi più semplici per lucrare alle spalle di automobilisti e motociclisti consistono nel modificare il prezzo presente regolarmente nei cartelli stradali, oppure nel non azzerare il contatore della benzina a ogni rifornimento. Una tecnica banale ma molto efficace. In questi casi ovviamente basta solo un po’ di attenzione. Negli ultimi anni, la Guardia di Finanza ha cercato di sensibilizzare i cittadini, offrendo la possibilità di segnalare con facilità un possibile illecito.







Abbiamo creato un SITO
per Leggere Le Imago
Poni una Domanda
e Premi il Bottone il
Sito Scegliera' una Risposta a Random
Tra le Carte che Compongono il Mazzo
BUON DIVERTIMENTO
gratis

PER TABLET E PC

LE IMAGO
.

 ANCHE

PER CELLULARE


NON SI SCARICA NIENTE
TUTTO GRATIS


DOMANDA
CLIK
E
RISPOSTA

FAI VOLARE LA FANTASIA 
NON FARTI RUBARE IL TEMPO
 I TUOI SOGNI DIVENTANO REALTA'
 OGNI DESIDERIO SARA' REALIZZATO 
IL TUO FUTURO E' ADESSO .
 MUNDIMAGO
http://www.mundimago.org/
.

.

Elenco blog AMICI