Entropia, Scienza, Informazione e Libertà

This post is also available in: enEnglish

Cos’hanno in comune queste parole?

Lasciate che vi accompagni in questo piccolo viaggio.

Che cos’è l’entropia?

Entropia è la misura del caos di un sistema (ad esempio l’universo). Quando un sistema passa da uno stato di ordine ad uno stato di caos diciamo che la sua entropia è aumentata.

Quando trasformiamo l’energia da uno stato ad un altro, una parte di questa energia viene dissipata sotto forma di calore e non può più essere utilizzata per alimentare ulteriori trasformazioni. Quando questa energia viene dissipata, l’entropia del sistema aumenta. Il momento in cui tutta l’energia è stata usata e dissipata è descritta come uno stato di equilibrio totale nel sistema. Prendendo il nostro universo come modello di un sistema isolato, questo momento è stato chiamato la “morte termica dell’universo“.

Un esempio che descrive l’entropia è quello di una goccia d’inchiostro che cade in un bicchiere d’acqua. Naturalmente l’inchiostro si diffonderà nell’acqua. Per ripescare l’inchiostro dall’acqua dobbiamo applicare un pò di energia e forzare il corso naturale degli eventi. Prima che l’inchiostro cada nel bicchiere abbiamo un basso livello di entropia o, in altre parole, abbiamo un alto livello di distinzione e individualità tra gli elementi del sistema (acqua e inchiostro). Dopo che l’inchiostro è caduto e si è diffuso nell’acqua, l’entropia è al suo livello più alto: abbiamo il caos, una separazione meno distinta e una minore riconoscibilità tra l’inchiostro e gli elementi dell’acqua.

Una cosa che possiamo imparare da questo concetto è che nell’universo c’è una naturale tendenza verso uno stato di equilibrio tra tutte le sue parti. Ogni tensione è destinata a essere dissipata. In questa naturale tendenza verso un caos egualmente organizzato, il verificarsi di una organizzazione naturale di energia / materia è altamente improbabile, a meno che non si ricorra ad energia proveniente dall’esterno del sistema.

La cosa divertente è che questo stato di equilibrio totale in cui tutti gli elementi all’interno del sistema sono equamente mescolati, è considerato il più alto stato di caos. Ma se si pensa a uno stato in cui tutto è uguale, questo stato sembra molto simile all’ordine totale. Ora estendiamo questo concetto ad altre aree … come l’informazione, il modo in cui comprendiamo le cose e il modo in cui percepiamo la realtà.

Iniziamo con un esempio: immagina un sistema costituito da un numero elevato di particelle in movimento, in cui il movimento di ogni particella influenza il comportamento di tutte le altre particelle. In questo esempio, se non abbiamo la minima idea di cosa succederà, questo scenario ha tutto l’aspetto della casualità. La casualità e il caos sono entrambe facce dell’ entropia, mentre la prevedibilità e l’ordine sono caratteristiche che troviamo in un sistema con bassa entropia.

In questo senso possiamo dire che il livello di entropia delle informazioni che abbiamo su questo sistema è molto alto. Se vogliamo calcolare la prossima posizione di una particella, dovremmo differenziare ciascuna particella in determinati parametri a nostra scelta (come ad esempio direzione, velocità …) il che significa che dobbiamo sottoporre il sistema a un codice. In tal modo riduciamo il livello di entropia del sistema (la sua carica informativa, o in altre parole la sua potenzialità), facendo ordine tra gli elementi.

Da questo esempio deduciamo come l’entropia sia proporzionale alla carica di potenzialità che hanno gli elementi nel sistema. Se vogliamo essere informati sullo stato reale del sistema, dobbiamo osservare il quadro prima di sottometterlo ad un codice di interpretazione. Così facendo otteniamo il quadro reale ma non riusciamo a capire: abbiamo un’informazione inutilizzabile. La totalità dell’informazione con la sua enorme mole di dati ci fornisce l’immagine completa del sistema con tutte le sue possibili variabili, ma allo stesso tempo non ci fornisce alcuna chiara definizione di come stanno andando le cose. Quindi l’informazione assoluta, l’immagine principale, la verità trasparente e totale, non ci comunica nulla finché non piazziamo lo scenario all’interno di un modello che fa ordine tra i suoi elementi, secondo le priorità che noi scegliamo!

Quindi è possibile ora definire:

Informazioni = entropia = potenzialità

La totalità dell’informazione significa essere consapevoli di tutto all’istante, di tutte le possibilità e di tutti i dettagli dell’intero sistema. Questa descrizione dell’informazione totale a me fa pensare all’illuminazione. Grazie alla ristrettezza del suo punto di vista, un essere umano è in grado di interpretare l’infinita potenzialità dell’universo, potendo leggere questa potenzialità attraverso il proprio codice. L’informazione totale è enorme e abbagliante, e afferrarla in un unico sguardo significherebbe essere consapevole di qualsiasi cosa nell’universo, sia nella sua potenzialità che nella sua attualità.

Ogni realizzazione della storia esiste già tra i nodi della libertà.

0 Condivisioni

Lascia un commento

Evolving Patterns
Top