Entropia: concetti fondamentali e applicazioni
L’entropia, indicata con la lettera S e misurata in J/K, è una funzione di stato introdotta da Clausius nel 1865. Deriva dal greco “εν” (che significa “dentro”) e “τροπη” (che significa “trasformazione”). Questa grandezza può essere definita secondo la termodinamica classica in sistemi all’equilibrio o secondo un approccio statistico.
L’entropia gioca un ruolo centrale nello studio della termodinamica ed è stata introdotta attraverso il concetto di funzionamento del motore termico, con importanti contributi da parte di vari studiosi come Sadi Carnot, James Prescott Joule, William Thomson, Rudolf Clausius e Max Planck.
Una funzione di stato è una grandezza la cui variazione dipende solamente dalle condizioni assunte da un sistema all’inizio e alla fine di una trasformazione termodinamica.
La variazione di entropia di un sistema, indicata con ∆S, è misurata in termini relativi in base ai cambiamenti che il sistema subisce da uno stato iniziale a uno stato finale. Termodinamicamente, la variazione di entropia per un processo reversibile è definita come ∆S = Q/T, dove Q è il calore ceduto o acquistato dal sistema e T è la temperatura alla quale avviene il processo.
Si definisce isoentropico un processo in cui l’entropia del sistema rimane costante (∆S = 0), anche se nella realtà si tratta di un caso ideale. Nei processi irreversibili, come quelli che avvengono nelle macchine in seguito a fenomeni di attrito o reazioni chimiche, l’entropia tende ad aumentare.
Il Secondo Principio della Termodinamica enunciato da Clausius stabilisce che è impossibile realizzare una trasformazione il cui unico risultato sia il passaggio di calore da un corpo a una data temperatura ad un altro a temperatura maggiore, senza l’apporto di lavoro esterno o di altre forze. Ciò implica che senza l’apporto di lavoro esterno o di altre forze, il calore passa dal corpo più caldo a quello più freddo fino al raggiungimento dell’equilibrio termico.
In un processo spontaneo, la variazione di entropia è sempre maggiore di zero o al massimo uguale a zero. Essa è correlata al grado di disordine, concetto introdotto da Ludwig Boltzmann, e può essere trattata da un punto di vista matematico in termini di termodinamica statistica.
Il processo spontaneo porta ad un aumento del disordine e quindi dell’entropia. Ad esempio, se un gas è messo a contatto con un recipiente vuoto, esso tenderà ad occupare tutto lo spazio a sua disposizione, in conformità al concetto di stato più probabile che può assumere.