Esercizi sull'Entropia

Esercizi sull'Entropia Esercizi sull'Entropia
Esercizi sull'Entropia

Versione italiana

Esercizi sull'Entropia

L'entropia è una misura del disordine o dell'incertezza in un sistema. È un concetto fondamentale in termodinamica, teoria dell'informazione e statistica. In termodinamica, l'entropia è associata alla quantità di energia in un sistema che non può essere utilizzata per compiere lavoro.

Concetti Chiave

  1. Definizione di Entropia: In termodinamica, l'entropia SSS è definita come:
    dS = \frac{\delta Q}{T} dS=δQT dS = \frac{\delta Q}{T}
    dove \delta QδQ\delta Q è il calore scambiato e TTT è la temperatura assoluta.

  2. Entropia di Boltzmann: In statistica, l'entropia è definita dalla formula di Boltzmann:
    S = k \ln \Omega S=klnΩ S = k \ln \Omega
    dove kkk è la costante di Boltzmann e \OmegaΩ\Omega è il numero di microstati compatibili con un dato macrostato.

  3. Entropia e Informazione: In teoria dell'informazione, l'entropia HHH di una variabile casuale XXX è definita come:
    H(X) = -\sum_{i} p(x_i) \log p(x_i) H(X)=ip(xi)logp(xi) H(X) = -\sum_{i} p(x_i) \log p(x_i)
    dove p(x_i)p(xi)p(x_i) è la probabilità dell'evento x_ixix_i.

Esercizi

Esercizio 1

Calcola l'entropia di Boltzmann per un sistema con \Omega = 10^3Ω=103\Omega = 10^3 microstati.

Soluzione:
Utilizzando la formula di Boltzmann:
S = k \ln \Omega = k \ln(10^3) = k \cdot 3 \ln(10) S=klnΩ=kln(103)=k3ln(10) S = k \ln \Omega = k \ln(10^3) = k \cdot 3 \ln(10)
Se kkk è la costante di Boltzmann, puoi sostituire il valore numerico per ottenere l'entropia.

Esercizio 2

Sia XXX una variabile casuale con le seguenti probabilità:

  • p(x_1) = 0.5p(x1)=0.5p(x_1) = 0.5
  • p(x_2) = 0.3p(x2)=0.3p(x_2) = 0.3
  • p(x_3) = 0.2p(x3)=0.2p(x_3) = 0.2

Calcola l'entropia $ H(X) $.

Soluzione:
Utilizzando la formula dell'entropia:
H(X) = -\sum_{i} p(x_i) \log p(x_i) = -\left(0.5 \log(0.5) + 0.3 \log(0.3) + 0.2 \log(0.2)\right) H(X)=ip(xi)logp(xi)=(0.5log(0.5)+0.3log(0.3)+0.2log(0.2)) H(X) = -\sum_{i} p(x_i) \log p(x_i) = -\left(0.5 \log(0.5) + 0.3 \log(0.3) + 0.2 \log(0.2)\right)
Calcola i valori per ottenere l'entropia.

Esercizio 3

Un sistema termodinamico scambia 200 J di calore a una temperatura di 300 K. Calcola la variazione di entropia \Delta SΔS\Delta S.

Soluzione:
Utilizzando la definizione di entropia:
\Delta S = \frac{\delta Q}{T} = \frac{200 \, \text{J}}{300 \, \text{K}} = \frac{2}{3} \, \text{J/K} ΔS=δQT=200J300K=23J/K \Delta S = \frac{\delta Q}{T} = \frac{200 \, \text{J}}{300 \, \text{K}} = \frac{2}{3} \, \text{J/K}

English version

Entropy Exercises

Entropy is a measure of disorder or uncertainty in a system. It is a fundamental concept in thermodynamics, information theory, and statistics. In thermodynamics, entropy is associated with the amount of energy in a system that cannot be used to do work.

Key Concepts

  1. Definition of Entropy: In thermodynamics, entropy SSS is defined as:
    dS = \frac{\delta Q}{T} dS=δQT dS = \frac{\delta Q}{T}
    where \delta QδQ\delta Q is the heat exchanged and TTT is the absolute temperature.

  2. Boltzmann Entropy: In statistics, entropy is defined by Boltzmann's formula:
    S = k \ln \Omega S=klnΩ S = k \ln \Omega
    where kkk is Boltzmann's constant and \OmegaΩ\Omega is the number of microstates compatible with a given macrostate.

  3. Entropy and Information: In information theory, the entropy HHH of a random variable XXX is defined as:
    H(X) = -\sum_{i} p(x_i) \log p(x_i) H(X)=ip(xi)logp(xi) H(X) = -\sum_{i} p(x_i) \log p(x_i)
    where p(x_i)p(xi)p(x_i) is the probability of the event x_ixix_i.

Exercises

Exercise 1

Calculate the Boltzmann entropy for a system with \Omega = 10^3Ω=103\Omega = 10^3 microstates.

Solution:
Using Boltzmann's formula:
S = k \ln \Omega = k \ln(10^3) ​​= k \cdot 3 \ln(10) S=klnΩ=kln(103)​​=k3ln(10) S = k \ln \Omega = k \ln(10^3) ​​= k \cdot 3 \ln(10)
If kkk is the Boltzmann constant, you can substitute the numerical value to obtain the entropy.

Exercise 2

Let XXX be a random variable with the following probabilities:

  • p(x_1) = 0.5p(x1)=0.5p(x_1) = 0.5
  • p(x_2) = 0.3p(x2)=0.3p(x_2) = 0.3
  • p(x_3) = 0.2p(x3)=0.2p(x_3) = 0.2

Calculate the entropy $ H(X) $.

Solution:
Using the entropy formula:
H(X) = -\sum_{i} p(x_i) \log p(x_i) = -\left(0.5 \log(0.5) + 0.3 \log(0.3) + 0.2 \log(0.2)\right) H(X)=ip(xi)logp(xi)=(0.5log(0.5)+0.3log(0.3)+0.2log(0.2)) H(X) = -\sum_{i} p(x_i) \log p(x_i) = -\left(0.5 \log(0.5) + 0.3 \log(0.3) + 0.2 \log(0.2)\right)
Calculate the values ​​to obtain the entropy.

Exercise 3

A thermodynamic system exchanges 200 J of heat at a temperature of 300 K. Calculate the entropy change \Delta SΔS\Delta S.

Solution:
Using the definition of entropy:
\Delta S = \frac{\delta Q}{T} = \frac{200 \, \text{J}}{300 \, \text{K}} = \frac{2}{3} \, \text{J/K} ΔS=δQT=200J300K=23J/K \Delta S = \frac{\delta Q}{T} = \frac{200 \, \text{J}}{300 \, \text{K}} = \frac{2}{3} \, \text{J/K}

Commenti