Entropi — definition og betydning i termodynamik, sandsynlighed og information

Entropi — klar og grundig guide til definition, betydning og anvendelse i termodynamik, sandsynlighed og informationsteori.

Forfatter: Leandro Alegsa

Et objekts entropi er et mål for den mængde energi, der ikke er tilgængelig til at udføre arbejde. Entropi er også et mål for antallet af mulige arrangementer, som atomerne i et system kan have. I denne forstand er entropi et mål for usikkerhed eller tilfældighed. Jo højere entropi et objekt har, jo mere usikker er vi på tilstanden af de atomer, der udgør dette objekt, fordi der er flere tilstande at vælge imellem. En fysiklov siger, at det kræver arbejde at gøre entropien i et objekt eller system mindre; uden arbejde kan entropien aldrig blive mindre - man kan sige, at alting langsomt går mod uorden (højere entropi).

Ordet entropi stammer fra studiet af varme og energi i perioden 1850 til 1900. Nogle meget nyttige matematiske ideer om sandsynlighedsberegninger kom fra studiet af entropi. Disse idéer anvendes nu i informationsteori, kemi og andre forskningsområder.

Entropi er simpelthen et kvantitativt mål for det, som termodynamikkens anden lov beskriver: spredningen af energi, indtil den er jævnt fordelt. Betydningen af entropi er forskellig inden for forskellige områder. Det kan betyde:

  • Termodynamisk entropi: Et mål for, hvor meget varmeenergi i et system der ikke kan omdannes til mekanisk arbejde ved en given temperatur.
  • Statistisk entropi: Et mål for antallet af mikroskopiske måder (mikrostater) hvorpå et makroskopisk tilstand (makrostate) kan realiseres. Jo flere mikrostater, desto større entropi.
  • Informationsteoretisk entropi: Et mål for usikkerheden eller den gennemsnitlige mængde information i en tilfældig variabel eller besked; ofte omtalt som Shannon-entropien.

Grundlæggende formler og enheder

  • Boltzmann-formel (statistisk): S = k_B ln W, hvor S er entropien, k_B er Boltzmanns konstant, og W er antallet af mikrostater der svarer til makrostaten.
  • Termodynamisk differentialformel: dS = δQ_rev / T for en reversibel varmeudveksling δQ_rev ved temperatur T.
  • Shannon-entropi (informationsteori): H = −Σ p_i log p_i, hvor p_i er sandsynligheden for hændelse i, og log kan være base 2 (enheder: bits) eller base e (nat).
  • Enhed for termodynamisk entropi: joule per kelvin (J/K).

Termodynamikkens anden lov og irreversibilitet

Termodynamikkens anden lov siger i almindelig form, at for et isoleret system kan den samlede entropi aldrig falde; den forbliver konstant for en fuldstændig reversibel proces og stiger for enhver irreversibel proces. Det betyder praktisk, at energi spontant spreder sig og jævner sig ud (fx varme flytter sig fra varme til kolde dele) og at proceser der går mod større entropi er de mest sandsynlige.

Statistisk forklaring

I statistisk mekanik forklares entropi ud fra sandsynligheden for forskellige mikroskopiske tilstande. Et makroskopisk systems egenskaber (tryk, volumen, temperatur) kan realiseres af mange forskellige mikrostater. Entropi fortæller, hvor mange sådanne måder der findes: flere måder = større entropi. Dette forbinder makroskopisk termodynamik med mikroskopisk statistik.

Eksempler og anvendelser

  • Is smelter: Når is smelter til vand ved 0 °C optager systemet varme fra omgivelserne — ordnet strukturen i isens krystalgitter brydes, og entropien stiger.
  • Blanding af to gasser: Når to forskellige ideelle gasser blandes uden reaktion, stiger entropien (entropi af blanding), fordi partiklerne får flere tilgængelige positioner og fordelinger.
  • Kemiske reaktioner: Entropi indgår i Gibbs frie energi: ΔG = ΔH − TΔS. En positiv ΔS (stigning i entropi) gør det lettere for en reaktion at forløbe spontant ved højere temperaturer.
  • Information og datalagring: Shannon-entropi måler usikkerheden i et datasæt eller en beskedkilde. I computersammenhæng relaterer Landauer-princippet informationssletning til termodynamisk entropi: sletning af 1 bit kræver mindst k_B T ln 2 varmeudledning.

Specielle begreber og paradokser

  • Maxwells dæmon: Et tankeeksperiment hvor en hypotetisk "dæmon" adskiller hurtige og langsomme molekyler og derved ser ud til at reducere entropien uden arbejde. Løsningen på paradokset involverer informationsbehandling og viser, at dæmonens måling og sletning af information øger den samlede entropi, så anden lov holder.
  • Entropi og tidspil: Entropiens stigning forbindes med tidens pil: fordi universet startet i en meget lav entropitilstand (meget ordnet), giver det en retning fra fortid mod fremtid, hvor entropien typisk øges.
  • Negativ "entropi": Lokale entropinedgange er mulige (fx i en levende organisme eller i en kølemaskine), men de kræver arbejde eller energi og fører samlet til en større entropistigning i omgivelserne.

Måling og beregning

Entropi kan bestemmes eksperimentelt ved at måle varme, der tilføres eller fjernes ved kendt temperatur og integrere dS = ∫ δQ_rev/T. I statistiske modeller beregnes S fra antallet af mikrostater eller via sandsynlighedsfordelinger. For ideelle gasser og simple systemer findes lukkede formler, mens komplekse materialer ofte kræver numeriske metoder eller eksperimentelle data.

Praktisk betydning

Entropibegrebet er centralt inden for fysik, kemi, maskinteknik og informationsteknologi. Det forklarer hvorfor varmebehandlingsprocesser, kølesystemer, motorer og mange kemiske processer har begrænsninger i effektivitet. I informationsteknologi styrer entropi kompression, kryptering og beregningers fysiske grænser.

Historisk noter: Begrebet blev formaliseret i midten af 1800-tallet (Rudolf Clausius) og blev senere udbygget af Ludwig Boltzmann og J. Willard Gibbs med de statistiske fortolkninger. Claude Shannon introducerede en form for entropi i 1948 i forbindelse med kommunikationsteori.

Spørgsmål og svar

Q: Hvad er entropien af et objekt?



A: Et objekts entropi er et mål for den mængde energi, der ikke er tilgængelig for at udføre arbejde, og også et mål for antallet af mulige arrangementer, som atomerne i et system kan have.

Sp: Hvad er forholdet mellem entropi og usikkerhed/tilfældighed?



A: Entropi er et mål for usikkerhed eller tilfældighed, da jo højere entropi et objekt har, jo mere usikker er vi på tilstanden af de atomer, der udgør dette objekt, fordi der er flere tilstande at vælge imellem.

Spørgsmål: Kan entropien i et objekt eller system gøres mindre uden arbejde?



A: Nej, en fysiklov siger, at det kræver arbejde at gøre entropien i et objekt eller system mindre; uden arbejde kan entropien aldrig blive mindre - alting går langsomt over i uorden, hvilket betyder højere entropi.

Spørgsmål: Hvor kommer ordet entropi fra?



A: Ordet entropi stammer fra studiet af varme og energi mellem 1850 og 1900, og det gav anledning til nogle meget nyttige matematiske idéer om sandsynlighedsberegninger, som nu anvendes inden for informationsteori, statistisk mekanik, kemi og andre studieområder.

Spørgsmål: Hvad måler entropi kvantitativt?



Svar: Entropi måler ganske enkelt det, som termodynamikkens anden lov beskriver: spredningen af energi, indtil den er jævnt fordelt.

Spørgsmål: Hvordan er betydningen af entropi forskellig på forskellige områder?



A: Betydningen af entropi varierer på forskellige områder, og det kan betyde forskellige ting, f.eks. informationsindhold, uorden og energispredning.

Sp: Hvilken rolle spiller entropi i sandsynlighedsberegninger?



A: Entropi giver en matematisk måde at kvantificere graden af uorden eller usikkerhed i et system på, hvilket er nyttigt i sandsynlighedsberegninger.


Søge
AlegsaOnline.com - 2020 / 2025 - License CC3